📍 AbstractGemma는 Gemini 모델을 만드는 데 사용된 연구 및 기술로 구축된 가벼운 sota 오픈 모델이다. Gemma는 언어 이해, 추론 및 안정성에 대한 벤치마크에서 강력한 성능을 보여주며 2B, 7B 두 가지 크기의 모델을 제공한다. 18개의 벤치마크 중 11개에서 비슷한 크기의 오픈 모델보다 뛰어난 성능을 보였다.📍 IntroductionGemma는 Gemini 모델과 유사한 아키텍처, 데이터, 훈련 방법을 사용하여 최대 6T 토큰의 텍스트에서 학습되었다. 모델의 크기는 2B, 7B가 제공되었다.7B Gemma 70억 개의 파라미터 모델GPU 및 TPU에서 효율적인 배포 및 개발을 위함2B Gemma20억 개의 파라미터 모델CPU 및 온디바이스 애플리케이션을 위함 📍 Model..