6월 28일 (현지 시각) 구글은 전 세계 연구진과 개발자들을 대상으로 90억 매개변수 (9B) 와 270억 매개변수 (27B) 두 가지 크기로 젬마 2대 언어 모델을 발표했다.
구글은 젬마 2-27B 모델의 성능이 두 배 규모의 주류 모델에 필적하며, 엔비디아 H100 ensor Core GPU 또는 TPU 호스트 하나만으로 이러한 성능을 구현할 수 있어 배치 비용을 크게 낮출 수 있다고 밝혔다.
구글은 또 앞으로 몇 달 동안 26억 매개변수의 젬마2 모델을 발표해 스마트폰의 인공지능 응용 장면에 더 적합할 계획이다.