Google DeepMind 6 апреля официально выпустила Gemma 4 — это четвертое поколение открыто-весовых моделей серии Gemma. Выпущены четыре версии, лицензия теперь изменена на Apache 2.0, а также добавлена нативная поддержка мульти-модальных входных данных и agent-рабочих процессов.
Четыре спецификации: от мобильных устройств до серверов — всё покрыто
31B плотная модель занимает третье место среди открытых моделей в текстовом рейтинге Arena AI; 26B модель со смешанными экспертами — шестое. Google заявляет, что две крупные модели на бенчмарке Arena AI сохраняют преимущество даже по сравнению с другими моделями, у которых параметров в 20 раз больше.
Ключевые возможности: мульти-модальность, аудио, 140 видов языков
Все четыре версии нативно поддерживают мульти-модальные входные данные видео и изображений, включая OCR и понимание диаграмм. Версии для edge (E2B, E4B) дополнительно поддерживают аудио-входы, которые можно использовать в сценариях распознавания речи.
Все модели поддерживают вызовы функций (function calling), структурированный вывод JSON, а также нативные системные инструкции для построения agent-рабочих процессов. Учебные данные включают более 140 языков.
Лицензия вместо кастомной — Apache 2.0: для коммерческого использования стало удобнее
Ранее Gemma-серия использовала кастомную лицензию, которая накладывала ограничения на изменение и повторный выпуск. Gemma 4 перешла на отраслевой стандарт лицензирования Apache 2.0, позволяющий коммерческое использование, изменение и повторный выпуск без необходимости отдельно подписывать соглашение с Google. Google заявляет, что это делает Gemma 4 более подходящей для корпоративных и разработческих применений.
Четыре модели уже полностью открыты для использования. Google пока не публиковал сроки интеграции edge-моделей в Android или потребительские аппаратные продукты.
Эта статья Google выпускает Gemma 4: четыре спецификации, лицензия Apache 2.0, от телефона до сервера — всё покрыто впервые появилась в LianNews ABMedia.