A Google anunciou oficialmente o lançamento da nova série de modelos abertos de geração seguinte, Gemma 4. O modelo utiliza a mesma arquitetura técnica que o Gemini 3, passando totalmente para uma licença Apache 2.0 mais amiga do comércio, e destaca-se pela sua potente capacidade de execução local.
(Antecedentes: a Google alega que um computador quântico quebrou o Bitcoin em 9 minutos — como é que se calcula esse número, e onde está a verdadeira ameaça?)
(Complemento de contexto: Desastres naturais previstos por IA》A Google lançou a framework «Groundsource», usando o Gemini para transformar notícias globais em 2,6 milhões de dados vitais)
Índice do artigo
Toggle
A Google voltou a lançar um impacto no domínio da IA de código aberto. A sua mais recente apresentação anuncia o lançamento da série «Gemma 4», que se afirma como o modelo aberto mais inteligente da sua linha. A Gemma 4 herda diretamente as tecnologias de investigação de nível mundial do modelo de topo Gemini 3, trazendo capacidades de inferência inovadoras e fluxos de trabalho orientados por agentes (Agentic). O que mais chamou a atenção da comunidade foi que, desta vez, a Google respondeu ao clamor dos programadores, passando de forma abrangente para a licença Apache 2.0, amigável ao comércio, permitindo que os utilizadores construam e implantem com segurança livremente em qualquer ambiente, mantendo total controlo sobre os seus próprios dados e infraestruturas.
Acabámos de lançar a Gemma 4 — os nossos modelos abertos mais inteligentes até à data.
Construída a partir da mesma investigação de nível mundial que o Gemini 3, a Gemma 4 leva inteligência inovadora diretamente ao seu próprio hardware para raciocínio avançado e fluxos de trabalho orientados por agentes.
Lançada sob uma licença comercial… pic.twitter.com/W6Tvj9CuHW
— Google (@Google) 2 de abril de 2026
Para satisfazer diferentes cenários de hardware e aplicações, a Gemma 4 disponibiliza quatro versões de tamanhos distintos. A mais leve, a E2B (2B de parâmetros), foi concebida especificamente para dispositivos móveis e dispositivos de ponta como navegadores; a E4B (4B de parâmetros) encontra um equilíbrio entre desempenho e eficiência, oferecendo ainda suporte mais nativo para entradas de visão e de áudio. Já nos modelos de alto desempenho, a 26B A4B utiliza uma arquitetura de especialistas mistos (MoE); na inferência, apenas são ativados cerca de 4B de parâmetros, reduzindo significativamente as necessidades de memória. Mesmo em hardware de consumo como o Mac Mini com 24GB de memória, consegue executar com fluidez. O modelo denso topo de gama, de 31B, é o carro-chefe de desempenho dessa série.
Em termos de especificações técnicas, a versão de modelo grande da Gemma 4 suporta, no máximo, uma janela de contexto até 256K tokens, permitindo aos programadores processar de uma só vez um repositório inteiro de código ou grandes quantidades de dados de documentos. Para além do suporte nativo ao processamento de texto e imagem (a E2B e a E4B também suportam áudio), a Gemma 4 possui ainda uma forte capacidade nativa de chamadas de funções (Function Calling), conseguindo produzir de forma estável um formato JSON estruturado, fornecendo uma base excelente para construir aplicações de agentes autónomos. Além disso, os seus dados de treino abrangem mais de 140 línguas, com elevada aplicabilidade global.
A Gemma 4 enfatiza a eficiência «por byte» extremamente alta. De acordo com dados de rankings de modelos abertos como a AI Arena, a Gemma-4-31B encontra-se atualmente no 3.º lugar entre os modelos abertos, com desempenho global até comparável ao do volumoso Qwen3.5-397B — mas o seu tamanho é apenas um décimo do deste. Nos testes de benchmark de raciocínio ao nível de pós-graduação (GPQA Diamond), a versão de 31B ainda alcançou um impressionante 84,3%.
Vejamos como é que o modelo aberto Gemma evoluiu ao longo das suas últimas três versões.
– A Gemma 4 está 100 lugares acima da Gemma 3
– A Gemma 3 está 87 acima da Gemma 2Todos os três modelos da @GoogleDeepMind têm aproximadamente o mesmo tamanho (31B, 27B, 27B), e esses ganhos vieram apenas de 9 e 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A
— Arena.ai (@arena) 2 de abril de 2026
Atualmente, os programadores já podem experimentar diretamente a Gemma 4 no Google AI Studio, ou descarregar modelos de pesos em plataformas como Hugging Face e Ollama. A comunidade também avançou rapidamente, lançando versões quantizadas otimizadas para GPU. No entanto, há também alguns programadores que apontam que, ao lidar com ambientes reais e complexos de depuração de código, a Gemma 4 ainda tem espaço para otimização. Ainda assim, no geral, este lançamento de código aberto, sem dúvida, deu um forte impulso para impulsionar a soberania digital e as aplicações de IA locais.