Gemini 3 Flash conquista o trono: o novo modelo do Google desafia a OpenAI com velocidade, economia e desempenho sem compromissos

Google ha ufficialmente lanciato Gemini 3 Flash, posicionando-o como o modelo padrão em toda a plataforma Gemini global. A estreia representa um avanço significativo na corrida tecnológica com a OpenAI, com a empresa de Mountain View já a processar mais de 1 trilião de tokens por dia através da sua API.

Desempenho que surpreende: os números falam por si

O que torna este lançamento interessante não é apenas a velocidade—tema que retornará frequentemente—mas os benchmarks que desmontam qualquer hesitação. No teste Humanity’s Last Exam, Gemini 3 Flash marcou 33,7%, praticamente alinhado com GPT-5.2 (34,5%) e não muito longe do Pro da Google (37,5%). A diferença? Flash custa muito menos e é mais rápido.

Mas o verdadeiro knockout chega com MMMU-Pro, o benchmark de raciocínio multimodal onde o novo modelo supera a concorrência com 81,2%, ultrapassando literalmente todos os concorrentes. Estes não são apenas números numa folha: significam que pode carregar um vídeo, um áudio, um desenho e obter respostas sofisticadas sem esperar minutos.

Velocidade como arma competitiva: o seletor de velocidade ao serviço dos utilizadores

A Google enfatizou deliberadamente um aspeto crucial: o novo modelo é três vezes mais rápido que o Gemini 2.5 Pro. Não é apenas uma métrica técnica, é uma experiência concreta. A app Gemini agora oferece um seletor de velocidade implícito: pode usar Flash para quase tudo—análise de vídeo, extração de dados, raciocínio visual—sem comprometer a qualidade, ou selecionar o modelo Pro para perguntas de programação avançada ou matemática complexa.

Esta flexibilidade foi pensada estrategicamente. Para tarefas de raciocínio, o novo modelo consome 30% menos tokens em comparação com o 2.5 Pro, o que se traduz em poupanças concretas para as empresas mesmo que o preço por token tenha aumentado ligeiramente.

O preço conta uma história: eficiência económica

Gemini 3 Flash custa $0,50 por 1 milhão de tokens de entrada e $3,00 por 1 milhão de tokens de saída, em comparação com $0,30 e $2,50 do modelo anterior. A questão óbvia: por que pagar mais?

A resposta está na velocidade combinada com a eficiência. Se o modelo é três vezes mais rápido e usa 30% menos tokens para certas tarefas, o custo total por transação pode efetivamente diminuir. Tulsee Doshi, Diretora Sénior de Produto para Gemini, destacou que “Flash é o modelo de trabalho” para empresas que precisam gerir volumes massivos de pedidos. Não é o modelo mais inteligente, é o modelo mais inteligente economicamente.

Já em produção: JetBrains, Figma, Harvey não esperam

A Google não fala de possibilidades futuras, mas de realidade presente. Empresas como JetBrains, Figma, Cursor, Harvey e Latitude já estão a aproveitar o Gemini 3 Flash através do Vertex AI e do Gemini Enterprise. Para os desenvolvedores, o modelo está disponível em antevisão via API e no Antigravity, a ferramenta de programação lançada no mês passado.

No benchmark SWE-bench verified para programação, o modelo alcança 78%, ficando apenas atrás do GPT-5.2. Isto significa que é suficientemente sofisticado para tarefas reais de codificação, embora não seja a melhor escolha para algoritmos complexos e otimizações borderline.

O contexto da guerra de IA: o que está realmente a acontecer

Este lançamento não surge do nada. Semanas atrás, Sam Altman enviou uma memo “Code Red” internamente porque o tráfego do ChatGPT estava a diminuir enquanto a quota da Google entre os consumidores crescia. A OpenAI respondeu lançando o GPT-5.2 e novos modelos generativos de imagens, orgulhando-se de um crescimento de 8 vezes no volume de mensagens desde novembro de 2024.

A Google não entra diretamente nesta polémica. Doshi preferiu um tom diplomático: “O que acontece é que todos estes modelos continuam a ser extraordinários, desafiam-se mutuamente, empurram os limites. E acho que é fantástico que as empresas lancem estes modelos.”

Tradução: sim, há uma competição feroz, mas a Google legitima-a como um estímulo positivo para a inovação.

Disponibilidade global: o modelo padrão a partir de hoje

Gemini 3 Flash substitui o Gemini 2.5 Flash como padrão na app Gemini e na pesquisa de IA. Os utilizadores globais não precisam fazer nada: verão imediatamente o novo modelo. Para quem prefere o modelo Pro, este permanece selecionável no menu.

O modelo está agora disponível nos Estados Unidos para pesquisa, com um rollout global em curso. A app suporta carregamentos de vídeos, áudios, esboços, documentos—o modelo processa-os e gera análises, questionários, recomendações, tabelas.

Gemini 3 Flash não é o modelo mais potente de todos, mas é o mais inteligente do ponto de vista económico e de velocidade. Numa competição onde todos os jogadores obtêm pontos técnicos semelhantes, vence quem fornece o resultado mais rápido ao preço mais competitivo. Este é o seletor que a Google escolheu para se diferenciar.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)