Google ha ufficialmente lanciato Gemini 3 Flash, posicionando-o como o modelo padrão em toda a plataforma Gemini global. A estreia representa um avanço significativo na corrida tecnológica com a OpenAI, com a empresa de Mountain View já a processar mais de 1 trilião de tokens por dia através da sua API.
Desempenho que surpreende: os números falam por si
O que torna este lançamento interessante não é apenas a velocidade—tema que retornará frequentemente—mas os benchmarks que desmontam qualquer hesitação. No teste Humanity’s Last Exam, Gemini 3 Flash marcou 33,7%, praticamente alinhado com GPT-5.2 (34,5%) e não muito longe do Pro da Google (37,5%). A diferença? Flash custa muito menos e é mais rápido.
Mas o verdadeiro knockout chega com MMMU-Pro, o benchmark de raciocínio multimodal onde o novo modelo supera a concorrência com 81,2%, ultrapassando literalmente todos os concorrentes. Estes não são apenas números numa folha: significam que pode carregar um vídeo, um áudio, um desenho e obter respostas sofisticadas sem esperar minutos.
Velocidade como arma competitiva: o seletor de velocidade ao serviço dos utilizadores
A Google enfatizou deliberadamente um aspeto crucial: o novo modelo é três vezes mais rápido que o Gemini 2.5 Pro. Não é apenas uma métrica técnica, é uma experiência concreta. A app Gemini agora oferece um seletor de velocidade implícito: pode usar Flash para quase tudo—análise de vídeo, extração de dados, raciocínio visual—sem comprometer a qualidade, ou selecionar o modelo Pro para perguntas de programação avançada ou matemática complexa.
Esta flexibilidade foi pensada estrategicamente. Para tarefas de raciocínio, o novo modelo consome 30% menos tokens em comparação com o 2.5 Pro, o que se traduz em poupanças concretas para as empresas mesmo que o preço por token tenha aumentado ligeiramente.
O preço conta uma história: eficiência económica
Gemini 3 Flash custa $0,50 por 1 milhão de tokens de entrada e $3,00 por 1 milhão de tokens de saída, em comparação com $0,30 e $2,50 do modelo anterior. A questão óbvia: por que pagar mais?
A resposta está na velocidade combinada com a eficiência. Se o modelo é três vezes mais rápido e usa 30% menos tokens para certas tarefas, o custo total por transação pode efetivamente diminuir. Tulsee Doshi, Diretora Sénior de Produto para Gemini, destacou que “Flash é o modelo de trabalho” para empresas que precisam gerir volumes massivos de pedidos. Não é o modelo mais inteligente, é o modelo mais inteligente economicamente.
Já em produção: JetBrains, Figma, Harvey não esperam
A Google não fala de possibilidades futuras, mas de realidade presente. Empresas como JetBrains, Figma, Cursor, Harvey e Latitude já estão a aproveitar o Gemini 3 Flash através do Vertex AI e do Gemini Enterprise. Para os desenvolvedores, o modelo está disponível em antevisão via API e no Antigravity, a ferramenta de programação lançada no mês passado.
No benchmark SWE-bench verified para programação, o modelo alcança 78%, ficando apenas atrás do GPT-5.2. Isto significa que é suficientemente sofisticado para tarefas reais de codificação, embora não seja a melhor escolha para algoritmos complexos e otimizações borderline.
O contexto da guerra de IA: o que está realmente a acontecer
Este lançamento não surge do nada. Semanas atrás, Sam Altman enviou uma memo “Code Red” internamente porque o tráfego do ChatGPT estava a diminuir enquanto a quota da Google entre os consumidores crescia. A OpenAI respondeu lançando o GPT-5.2 e novos modelos generativos de imagens, orgulhando-se de um crescimento de 8 vezes no volume de mensagens desde novembro de 2024.
A Google não entra diretamente nesta polémica. Doshi preferiu um tom diplomático: “O que acontece é que todos estes modelos continuam a ser extraordinários, desafiam-se mutuamente, empurram os limites. E acho que é fantástico que as empresas lancem estes modelos.”
Tradução: sim, há uma competição feroz, mas a Google legitima-a como um estímulo positivo para a inovação.
Disponibilidade global: o modelo padrão a partir de hoje
Gemini 3 Flash substitui o Gemini 2.5 Flash como padrão na app Gemini e na pesquisa de IA. Os utilizadores globais não precisam fazer nada: verão imediatamente o novo modelo. Para quem prefere o modelo Pro, este permanece selecionável no menu.
O modelo está agora disponível nos Estados Unidos para pesquisa, com um rollout global em curso. A app suporta carregamentos de vídeos, áudios, esboços, documentos—o modelo processa-os e gera análises, questionários, recomendações, tabelas.
Gemini 3 Flash não é o modelo mais potente de todos, mas é o mais inteligente do ponto de vista económico e de velocidade. Numa competição onde todos os jogadores obtêm pontos técnicos semelhantes, vence quem fornece o resultado mais rápido ao preço mais competitivo. Este é o seletor que a Google escolheu para se diferenciar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Gemini 3 Flash conquista o trono: o novo modelo do Google desafia a OpenAI com velocidade, economia e desempenho sem compromissos
Google ha ufficialmente lanciato Gemini 3 Flash, posicionando-o como o modelo padrão em toda a plataforma Gemini global. A estreia representa um avanço significativo na corrida tecnológica com a OpenAI, com a empresa de Mountain View já a processar mais de 1 trilião de tokens por dia através da sua API.
Desempenho que surpreende: os números falam por si
O que torna este lançamento interessante não é apenas a velocidade—tema que retornará frequentemente—mas os benchmarks que desmontam qualquer hesitação. No teste Humanity’s Last Exam, Gemini 3 Flash marcou 33,7%, praticamente alinhado com GPT-5.2 (34,5%) e não muito longe do Pro da Google (37,5%). A diferença? Flash custa muito menos e é mais rápido.
Mas o verdadeiro knockout chega com MMMU-Pro, o benchmark de raciocínio multimodal onde o novo modelo supera a concorrência com 81,2%, ultrapassando literalmente todos os concorrentes. Estes não são apenas números numa folha: significam que pode carregar um vídeo, um áudio, um desenho e obter respostas sofisticadas sem esperar minutos.
Velocidade como arma competitiva: o seletor de velocidade ao serviço dos utilizadores
A Google enfatizou deliberadamente um aspeto crucial: o novo modelo é três vezes mais rápido que o Gemini 2.5 Pro. Não é apenas uma métrica técnica, é uma experiência concreta. A app Gemini agora oferece um seletor de velocidade implícito: pode usar Flash para quase tudo—análise de vídeo, extração de dados, raciocínio visual—sem comprometer a qualidade, ou selecionar o modelo Pro para perguntas de programação avançada ou matemática complexa.
Esta flexibilidade foi pensada estrategicamente. Para tarefas de raciocínio, o novo modelo consome 30% menos tokens em comparação com o 2.5 Pro, o que se traduz em poupanças concretas para as empresas mesmo que o preço por token tenha aumentado ligeiramente.
O preço conta uma história: eficiência económica
Gemini 3 Flash custa $0,50 por 1 milhão de tokens de entrada e $3,00 por 1 milhão de tokens de saída, em comparação com $0,30 e $2,50 do modelo anterior. A questão óbvia: por que pagar mais?
A resposta está na velocidade combinada com a eficiência. Se o modelo é três vezes mais rápido e usa 30% menos tokens para certas tarefas, o custo total por transação pode efetivamente diminuir. Tulsee Doshi, Diretora Sénior de Produto para Gemini, destacou que “Flash é o modelo de trabalho” para empresas que precisam gerir volumes massivos de pedidos. Não é o modelo mais inteligente, é o modelo mais inteligente economicamente.
Já em produção: JetBrains, Figma, Harvey não esperam
A Google não fala de possibilidades futuras, mas de realidade presente. Empresas como JetBrains, Figma, Cursor, Harvey e Latitude já estão a aproveitar o Gemini 3 Flash através do Vertex AI e do Gemini Enterprise. Para os desenvolvedores, o modelo está disponível em antevisão via API e no Antigravity, a ferramenta de programação lançada no mês passado.
No benchmark SWE-bench verified para programação, o modelo alcança 78%, ficando apenas atrás do GPT-5.2. Isto significa que é suficientemente sofisticado para tarefas reais de codificação, embora não seja a melhor escolha para algoritmos complexos e otimizações borderline.
O contexto da guerra de IA: o que está realmente a acontecer
Este lançamento não surge do nada. Semanas atrás, Sam Altman enviou uma memo “Code Red” internamente porque o tráfego do ChatGPT estava a diminuir enquanto a quota da Google entre os consumidores crescia. A OpenAI respondeu lançando o GPT-5.2 e novos modelos generativos de imagens, orgulhando-se de um crescimento de 8 vezes no volume de mensagens desde novembro de 2024.
A Google não entra diretamente nesta polémica. Doshi preferiu um tom diplomático: “O que acontece é que todos estes modelos continuam a ser extraordinários, desafiam-se mutuamente, empurram os limites. E acho que é fantástico que as empresas lancem estes modelos.”
Tradução: sim, há uma competição feroz, mas a Google legitima-a como um estímulo positivo para a inovação.
Disponibilidade global: o modelo padrão a partir de hoje
Gemini 3 Flash substitui o Gemini 2.5 Flash como padrão na app Gemini e na pesquisa de IA. Os utilizadores globais não precisam fazer nada: verão imediatamente o novo modelo. Para quem prefere o modelo Pro, este permanece selecionável no menu.
O modelo está agora disponível nos Estados Unidos para pesquisa, com um rollout global em curso. A app suporta carregamentos de vídeos, áudios, esboços, documentos—o modelo processa-os e gera análises, questionários, recomendações, tabelas.
Gemini 3 Flash não é o modelo mais potente de todos, mas é o mais inteligente do ponto de vista económico e de velocidade. Numa competição onde todos os jogadores obtêm pontos técnicos semelhantes, vence quem fornece o resultado mais rápido ao preço mais competitivo. Este é o seletor que a Google escolheu para se diferenciar.