Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

A Mistral regressa em força com a família Frontier AI que rivaliza diretamente com a DeepSeek

Centro de Arte, Moda e Entretenimento da Decrypt.


Descobre o SCENE

A startup francesa de IA, Mistral, frequentemente vista como o azarão europeu num campo dominado por gigantes americanos e novatos chineses, acabou de recuperar terreno: lançou na terça-feira o seu lançamento mais ambicioso até à data, que coloca a concorrência open-source à prova. (Ou sem dinheiro, neste caso.)

A família de 4 modelos vai desde assistentes de bolso até um sistema de última geração com 675 mil milhões de parâmetros, todos sob a licença open-source permissiva Apache 2.0. Os modelos estão disponíveis publicamente para download—qualquer pessoa com o hardware adequado pode executá-los localmente, modificá-los, afiná-los ou construir aplicações sobre eles.

O topo de gama da empresa, Mistral Large 3, utiliza uma arquitetura “Mixture-of-Experts” esparsa que ativa apenas 41 mil milhões dos seus 675 mil milhões de parâmetros totais por token. Essa escolha de engenharia permite-lhe atuar em classes de peso de fronteira, mantendo uma inferência mais próxima de um perfil de computação de 40 mil milhões de parâmetros.

O Mistral Large 3 foi treinado de raiz em 3.000 GPUs NVIDIA H200 e estreou-se em segundo lugar entre os modelos open-source sem raciocínio no ranking LMArena.

A rivalidade nos benchmarks com a DeepSeek conta uma história complicada. Segundo os benchmarks da Mistral, o seu melhor modelo supera o DeepSeek V3.1 em várias métricas, mas fica atrás do mais recente V3.2 por alguns pontos no LMArena.

Em tarefas de conhecimento geral e raciocínio especializado, a família Mistral mantém-se firme. Onde a DeepSeek se destaca é na velocidade bruta de programação e lógica matemática. Mas isso era de esperar: este lançamento não inclui modelos de raciocínio, pelo que estes modelos não têm cadeia de pensamento embutida na sua arquitetura.

Os modelos mais pequenos “Ministral” são onde as coisas ficam interessantes para os programadores. Três tamanhos—3B, 8B e 14B parâmetros—cada um com variantes base e instruct. Todos suportam entrada de visão nativamente. O modelo 3B chamou a atenção do investigador de IA Simon Willison, que notou que pode ser executado inteiramente num browser via WebGPU.

Se quiseres experimentar esse, este espaço no Huggingface permite-te carregá-lo localmente e interagir usando a tua webcam como entrada.

Uma IA competente com capacidade de visão num ficheiro de cerca de 3GB abre possibilidades para programadores que precisam de eficiência—ou até para entusiastas: drones, robôs, portáteis a funcionar offline, sistemas embutidos em veículos, etc.

Os primeiros testes revelam uma personalidade dividida ao longo da gama. Num teste rápido, descobrimos que o Mistral 3 Large é bom para fluência conversacional. Às vezes tem o estilo de formatação do GPT-5 (um estilo de linguagem semelhante e preferência por emojis) mas com um ritmo mais natural.

O Mistral 3 Large também é bastante permissivo em termos de censura, tornando-o uma melhor opção para role play rápido ao escolher entre ChatGPT, Claude ou Gemini.

Para tarefas de linguagem natural, escrita criativa e role play, os utilizadores acham a variante 14B instruct bastante boa, mas não particularmente excelente. Tópicos no Reddit em r/LocalLLaMA assinalam problemas de repetição e ocasional dependência excessiva de frases feitas herdadas dos dados de treino, mas a capacidade do modelo para gerar conteúdos longos é um ponto positivo, especialmente para o seu tamanho.

Programadores que correm inferência local relatam que os modelos 3B e 8B por vezes entram em loop ou produzem respostas demasiado formulaicas, especialmente em tarefas criativas.

Dito isto, o modelo 3B é tão pequeno que pode correr em hardware fraco como smartphones e pode ser treinado/ajustado para propósitos específicos. A única opção concorrente neste momento nessa área específica é a versão mais pequena do Gemma 3 da Google.

A adoção empresarial já está em andamento. O HSBC anunciou na segunda-feira uma parceria de vários anos com a Mistral para implementar IA generativa em todas as suas operações. O banco irá executar modelos self-hosted na sua própria infraestrutura, combinando capacidades técnicas internas com a experiência da Mistral. Para instituições financeiras que lidam com dados sensíveis de clientes sob o RGPD, o apelo de um fornecedor de IA sediado na UE com pesos abertos é óbvio.

A Mistral e a NVIDIA colaboraram num checkpoint comprimido em NVFP4 que permite ao Large 3 correr num único nó de oito das suas melhores placas. A NVIDIA afirma que o Ministral 3B atinge cerca de 385 tokens por segundo numa RTX 5090, com mais de 50 tokens por segundo no Jetson Thor para aplicações de robótica. Isso significa que o modelo é muito eficiente e rápido em inferência, dando respostas mais rápidas sem sacrificar a qualidade.

Uma versão otimizada para raciocínio do Large 3 está para breve, segundo o anúncio. Até lá, o DeepSeek R1 e outros modelos chineses como o GLM ou Qwen Thinking mantêm alguma diferenciação em tarefas de raciocínio explícito. Mas para empresas que querem capacidade de vanguarda, pesos abertos, força multilingue em línguas europeias, e uma empresa que não estará sujeita a leis de segurança nacional chinesas ou americanas, as opções acabaram de passar de zero para uma.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)