Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

Mistral regresa con fuerza con la familia Frontier AI que compite directamente con DeepSeek

Centro de Arte, Moda y Entretenimiento de Decrypt.


Descubre SCENE

La startup francesa de IA, Mistral, a menudo considerada el desvalido europeo en un campo dominado por gigantes estadounidenses y recién llegados chinos, acaba de ponerse al día: el martes lanzó su versión más ambiciosa hasta la fecha, que pone a la competencia de código abierto contra las cuerdas. (O sin dinero, en este caso.)

La familia de 4 modelos abarca desde asistentes de bolsillo hasta un sistema de última generación con 675 mil millones de parámetros, todo bajo la permisiva licencia de código abierto Apache 2.0. Los modelos están disponibles públicamente para su descarga: cualquiera con el hardware adecuado puede ejecutarlos localmente, modificarlos, afinarlos o construir aplicaciones sobre ellos.

El buque insignia de la compañía, Mistral Large 3, utiliza una arquitectura dispersa de Mezcla de Expertos que activa solo 41 mil millones de sus 675 mil millones de parámetros totales por token. Esa elección de ingeniería le permite competir en la primera línea mientras ejecuta la inferencia con un perfil de cómputo más cercano a los 40 mil millones de parámetros.

Mistral Large 3 fue entrenado desde cero en 3.000 GPU NVIDIA H200 y debutó en el puesto número dos entre los modelos de código abierto no orientados al razonamiento en el ranking de LMArena.

La rivalidad de benchmarks con DeepSeek cuenta una historia complicada. Según los benchmarks de Mistral, su mejor modelo supera a DeepSeek V3.1 en varias métricas, pero queda por detrás del nuevo V3.2 por unos pocos puntos en LMArena.

En tareas de conocimiento general y razonamiento experto, la familia Mistral se defiende bien. Donde DeepSeek toma la delantera es en velocidad de codificación bruta y lógica matemática. Pero eso era de esperarse: esta versión no incluye modelos de razonamiento, por lo que estos modelos no tienen una cadena de pensamiento integrada en su arquitectura.

Los modelos “Ministral” más pequeños son donde las cosas se ponen interesantes para los desarrolladores. Tres tamaños—3B, 8B y 14B parámetros—cada uno con variantes base e instruct. Todos admiten entrada de visión de forma nativa. El modelo de 3B llamó la atención del investigador de IA Simon Willison, quien señaló que puede ejecutarse completamente en un navegador a través de WebGPU.

Si quieres probar ese, este espacio de Hugginface te permite cargarlo localmente e interactuar usando tu webcam como entrada.

Una IA competente con capacidad de visión en un archivo de aproximadamente 3GB abre posibilidades para desarrolladores que necesitan eficiencia—o incluso para aficionados: drones, robots, portátiles funcionando sin conexión, sistemas embebidos en vehículos, etc.

Las primeras pruebas revelan una personalidad dividida en toda la gama. En una prueba rápida, encontramos que el Mistral 3 Large es bueno para la fluidez conversacional. A veces tiene el estilo de formato de GPT-5 (un estilo de lenguaje similar y preferencia por emojis) pero con un ritmo más natural.

Mistral 3 Large también es bastante laxo en términos de censura, lo que lo convierte en una mejor opción para juegos de roles rápidos al elegir entre ChatGPT, Claude o Gemini.

Para tareas de lenguaje natural, escritura creativa y juegos de rol, los usuarios consideran que la variante instruct de 14B es bastante buena, aunque no especialmente sobresaliente. Hilos en Reddit en r/LocalLLaMA señalan problemas de repetición y una ocasional sobreutilización de frases estándar heredadas de los datos de entrenamiento, pero la capacidad del modelo para generar contenido largo es un buen plus, especialmente para su tamaño.

Los desarrolladores que ejecutan inferencia local informan que los modelos de 3B y 8B a veces se quedan en bucles o producen salidas demasiado formulaicas, particularmente en tareas creativas.

Dicho esto, el modelo de 3B es tan pequeño que puede ejecutarse en hardware débil como smartphones y puede ser entrenado/ajustado para propósitos específicos. La única opción competitiva en esa área específica ahora mismo es la versión más pequeña de Gemma 3 de Google.

La adopción empresarial ya está en marcha. HSBC anunció el lunes una colaboración de varios años con Mistral para desplegar IA generativa en todas sus operaciones. El banco ejecutará modelos autoalojados en su propia infraestructura, combinando capacidades técnicas internas con la experiencia de Mistral. Para instituciones financieras que manejan datos sensibles de clientes bajo el RGPD, el atractivo de un proveedor de IA con sede en la UE y pesos abiertos no es menor.

Mistral y NVIDIA colaboraron en un checkpoint comprimido NVFP4 que permite a Large 3 ejecutarse en un solo nodo de ocho de sus mejores tarjetas. NVIDIA afirma que el Ministral 3B alcanza aproximadamente 385 tokens por segundo en una RTX 5090, con más de 50 tokens por segundo en Jetson Thor para aplicaciones robóticas. Eso significa que el modelo es muy eficiente y rápido en inferencia, ofreciendo respuestas más rápidas sin sacrificar calidad.

Próximamente llegará una versión de Large 3 optimizada para razonamiento, según el anuncio. Hasta entonces, DeepSeek R1 y otros modelos chinos como GLM o Qwen Thinking mantienen cierta diferenciación en tareas de razonamiento explícito. Pero para empresas que buscan capacidad de vanguardia, pesos abiertos, fortaleza multilingüe en lenguas europeas y una compañía que no estará sujeta a las leyes de seguridad nacional chinas o estadounidenses, las opciones acaban de pasar de cero a una.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)