Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

Mistral presenta Mistral 3: modelos de código abierto de nueva generación para empresas e IA en el edge

En resumen

Mistral acaba de lanzar Mistral 3, una nueva familia de 10 modelos open-weight, diseñados para funcionar en todo, desde la nube de consumo hasta portátiles, drones y robots.

Mistral Introduces Mistral 3: Versatile Family Of 10 Open-Weight Models

La startup de IA Mistral ha presentado Mistral 3, la última generación de sus modelos, que incluye tres modelos densos compactos y de alto rendimiento con 14B, 8B y 3B parámetros, junto con Mistral Large 3, su modelo más avanzado hasta la fecha: un sistema sparse mixture-of-experts entrenado con 41B parámetros activos y 675B parámetros totales. Todos los modelos están disponibles bajo la licencia Apache 2.0, proporcionando a los desarrolladores acceso open source en múltiples formatos comprimidos para soportar aplicaciones de IA distribuidas.

Los modelos Ministral están diseñados para ofrecer una fuerte eficiencia en la relación rendimiento-coste, mientras que Mistral Large 3 se posiciona entre los principales modelos open source afinados para instrucciones. Entrenado desde cero en 3.000 GPU NVIDIA H200, Mistral Large 3 marca el primer lanzamiento mixture-of-experts de la compañía desde la serie Mixtral y representa un avance significativo en preentrenamiento. Tras el postentrenamiento, iguala a los principales modelos open-weight afinados para instrucciones en prompts generales y demuestra capacidades avanzadas de comprensión de imágenes, así como una conversación multilingüe superior.

Mistral Large 3 debutó en #2 in the OSS non-reasoning models category and #6 en el ranking general de LMArena. Tanto las versiones base como las afinadas para instrucciones se lanzan bajo Apache 2.0, ofreciendo una plataforma robusta para la personalización empresarial y de desarrolladores, con una versión razonadora prevista para un próximo lanzamiento.

Mistral se asocia con NVIDIA, vLLM y Red Hat para mejorar la accesibilidad y el rendimiento de Mistral 3

Mistral Large 3 se ha hecho altamente accesible para la comunidad open source gracias a colaboraciones con vLLM y Red Hat. Un checkpoint en formato NVFP4, optimizado con llm-compressor, permite una ejecución eficiente en sistemas Blackwell NVL72 o en un solo nodo de 8×A100 u 8×H100 usando vLLM.

El desarrollo de modelos avanzados de IA open source depende de una extensa optimización hardware-software, lograda en asociación con NVIDIA. Todos los modelos Mistral 3, incluidos Large 3 y Ministral 3, se entrenaron en GPUs NVIDIA Hopper, utilizando memoria HBM3e de alto ancho de banda para cargas de trabajo a gran escala. El enfoque de co-diseño de NVIDIA integra hardware, software y modelos para permitir una inferencia eficiente usando TensorRT-LLM y SGLang en toda la familia Mistral 3, soportando ejecución de baja precisión.

Para la arquitectura sparse mixture-of-experts de Large 3, NVIDIA implementó atención Blackwell y kernels MoE, añadió servicio disgregado prefill/decode, y colaboró en decodificación especulativa, permitiendo a los desarrolladores manejar cargas de trabajo de contexto largo y alto rendimiento en sistemas GB200 NVL72 y más allá. Los modelos Ministral también están optimizados para desplegarse en DGX Spark, PCs y portátiles RTX, y dispositivos Jetson, proporcionando una experiencia consistente y de alto rendimiento desde los centros de datos hasta aplicaciones en el edge. Mistral agradece a vLLM, Red Hat y NVIDIA su apoyo y colaboración.

Ministral 3: rendimiento avanzado de IA para despliegues en el edge y locales

La serie Ministral 3 está diseñada para despliegues en el edge y locales, disponible en tres tamaños—3B, 8B y 14B parámetros. Cada tamaño está disponible en variantes base, instruct y reasoning, todas con comprensión de imágenes y lanzadas bajo la licencia Apache 2.0. Combinadas con capacidades multimodales y multilingües nativas, la familia Ministral 3 ofrece soluciones versátiles tanto para aplicaciones empresariales como de desarrolladores.

La serie ofrece una excepcional relación coste-rendimiento entre los modelos open source, con las variantes instruct igualando o superando a modelos comparables mientras generan significativamente menos tokens. Para escenarios donde la precisión es fundamental, las variantes reasoning pueden realizar cálculos extendidos para lograr una precisión líder dentro de su clase de peso, como el 85% en AIME ’25 con el modelo de 14B.

Mistral 3 está actualmente accesible a través de Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI y Together AI, con disponibilidad en NVIDIA NIM y AWS SageMaker próximamente.

Mistral sigue siendo un contribuyente líder al ecosistema de modelos de IA europeo e iniciativas open source, aunque su último modelo insignia aún queda por detrás de los principales competidores de la industria en términos de rendimiento, velocidad y coste. Las variantes Ministral más pequeñas pueden ofrecer una alternativa más práctica, proporcionando opciones flexibles para casos de uso diversos y despliegue en distintos dispositivos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)