AIスタートアップのMistralは、Mistral 3を発表しました。これは最新世代のモデルで、14B、8B、3Bパラメータのコンパクトかつ高性能な3つのデンスモデルと、同社史上最も先進的なモデルであるMistral Large 3(41Bアクティブパラメータと675B総パラメータでトレーニングされたスパースMixture-of-Expertsシステム)を含みます。すべてのモデルはApache 2.0ライセンスの下で提供され、開発者は分散AIアプリケーションをサポートする複数の圧縮フォーマットでオープンソースアクセスが可能です。
Ministralモデルは、高いパフォーマンスとコスト効率を両立するよう設計されており、Mistral Large 3は主要な命令特化型オープンソースモデルの中でも優れた位置づけを誇ります。3,000台のNVIDIA H200 GPUでゼロからトレーニングされたMistral Large 3は、Mixtralシリーズ以来初のMixture-of-Expertsリリースで、事前学習における大きな進歩を示しています。ポストトレーニング後は、一般的なプロンプトでトップクラスの命令特化型オープンウェイトモデルと肩を並べ、高度な画像理解や優れた多言語会話能力も実現しています。
Mistral Large 3は、LMArenaリーダーボードで#2 in the OSS non-reasoning models category and #6位にデビューしました。ベース版と命令特化版の両方がApache 2.0で公開されており、エンタープライズや開発者によるカスタマイズに強力なプラットフォームを提供。今後は推論特化版もリリース予定です。
Mistral Large 3は、vLLMおよびRed Hatとの連携により、オープンソースコミュニティへの高いアクセシビリティが実現されています。llm-compressorで最適化されたNVFP4フォーマットのチェックポイントにより、Blackwell NVL72システム、またはvLLMを用いた単一の8×A100または8×H100ノード上で効率的に実行可能です。
Mistral、Mistral 3を発表:企業向けおよびエッジAI向け次世代オープンソースモデル
要約
Mistralは新たにMistral 3をリリースしました。これは10種類のオープンウェイトモデルの新ファミリーで、コンシューマークラウドからラップトップ、ドローン、ロボットまで、あらゆるデバイスで動作するよう設計されています。
AIスタートアップのMistralは、Mistral 3を発表しました。これは最新世代のモデルで、14B、8B、3Bパラメータのコンパクトかつ高性能な3つのデンスモデルと、同社史上最も先進的なモデルであるMistral Large 3(41Bアクティブパラメータと675B総パラメータでトレーニングされたスパースMixture-of-Expertsシステム)を含みます。すべてのモデルはApache 2.0ライセンスの下で提供され、開発者は分散AIアプリケーションをサポートする複数の圧縮フォーマットでオープンソースアクセスが可能です。
Ministralモデルは、高いパフォーマンスとコスト効率を両立するよう設計されており、Mistral Large 3は主要な命令特化型オープンソースモデルの中でも優れた位置づけを誇ります。3,000台のNVIDIA H200 GPUでゼロからトレーニングされたMistral Large 3は、Mixtralシリーズ以来初のMixture-of-Expertsリリースで、事前学習における大きな進歩を示しています。ポストトレーニング後は、一般的なプロンプトでトップクラスの命令特化型オープンウェイトモデルと肩を並べ、高度な画像理解や優れた多言語会話能力も実現しています。
Mistral Large 3は、LMArenaリーダーボードで#2 in the OSS non-reasoning models category and #6位にデビューしました。ベース版と命令特化版の両方がApache 2.0で公開されており、エンタープライズや開発者によるカスタマイズに強力なプラットフォームを提供。今後は推論特化版もリリース予定です。
Mistral、NVIDIA、vLLM、Red Hatと提携しMistral 3のアクセシビリティと性能を強化
Mistral Large 3は、vLLMおよびRed Hatとの連携により、オープンソースコミュニティへの高いアクセシビリティが実現されています。llm-compressorで最適化されたNVFP4フォーマットのチェックポイントにより、Blackwell NVL72システム、またはvLLMを用いた単一の8×A100または8×H100ノード上で効率的に実行可能です。
高度なオープンソースAIモデルの開発には、NVIDIAとのパートナーシップによる広範なハードウェア・ソフトウェア最適化が不可欠です。Large 3およびMinistral 3を含むすべてのMistral 3モデルは、NVIDIA Hopper GPUでトレーニングされ、大規模ワークロード向けに高帯域幅のHBM3eメモリを活用しています。NVIDIAのコデザインアプローチは、ハードウェア、ソフトウェア、モデルを統合し、TensorRT-LLMやSGLangを使ったMistral 3ファミリー全体での効率的な推論と低精度実行を可能にしています。
Large 3のスパースMixture-of-Expertsアーキテクチャでは、NVIDIAがBlackwellアテンションとMoEカーネルを実装し、プリフィル/デコードの分離型サービングを追加、さらに投機的デコーディングで協力することで、開発者がGB200 NVL72システムなどで長文コンテキストや高スループットワークロードを扱えるようになりました。MinistralモデルもDGX Spark、RTX PC・ラップトップ、Jetsonデバイスへのデプロイに最適化されており、データセンターからエッジアプリケーションまで一貫した高性能体験を実現します。MistralはvLLM、Red Hat、NVIDIAの支援と協力に感謝を表明しています。
Ministral 3:エッジおよびローカル向けの高度なAI性能
Ministral 3シリーズはエッジやローカルへのデプロイを想定して設計されており、3B、8B、14Bパラメータの3サイズで提供されます。各サイズはベース、インストラクト、リースニングの各バリアントがあり、全て画像理解機能を備え、Apache 2.0ライセンスで公開されています。ネイティブのマルチモーダル・多言語機能と組み合わせることで、Ministral 3ファミリーはエンタープライズと開発者向け双方に柔軟なソリューションを提供します。
同シリーズはオープンソースモデルの中でも優れたコストパフォーマンス比を実現しており、インストラクトバリアントは同等モデルに匹敵または上回る性能を持ちながら、生成トークン数を大幅に削減しています。精度が最優先されるシナリオでは、リースニングバリアントが拡張計算を行い、同ウェイトクラス内でトップレベルの精度(例:14BモデルでAIME ’25において85%)を達成可能です。
Mistral 3は現在、Mistral AI Studio、Amazon Bedrock、Azure Foundry、Hugging Face (Large 3&Ministral)、Modal、IBM WatsonX、OpenRouter、Fireworks、Unsloth AI、Together AIで利用可能で、NVIDIA NIMおよびAWS SageMakerでも近日提供予定です。
Mistralは欧州のAIモデルエコシステムおよびオープンソースイニシアティブのリーディングカンパニーであり続けていますが、最新のフラッグシップモデルは依然としてパフォーマンス、スピード、コストの面で業界トップの競合他社に遅れを取っています。より小型のMinistralバリアントは実用的な代替案となり得るため、多様なユースケースや様々なデバイスへの展開に柔軟な選択肢を提供します。