Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Startup AI Pháp Mistral, thường bị đánh giá thấp là kẻ yếu thế châu Âu trong lĩnh vực do các ông lớn Mỹ và các đối thủ mới nổi Trung Quốc thống trị, vừa bắt kịp: Họ vừa ra mắt bản phát hành tham vọng nhất từ trước đến nay vào thứ Ba, khiến các đối thủ mã nguồn mở phải dè chừng. (Hoặc không mất tiền, trong trường hợp này.)
Dòng 4 mô hình bao gồm từ trợ lý nhỏ gọn đến một hệ thống tiên tiến với 675 tỷ tham số, tất cả đều theo giấy phép mã nguồn mở Apache 2.0 tự do. Các mô hình này được công khai cho phép tải xuống—bất kỳ ai có phần cứng phù hợp đều có thể chạy chúng cục bộ, chỉnh sửa, tinh chỉnh hoặc xây dựng ứng dụng dựa trên đó.
Mô hình chủ lực của công ty, Mistral Large 3, sử dụng kiến trúc Mixture-of-Experts thưa, chỉ kích hoạt 41 tỷ trong tổng số 675 tỷ tham số cho mỗi token. Lựa chọn kỹ thuật này giúp mô hình đạt hiệu suất của các mô hình tiên tiến trong khi phép suy luận (inference) lại gần mức của mô hình 40 tỷ tham số.
Mistral Large 3 được huấn luyện từ đầu trên 3.000 GPU NVIDIA H200 và ra mắt ở vị trí số hai trong số các mô hình mã nguồn mở, không chuyên về suy luận trên bảng xếp hạng LMArena.
Cuộc cạnh tranh đánh giá chuẩn với DeepSeek kể một câu chuyện phức tạp. Theo các bài kiểm tra của Mistral, mô hình tốt nhất của họ vượt qua DeepSeek V3.1 ở nhiều chỉ số nhưng lại kém V3.2 mới hơn vài điểm trên LMArena.
Ở các nhiệm vụ kiến thức tổng quát và lập luận chuyên gia, dòng Mistral vẫn giữ vững vị trí của mình. DeepSeek nổi trội hơn ở tốc độ lập trình thô và logic toán học. Nhưng điều này là dễ hiểu: Bản phát hành này không bao gồm các mô hình suy luận, nên các mô hình này không có chuỗi suy nghĩ tích hợp trong kiến trúc.
Các mô hình “Ministral” nhỏ hơn là nơi các nhà phát triển quan tâm. Ba kích thước—3B, 8B và 14B tham số—mỗi loại đều có biến thể base và instruct. Tất cả đều hỗ trợ đầu vào hình ảnh một cách tự nhiên. Mô hình 3B đã thu hút sự chú ý của nhà nghiên cứu AI Simon Willison, người nhận xét rằng nó có thể chạy hoàn toàn trong trình duyệt thông qua WebGPU.
Nếu bạn muốn thử mô hình này, không gian Hugginface này cho phép bạn tải về cục bộ và tương tác bằng webcam làm đầu vào.
Một AI có khả năng xử lý hình ảnh gói gọn trong tệp khoảng 3GB mở ra nhiều khả năng cho các nhà phát triển cần hiệu quả—hoặc thậm chí cho người đam mê: drone, robot, laptop chạy offline, hệ thống nhúng trên xe v.v.
Thử nghiệm ban đầu cho thấy một “tính cách chia đôi” giữa các mô hình. Qua thử nghiệm nhanh, chúng tôi nhận thấy Mistral 3 Large rất tốt về độ trôi chảy hội thoại. Đôi khi nó có phong cách định dạng giống GPT-5 (một phong cách ngôn ngữ tương tự và thích dùng emoji) nhưng với nhịp điệu tự nhiên hơn.
Mistral 3 Large cũng khá “thoáng” về kiểm duyệt, khiến nó là lựa chọn tốt hơn cho nhập vai nhanh nếu so với ChatGPT, Claude hoặc Gemini.
Đối với các tác vụ xử lý ngôn ngữ tự nhiên, viết sáng tạo và nhập vai, người dùng thấy biến thể instruct 14B khá ổn, nhưng không thực sự xuất sắc. Các chủ đề Reddit trên r/LocalLLaMA cảnh báo về vấn đề lặp lại và đôi khi quá phụ thuộc vào các cụm từ mẫu lấy từ dữ liệu huấn luyện, nhưng khả năng tạo nội dung dài là một điểm cộng, nhất là với kích thước như vậy.
Các nhà phát triển chạy suy luận cục bộ báo cáo rằng các mô hình 3B và 8B đôi khi lặp lại hoặc tạo đầu ra theo công thức, đặc biệt ở các tác vụ sáng tạo.
Tuy nhiên, mô hình 3B nhỏ đến mức có thể chạy trên phần cứng yếu như điện thoại thông minh và có thể được huấn luyện/tinh chỉnh cho mục đích cụ thể. Đối thủ duy nhất hiện tại trong lĩnh vực này là phiên bản nhỏ nhất của Google Gemma 3.
Doanh nghiệp đã bắt đầu áp dụng. HSBC công bố hợp tác nhiều năm vào thứ Hai với Mistral để triển khai AI sinh trên toàn hệ thống. Ngân hàng sẽ vận hành mô hình tự lưu trữ trên hạ tầng riêng, kết hợp năng lực kỹ thuật nội bộ với chuyên môn của Mistral. Đối với các tổ chức tài chính xử lý dữ liệu khách hàng nhạy cảm theo GDPR, sức hấp dẫn của một nhà cung cấp AI có trụ sở tại EU với trọng số mở là rất rõ ràng.
Mistral và NVIDIA hợp tác tạo checkpoint nén NVFP4 cho phép Large 3 chạy trên một node gồm tám card tốt nhất. NVIDIA cho biết Ministral 3B đạt khoảng 385 token/giây trên RTX 5090, với hơn 50 token/giây trên Jetson Thor cho ứng dụng robot. Điều này có nghĩa là mô hình rất hiệu quả và nhanh khi suy luận, cung cấp câu trả lời nhanh mà không giảm chất lượng.
Một phiên bản Large 3 tối ưu hóa cho suy luận sẽ sớm ra mắt, theo công bố. Cho đến lúc đó, DeepSeek R1 và các mô hình Trung Quốc khác như GLM hoặc Qwen Thinking vẫn có sự khác biệt ở các nhiệm vụ suy luận rõ ràng. Nhưng đối với các doanh nghiệp muốn năng lực tiên tiến, trọng số mở, sức mạnh đa ngôn ngữ trên các ngôn ngữ châu Âu, và một công ty không chịu sự chi phối của luật an ninh quốc gia Trung Quốc hoặc Mỹ, lựa chọn đã mở rộng từ số 0 lên số 1.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Mistral trở lại mạnh mẽ với dòng AI Frontier cạnh tranh trực tiếp với DeepSeek
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Startup AI Pháp Mistral, thường bị đánh giá thấp là kẻ yếu thế châu Âu trong lĩnh vực do các ông lớn Mỹ và các đối thủ mới nổi Trung Quốc thống trị, vừa bắt kịp: Họ vừa ra mắt bản phát hành tham vọng nhất từ trước đến nay vào thứ Ba, khiến các đối thủ mã nguồn mở phải dè chừng. (Hoặc không mất tiền, trong trường hợp này.)
Dòng 4 mô hình bao gồm từ trợ lý nhỏ gọn đến một hệ thống tiên tiến với 675 tỷ tham số, tất cả đều theo giấy phép mã nguồn mở Apache 2.0 tự do. Các mô hình này được công khai cho phép tải xuống—bất kỳ ai có phần cứng phù hợp đều có thể chạy chúng cục bộ, chỉnh sửa, tinh chỉnh hoặc xây dựng ứng dụng dựa trên đó.
Mô hình chủ lực của công ty, Mistral Large 3, sử dụng kiến trúc Mixture-of-Experts thưa, chỉ kích hoạt 41 tỷ trong tổng số 675 tỷ tham số cho mỗi token. Lựa chọn kỹ thuật này giúp mô hình đạt hiệu suất của các mô hình tiên tiến trong khi phép suy luận (inference) lại gần mức của mô hình 40 tỷ tham số.
Mistral Large 3 được huấn luyện từ đầu trên 3.000 GPU NVIDIA H200 và ra mắt ở vị trí số hai trong số các mô hình mã nguồn mở, không chuyên về suy luận trên bảng xếp hạng LMArena.
Cuộc cạnh tranh đánh giá chuẩn với DeepSeek kể một câu chuyện phức tạp. Theo các bài kiểm tra của Mistral, mô hình tốt nhất của họ vượt qua DeepSeek V3.1 ở nhiều chỉ số nhưng lại kém V3.2 mới hơn vài điểm trên LMArena.
Ở các nhiệm vụ kiến thức tổng quát và lập luận chuyên gia, dòng Mistral vẫn giữ vững vị trí của mình. DeepSeek nổi trội hơn ở tốc độ lập trình thô và logic toán học. Nhưng điều này là dễ hiểu: Bản phát hành này không bao gồm các mô hình suy luận, nên các mô hình này không có chuỗi suy nghĩ tích hợp trong kiến trúc.
Các mô hình “Ministral” nhỏ hơn là nơi các nhà phát triển quan tâm. Ba kích thước—3B, 8B và 14B tham số—mỗi loại đều có biến thể base và instruct. Tất cả đều hỗ trợ đầu vào hình ảnh một cách tự nhiên. Mô hình 3B đã thu hút sự chú ý của nhà nghiên cứu AI Simon Willison, người nhận xét rằng nó có thể chạy hoàn toàn trong trình duyệt thông qua WebGPU.
Nếu bạn muốn thử mô hình này, không gian Hugginface này cho phép bạn tải về cục bộ và tương tác bằng webcam làm đầu vào.
Một AI có khả năng xử lý hình ảnh gói gọn trong tệp khoảng 3GB mở ra nhiều khả năng cho các nhà phát triển cần hiệu quả—hoặc thậm chí cho người đam mê: drone, robot, laptop chạy offline, hệ thống nhúng trên xe v.v.
Thử nghiệm ban đầu cho thấy một “tính cách chia đôi” giữa các mô hình. Qua thử nghiệm nhanh, chúng tôi nhận thấy Mistral 3 Large rất tốt về độ trôi chảy hội thoại. Đôi khi nó có phong cách định dạng giống GPT-5 (một phong cách ngôn ngữ tương tự và thích dùng emoji) nhưng với nhịp điệu tự nhiên hơn.
Mistral 3 Large cũng khá “thoáng” về kiểm duyệt, khiến nó là lựa chọn tốt hơn cho nhập vai nhanh nếu so với ChatGPT, Claude hoặc Gemini.
Đối với các tác vụ xử lý ngôn ngữ tự nhiên, viết sáng tạo và nhập vai, người dùng thấy biến thể instruct 14B khá ổn, nhưng không thực sự xuất sắc. Các chủ đề Reddit trên r/LocalLLaMA cảnh báo về vấn đề lặp lại và đôi khi quá phụ thuộc vào các cụm từ mẫu lấy từ dữ liệu huấn luyện, nhưng khả năng tạo nội dung dài là một điểm cộng, nhất là với kích thước như vậy.
Các nhà phát triển chạy suy luận cục bộ báo cáo rằng các mô hình 3B và 8B đôi khi lặp lại hoặc tạo đầu ra theo công thức, đặc biệt ở các tác vụ sáng tạo.
Tuy nhiên, mô hình 3B nhỏ đến mức có thể chạy trên phần cứng yếu như điện thoại thông minh và có thể được huấn luyện/tinh chỉnh cho mục đích cụ thể. Đối thủ duy nhất hiện tại trong lĩnh vực này là phiên bản nhỏ nhất của Google Gemma 3.
Doanh nghiệp đã bắt đầu áp dụng. HSBC công bố hợp tác nhiều năm vào thứ Hai với Mistral để triển khai AI sinh trên toàn hệ thống. Ngân hàng sẽ vận hành mô hình tự lưu trữ trên hạ tầng riêng, kết hợp năng lực kỹ thuật nội bộ với chuyên môn của Mistral. Đối với các tổ chức tài chính xử lý dữ liệu khách hàng nhạy cảm theo GDPR, sức hấp dẫn của một nhà cung cấp AI có trụ sở tại EU với trọng số mở là rất rõ ràng.
Mistral và NVIDIA hợp tác tạo checkpoint nén NVFP4 cho phép Large 3 chạy trên một node gồm tám card tốt nhất. NVIDIA cho biết Ministral 3B đạt khoảng 385 token/giây trên RTX 5090, với hơn 50 token/giây trên Jetson Thor cho ứng dụng robot. Điều này có nghĩa là mô hình rất hiệu quả và nhanh khi suy luận, cung cấp câu trả lời nhanh mà không giảm chất lượng.
Một phiên bản Large 3 tối ưu hóa cho suy luận sẽ sớm ra mắt, theo công bố. Cho đến lúc đó, DeepSeek R1 và các mô hình Trung Quốc khác như GLM hoặc Qwen Thinking vẫn có sự khác biệt ở các nhiệm vụ suy luận rõ ràng. Nhưng đối với các doanh nghiệp muốn năng lực tiên tiến, trọng số mở, sức mạnh đa ngôn ngữ trên các ngôn ngữ châu Âu, và một công ty không chịu sự chi phối của luật an ninh quốc gia Trung Quốc hoặc Mỹ, lựa chọn đã mở rộng từ số 0 lên số 1.