Pindai untuk Mengunduh Aplikasi Gate
qrCode
Opsi Unduhan Lainnya
Jangan ingatkan saya lagi hari ini

Mistral Kembali dengan Keluarga Frontier AI yang Bersaing Langsung dengan DeepSeek

Pusat Seni, Fashion, dan Hiburan Decrypt.


Temukan SCENE

Startup AI asal Prancis, Mistral, yang sering diremehkan sebagai underdog Eropa di bidang yang didominasi raksasa Amerika dan pendatang baru Tiongkok, baru saja mengejar ketinggalan: Mereka merilis produk paling ambisius pada hari Selasa yang membuat persaingan open-source makin ketat. (Atau tanpa uang, dalam hal ini.)

Keluarga model berjumlah 4 ini mencakup asisten seukuran saku hingga sistem mutakhir dengan 675 miliar parameter, semuanya di bawah lisensi open-source Apache 2.0 yang permisif. Model-model ini tersedia untuk diunduh secara publik—siapa pun dengan perangkat keras yang sesuai dapat menjalankannya secara lokal, memodifikasi, menyempurnakan, atau membangun aplikasi di atasnya.

Produk andalannya, Mistral Large 3, menggunakan arsitektur Mixture-of-Experts yang hanya mengaktifkan 41 miliar dari total 675 miliar parameternya per token. Pilihan rekayasa ini memungkinkan model tersebut bersaing di kelas terdepan sambil menjalankan inferensi pada profil komputasi yang setara dengan 40 miliar parameter.

Mistral Large 3 dilatih dari awal menggunakan 3.000 GPU NVIDIA H200 dan debut di posisi kedua di antara model open-source non-reasoning di papan peringkat LMArena.

Persaingan benchmark dengan DeepSeek menunjukkan cerita yang rumit. Menurut benchmark Mistral, model terbaiknya mengalahkan DeepSeek V3.1 pada beberapa metrik, tetapi tertinggal beberapa poin dari V3.2 yang lebih baru di LMArena.

Pada tugas pengetahuan umum dan penalaran ahli, keluarga Mistral mampu bersaing. DeepSeek unggul pada kecepatan pemrograman mentah dan logika matematika. Tapi itu memang sudah diperkirakan: Rilis ini tidak mencakup model reasoning, sehingga model-model ini tidak memiliki chain of thought dalam arsitekturnya.

Model “Ministral” yang lebih kecil justru menarik bagi developer. Tiga ukuran—3B, 8B, dan 14B parameter—masing-masing hadir dengan varian base dan instruct. Semua mendukung input visual secara native. Model 3B menarik perhatian peneliti AI Simon Willison, yang mencatat bahwa model ini bisa dijalankan sepenuhnya di browser melalui WebGPU.

Jika Anda ingin mencoba model tersebut, ruang Hugginface ini memungkinkan Anda memuatnya secara lokal dan berinteraksi menggunakan webcam sebagai input.

AI dengan kemampuan visual yang kompeten dalam file berukuran sekitar 3GB membuka kemungkinan baru bagi developer yang membutuhkan efisiensi—bahkan untuk hobiis: drone, robot, laptop yang berjalan offline, sistem tertanam di kendaraan, dll.

Pengujian awal menunjukkan kepribadian yang berbeda di tiap lini. Dalam uji coba singkat, kami menemukan Mistral 3 Large bagus untuk kelancaran percakapan. Kadang model ini memiliki gaya format seperti GPT-5 (gaya bahasa serupa dan preferensi pada emoji) namun dengan ritme yang lebih natural.

Mistral 3 Large juga cukup longgar dalam hal sensor, menjadikannya opsi terbaik untuk role play cepat dibanding ChatGPT, Claude, atau Gemini.

Untuk tugas bahasa alami, penulisan kreatif, dan role play, pengguna menganggap varian instruct 14B cukup baik, meski bukan yang terbaik. Thread di Reddit r/LocalLLaMA menandai masalah pengulangan dan kadang terlalu mengandalkan frasa standar dari data pelatihan, namun kemampuan model menghasilkan konten panjang merupakan nilai plus, terutama untuk ukurannya.

Developer yang menjalankan inferensi lokal melaporkan bahwa model 3B dan 8B kadang mengalami looping atau menghasilkan output yang formulaik, khususnya untuk tugas kreatif.

Namun, model 3B sangat kecil sehingga dapat dijalankan di perangkat keras lemah seperti smartphone dan bisa dilatih/disesuaikan untuk keperluan spesifik. Satu-satunya pesaing di area ini saat ini adalah versi terkecil dari Google Gemma 3.

Adopsi di tingkat perusahaan sudah mulai berjalan. HSBC mengumumkan kemitraan multi-tahun pada hari Senin dengan Mistral untuk menerapkan AI generatif di seluruh operasinya. Bank akan menjalankan model self-hosted di infrastruktur sendiri, menggabungkan kemampuan teknis internal dengan keahlian Mistral. Untuk institusi keuangan yang menangani data pelanggan sensitif di bawah GDPR, daya tarik vendor AI yang berbasis di Uni Eropa dengan open weights cukup jelas.

Mistral dan NVIDIA berkolaborasi dalam checkpoint terkompresi NVFP4 yang memungkinkan Large 3 berjalan di satu node dengan delapan kartu terbaiknya. NVIDIA mengklaim Ministral 3B mampu mencapai sekitar 385 token per detik pada RTX 5090, dengan lebih dari 50 token per detik di Jetson Thor untuk aplikasi robotik. Artinya, model ini sangat efisien dan cepat dalam inferensi, memberikan jawaban lebih cepat tanpa mengorbankan kualitas.

Versi Large 3 yang dioptimalkan untuk reasoning segera hadir, menurut pengumuman. Sampai saat itu, DeepSeek R1 dan model Tiongkok lain seperti GLM atau Qwen Thinking masih unggul untuk tugas penalaran eksplisit. Namun untuk perusahaan yang menginginkan kemampuan frontier, open weights, kekuatan multibahasa di banyak bahasa Eropa, dan perusahaan yang tidak tunduk pada hukum keamanan nasional Tiongkok atau Amerika, opsinya kini bertambah dari nol menjadi satu.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)