👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
Mistral強勢回歸,推出可與DeepSeek抗衡的Frontier AI系列
Decrypt 的藝術、時尚與娛樂中心。
探索 SCENE
法國 AI 新創公司 Mistral,經常被視為在美國巨頭與中國新貴主導的領域中的歐洲弱勢選手,現在終於迎頭趕上:週二發布了迄今為止最具野心的產品,讓開源競爭對手都相形見絀。(或者說這次根本不用錢。)
這個 4 款模型家族涵蓋了口袋型助理到擁有 6750 億參數的最先進系統,全部都採用寬鬆的 Apache 2.0 開源授權。這些模型可公開下載——只要有合適硬體,任何人都可以本地運行、修改、微調或在其上建立應用。
旗艦產品 Mistral Large 3 採用稀疏的 Mixture-of-Experts 架構,每個 token 僅啟動其 6750 億總參數中的 410 億。這種工程選擇讓它在推理時能以接近 400 億參數的運算負載發揮頂尖實力。
Mistral Large 3 是用 3,000 張 NVIDIA H200 GPU 從零開始訓練的,在 LMArena 排行榜上的開源非推理模型中名列第二。
與 DeepSeek 的基準對決則更為複雜。根據 Mistral 的基準測試,其最佳模型在多項指標上擊敗 DeepSeek V3.1,但在 LMArena 上仍以些微分差落後於更新的 V3.2。
在一般知識與專業推理任務上,Mistral 家族表現不俗。而 DeepSeek 勝出的地方是純粹的編碼速度與數理邏輯。不過這也在預期之中:這次發布並未包含推理模型,因此這些模型架構中沒有內建 chain of thought。
更小型的「Ministral」模型則讓開發者更感興趣。3B、8B、14B 三種規模,各自有 base 與 instruct 兩種變體,且都原生支援視覺輸入。3B 型號吸引了 AI 研究員 Simon Willison 的注意,他指出該模型能夠完全透過 WebGPU 在瀏覽器中運行。
如果你想試試看,可以在這個 Hugginface 空間本地載入模型,並用你的攝影機作為輸入互動。
一個大約 3GB 檔案的視覺型 AI 能力,為需要高效率的開發者——甚至業餘愛好者——開啟新可能:無人機、機器人、離線筆電、車用嵌入式系統等等。
早期測試顯示這系列模型有點分裂個性。在快速測試中,我們發現 Mistral 3 Large 在對話流暢度上表現不錯。有時它的格式化風格像 GPT-5 (相似的語言風格與偏好使用表情符號),但節奏更自然。
Mistral 3 Large 在審查限制上也相對寬鬆,讓它在 ChatGPT、Claude 或 Gemini 之間,成為快速角色扮演的更佳選擇。
在自然語言任務、創意寫作與角色扮演方面,用戶認為 14B instruct 變體表現不錯,但並不特別傑出。Reddit 上 r/LocalLLaMA 的討論指出,該模型有重複現象與偶爾過度依賴訓練資料的制式語句,但其長篇內容生成能力對於這個規模來說已是加分。
開發者本地推理時回報,3B 與 8B 模型有時會陷入循環或產生公式化內容,特別是在創意任務中。
話雖如此,3B 模型小到能在如智慧型手機等低階硬體上運行,並可針對特定用途進行訓練或微調。現階段該領域唯一的競爭對手是 Google 的 Gemma 3 最小版本。
企業導入已經啟動。滙豐銀行週一宣布與 Mistral 達成多年合作,在其營運中部署生成式 AI。該銀行將在自家基礎設施上運行自有模型,結合內部技術實力與 Mistral 的專業。對於需在 GDPR 下處理敏感客戶資料的金融機構來說,選擇一間總部設於歐盟且開放權重的 AI 供應商,吸引力不言而喻。
Mistral 與 NVIDIA 合作,推出 NVFP4 壓縮 checkpoint,讓 Large 3 能在單節點八張頂級顯卡上運行。NVIDIA 稱 Ministral 3B 在 RTX 5090 上每秒約 385 tokens,在 Jetson Thor 機器人應用上每秒超過 50 tokens。這代表該模型推理效率極高,能更快給出答案且不損品質。
根據公告,針對推理優化的 Large 3 版本即將推出。在那之前,DeepSeek R1 與其他中國模型如 GLM 或 Qwen Thinking 仍在明確推理任務上保持差異化。但對於希望擁有尖端能力、開放權重、歐洲語言多語優勢,以及不受中美國安法約束的企業來說,選項已經從零增加到一。