Microsoftが3つのバージョンのHarrierテキスト埋め込みモデルをオープンソース化、27B版が多言語MTEB v2ランキングでトップに

BlockBeatNews

1M AI Newsのモニタリングによると、微软はHugging Faceでオープンソースの多言語テキスト埋め込みモデルファミリーharrier-oss-v1を公開しており、270M、0.6B、27Bの3つのクラスがあります。モデルカードによれば、この一連のモデルはdecoder-onlyアーキテクチャ、last-token pooling、L2正規化を採用し、最大で32768 tokenまで対応でき、検索、クラスタリング、セマンティック類似度、分類、バイリンガル・マイニング、リランキングに利用可能です。
  Multilingual MTEB v2は業界でよく使われる多言語テキスト埋め込みのベンチマークで、主に検索、分類、クラスタリング、セマンティック類似度などのタスクをテストします。微软のモデルカードによると、3つのクラスのモデルのこのベンチマークにおけるスコアはそれぞれ66.5、69.0、74.3であり、そのうち27B版は公開当日に首位に登場しました。270Mおよび0.6Bの各バージョンはさらに、より大きな埋め込みモデルを用いて知識蒸留を追加で行っており、3つのモデルはいずれもMITライセンスで公開されています。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし