何が起こった


テザー・データは、エッジファーストの大規模言語モデル(LLM)推論ランタイムと一般化されたLLM低ランク適応(LoRA)ファインチューニングフレームワークを組み合わせたQVACファブリックLLMを導入しました。この技術は、GPU、スマートフォン、ラップトップ、サーバーなどの異種プラットフォームで効率的に動作する現代のAIモデルをサポートします。このフレームワークは、デバイス上でのAI処理を可能にし、リソースの使用を最適化し、LLM機能を必要とするアプリケーションの推論速度を向上させるように設計されています。

コンテキスト
QVAC Fabric LLMのリリースは、データが集中型クラウドサーバーではなくユーザーのデバイス上でローカルに処理されるエッジでのAI計算を強調する広範な業界トレンドに沿っています。これにより、プライバシーが強化され、レイテンシが低減され、帯域幅が節約されます。LoRAファインチューニングは、モデルが新しいタスクに適応するために、より少ない計算リソースで小さなパラメータのサブセットを更新する技術であり、幅広いデバイスにとって実用的です。Tether Dataという会社
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン