掃描下載 Gate App
qrCode
更多下載方式
今天不再提醒

Tether Data 發布 QVAC Fabric LLM 推理與微調框架,助力現代 AI 模型

簡要

Tether Data 推出 QVAC Fabric LLM 框架,實現跨消費級設備和多廠商硬體的大型語言模型(LLM)推理與微調,支援去中心化、注重隱私且可擴展的 AI 發展。

Tether Data Unveils QVAC Fabric LLM Inference And Fine-Tuning Framework For Modern AI Models

金融服務部門公司 Tether,致力於通過技術推動自由、透明和創新,Tether Data 宣布推出 QVAC Fabric LLM,一個完整的大型語言模型(LLM)推理運行時和微調框架。這一新系統讓用戶能直接在標準硬體上執行、訓練和自訂大型語言模型,包括消費級 GPU、筆記型電腦甚至智慧型手機,解除過去對高端雲端伺服器或專用 NVIDIA 設備的依賴。

QVAC Fabric LLM 重新定義了高效能 LLM 推理和微調,這過去僅限於擁有昂貴基礎設施的組織。它是首個統一、可攜且高度可擴展的系統,能夠在行動作業系統(iOS 和 Android)以及所有常見的筆電、桌機與伺服器環境(Windows、macOS、Linux)上完整執行 LLM 推理、LoRA 適應和指令微調。這讓開發者與組織能獨立建構、部署、運行與個性化 AI,無需依賴雲端、避免廠商綁定,也不必擔心敏感資料離開本地設備的風險。

本次發佈的一大創新,是能在行動 GPU(如 Qualcomm Adreno 和 ARM Mali)上進行模型微調,這是首個讓智慧型手機級別硬體具備現代 LLM 訓練能力的生產就緒框架。這項進展促進了能直接從用戶裝置中學習的個人化 AI,保護隱私、可離線運作,並支援新一代堅韌的本地 AI 應用。

QVAC Fabric LLM 也擴展了 llama.cpp 生態,新增對 LLama3、Qwen3、Gemma3 等現代模型的微調支援,這些模型此前尚未支援。這些模型現可透過一致且簡單的工作流程,在所有硬體平台上完成微調。

通過支援 AMD、Intel、NVIDIA、Apple Silicon 及行動晶片等廣泛 GPU 培訓,QVAC Fabric LLM 挑戰了高階 AI 開發必須依賴專用單一廠商硬體的長期觀念。消費級 GPU 現在成為重大 AI 任務的可行選擇,行動裝置也成為合法的訓練平台,擴展了 AI 發展的版圖。

對企業而言,該框架提供策略優勢。組織可在內部安全硬體上微調 AI 模型,無需將敏感資料暴露給外部雲端供應商。這種方式兼顧隱私、法規遵循與成本效率,同時允許部署符合內部需求的客製化 AI 模型。QVAC Fabric LLM 使微調從集中式 GPU 叢集轉向企業現有管理的更廣泛設備生態,讓先進 AI 更易取得且更安全。

Tether Data 以開源方式釋出 QVAC Fabric LLM,實現去中心化 AI 客製化

Tether Data 已將 QVAC Fabric LLM 以 Apache 2.0 授權條款開放原始碼,並提供多平台二進位檔與 Hugging Face 上可即用的適配器。框架讓開發者僅需幾條指令即可開始微調模型,大幅降低過往難以克服的 AI 客製化門檻。

QVAC Fabric LLM 標誌著邁向去中心化、用戶自主管理 AI 的實用步伐。儘管業界多數仍專注於雲端解決方案,Tether Data 則聚焦於讓先進個人化能直接在本地端硬體實現。這種方法支持在高延遲網路區域(如新興市場)的運營連續性,同時提供以隱私為先、具韌性且可擴展的 AI 平台,能獨立於集中式基礎設施運作。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)