👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
Tether Data 發布 QVAC Fabric LLM 推理與微調框架,助力現代 AI 模型
簡要
Tether Data 推出 QVAC Fabric LLM 框架,實現跨消費級設備和多廠商硬體的大型語言模型(LLM)推理與微調,支援去中心化、注重隱私且可擴展的 AI 發展。
金融服務部門公司 Tether,致力於通過技術推動自由、透明和創新,Tether Data 宣布推出 QVAC Fabric LLM,一個完整的大型語言模型(LLM)推理運行時和微調框架。這一新系統讓用戶能直接在標準硬體上執行、訓練和自訂大型語言模型,包括消費級 GPU、筆記型電腦甚至智慧型手機,解除過去對高端雲端伺服器或專用 NVIDIA 設備的依賴。
QVAC Fabric LLM 重新定義了高效能 LLM 推理和微調,這過去僅限於擁有昂貴基礎設施的組織。它是首個統一、可攜且高度可擴展的系統,能夠在行動作業系統(iOS 和 Android)以及所有常見的筆電、桌機與伺服器環境(Windows、macOS、Linux)上完整執行 LLM 推理、LoRA 適應和指令微調。這讓開發者與組織能獨立建構、部署、運行與個性化 AI,無需依賴雲端、避免廠商綁定,也不必擔心敏感資料離開本地設備的風險。
本次發佈的一大創新,是能在行動 GPU(如 Qualcomm Adreno 和 ARM Mali)上進行模型微調,這是首個讓智慧型手機級別硬體具備現代 LLM 訓練能力的生產就緒框架。這項進展促進了能直接從用戶裝置中學習的個人化 AI,保護隱私、可離線運作,並支援新一代堅韌的本地 AI 應用。
QVAC Fabric LLM 也擴展了 llama.cpp 生態,新增對 LLama3、Qwen3、Gemma3 等現代模型的微調支援,這些模型此前尚未支援。這些模型現可透過一致且簡單的工作流程,在所有硬體平台上完成微調。
通過支援 AMD、Intel、NVIDIA、Apple Silicon 及行動晶片等廣泛 GPU 培訓,QVAC Fabric LLM 挑戰了高階 AI 開發必須依賴專用單一廠商硬體的長期觀念。消費級 GPU 現在成為重大 AI 任務的可行選擇,行動裝置也成為合法的訓練平台,擴展了 AI 發展的版圖。
對企業而言,該框架提供策略優勢。組織可在內部安全硬體上微調 AI 模型,無需將敏感資料暴露給外部雲端供應商。這種方式兼顧隱私、法規遵循與成本效率,同時允許部署符合內部需求的客製化 AI 模型。QVAC Fabric LLM 使微調從集中式 GPU 叢集轉向企業現有管理的更廣泛設備生態,讓先進 AI 更易取得且更安全。
Tether Data 以開源方式釋出 QVAC Fabric LLM,實現去中心化 AI 客製化
Tether Data 已將 QVAC Fabric LLM 以 Apache 2.0 授權條款開放原始碼,並提供多平台二進位檔與 Hugging Face 上可即用的適配器。框架讓開發者僅需幾條指令即可開始微調模型,大幅降低過往難以克服的 AI 客製化門檻。
QVAC Fabric LLM 標誌著邁向去中心化、用戶自主管理 AI 的實用步伐。儘管業界多數仍專注於雲端解決方案,Tether Data 則聚焦於讓先進個人化能直接在本地端硬體實現。這種方法支持在高延遲網路區域(如新興市場)的運營連續性,同時提供以隱私為先、具韌性且可擴展的 AI 平台,能獨立於集中式基礎設施運作。