扫码下载 APP
qrCode
更多下载方式
今天不再提醒

Tether Data发布QVAC Fabric LLM推理与微调框架,助力现代AI模型

简要

Tether Data推出了QVAC Fabric LLM框架,使得LLM推理和微调能够在消费级设备和多厂商硬件上进行,支持去中心化、注重隐私和可扩展的AI开发。

Tether Data Unveils QVAC Fabric LLM Inference And Fine-Tuning Framework For Modern AI Models

金融服务部门公司Tether致力于通过技术推动自由、透明和创新,Tether Data宣布推出QVAC Fabric LLM,这是一套全面的大型语言模型(LLM)推理运行时和微调框架。该新系统使用户能够直接在标准硬件上(包括消费级GPU、笔记本电脑,甚至智能手机)执行、训练和定制大型语言模型,摆脱了以往对高端云服务器或专用NVIDIA设备的依赖。

QVAC Fabric LLM重新定义了高性能LLM推理和微调,这些能力传统上只有拥有昂贵基础设施的组织才能获得。它是首个统一、可移植且高度可扩展的系统,能够在移动操作系统(iOS和Android)以及所有常见的笔记本、台式机和服务器环境(Windows、macOS、Linux)上实现完整的LLM推理执行、LoRA适配和指令微调。这使开发者和组织能够独立构建、部署、运行和个性化AI,无需依赖云端、避免厂商锁定,也无需担心敏感数据离开设备。

本次发布的一项显著创新是能够在移动GPU(如Qualcomm Adreno和ARM Mali)上微调模型,这是首个实现智能手机级硬件上现代LLM训练的生产级框架。这一进步促进了能够直接从用户设备学习的个性化AI,保护隐私、支持离线运行,并推动新一代高韧性的本地AI应用的发展。

QVAC Fabric LLM还通过为LLama3、Qwen3、Gemma3等现代模型增加微调支持,扩展了llama.cpp生态,这些模型此前并不支持。现在,这些模型可以通过一致且简便的工作流程在所有硬件平台上进行微调。

通过支持包括AMD、Intel、NVIDIA、Apple Silicon和移动芯片在内的广泛GPU进行训练,QVAC Fabric LLM挑战了先进AI开发必须依赖专用、单一厂商硬件的长期观念。消费级GPU现在可以胜任重要AI任务,移动设备成为合法的训练平台,拓宽了AI开发的版图。

对于企业来说,该框架带来了战略优势。组织可以在内部安全硬件上微调AI模型,无需将敏感数据暴露给外部云服务提供商。这一做法支持隐私、合规性以及成本效益,同时允许部署为内部需求定制的AI模型。QVAC Fabric LLM将微调从集中式GPU集群转移到公司已管理的更广泛设备生态,使先进AI更加易用且安全。

Tether Data开源发布QVAC Fabric LLM,实现去中心化AI定制

Tether Data已将QVAC Fabric LLM以Apache 2.0许可证开源,并在Hugging Face上提供多平台二进制文件和即用型适配器。该框架允许开发者只需几条命令即可开始微调模型,大大降低了以往难以克服的AI定制门槛。

QVAC Fabric LLM是迈向去中心化、用户自主管理AI的实际举措。在行业大多数仍然优先考虑云端解决方案的同时,Tether Data专注于直接在本地边缘硬件上实现高级个性化。这种方法支持高延迟网络地区(如新兴市场)的持续运营,同时提供以隐私为先、具备韧性和可扩展性、能够独立于中心化基础设施运行的AI平台。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)