👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
Tether Data发布QVAC Fabric LLM推理与微调框架,助力现代AI模型
简要
Tether Data推出了QVAC Fabric LLM框架,使得LLM推理和微调能够在消费级设备和多厂商硬件上进行,支持去中心化、注重隐私和可扩展的AI开发。
金融服务部门公司Tether致力于通过技术推动自由、透明和创新,Tether Data宣布推出QVAC Fabric LLM,这是一套全面的大型语言模型(LLM)推理运行时和微调框架。该新系统使用户能够直接在标准硬件上(包括消费级GPU、笔记本电脑,甚至智能手机)执行、训练和定制大型语言模型,摆脱了以往对高端云服务器或专用NVIDIA设备的依赖。
QVAC Fabric LLM重新定义了高性能LLM推理和微调,这些能力传统上只有拥有昂贵基础设施的组织才能获得。它是首个统一、可移植且高度可扩展的系统,能够在移动操作系统(iOS和Android)以及所有常见的笔记本、台式机和服务器环境(Windows、macOS、Linux)上实现完整的LLM推理执行、LoRA适配和指令微调。这使开发者和组织能够独立构建、部署、运行和个性化AI,无需依赖云端、避免厂商锁定,也无需担心敏感数据离开设备。
本次发布的一项显著创新是能够在移动GPU(如Qualcomm Adreno和ARM Mali)上微调模型,这是首个实现智能手机级硬件上现代LLM训练的生产级框架。这一进步促进了能够直接从用户设备学习的个性化AI,保护隐私、支持离线运行,并推动新一代高韧性的本地AI应用的发展。
QVAC Fabric LLM还通过为LLama3、Qwen3、Gemma3等现代模型增加微调支持,扩展了llama.cpp生态,这些模型此前并不支持。现在,这些模型可以通过一致且简便的工作流程在所有硬件平台上进行微调。
通过支持包括AMD、Intel、NVIDIA、Apple Silicon和移动芯片在内的广泛GPU进行训练,QVAC Fabric LLM挑战了先进AI开发必须依赖专用、单一厂商硬件的长期观念。消费级GPU现在可以胜任重要AI任务,移动设备成为合法的训练平台,拓宽了AI开发的版图。
对于企业来说,该框架带来了战略优势。组织可以在内部安全硬件上微调AI模型,无需将敏感数据暴露给外部云服务提供商。这一做法支持隐私、合规性以及成本效益,同时允许部署为内部需求定制的AI模型。QVAC Fabric LLM将微调从集中式GPU集群转移到公司已管理的更广泛设备生态,使先进AI更加易用且安全。
Tether Data开源发布QVAC Fabric LLM,实现去中心化AI定制
Tether Data已将QVAC Fabric LLM以Apache 2.0许可证开源,并在Hugging Face上提供多平台二进制文件和即用型适配器。该框架允许开发者只需几条命令即可开始微调模型,大大降低了以往难以克服的AI定制门槛。
QVAC Fabric LLM是迈向去中心化、用户自主管理AI的实际举措。在行业大多数仍然优先考虑云端解决方案的同时,Tether Data专注于直接在本地边缘硬件上实现高级个性化。这种方法支持高延迟网络地区(如新兴市场)的持续运营,同时提供以隐私为先、具备韧性和可扩展性、能够独立于中心化基础设施运行的AI平台。