
稳定币发行商Tether 今(17)日宣布,其AI 基础设施QVAC Fabric 推出重大技术突破:全球首个支持跨平台的BitNet LoRA 微调框架,让过去需要企业级GPU 与云端算力的大型语言模型,如今可在一般消费级硬体上完成训练与推论,甚至包括智慧型手机。
手机也能训练LLM:1B 模型1 小时内完成
根据Tether 公布数据,该框架已成功在多种装置上实现BitNet 模型微调,包括常见的Sansung S25、iPhone 16。
Samsung S25(Adreno GPU):
- 1.25 亿参数模型:约10 分钟完成微调
- 10 亿参数模型:约1 小时18 分钟
iPhone 16(Apple GPU):
- 10 亿参数:约1 小时45 分钟
- 极限测试最高可达130 亿参数模型微调
过去都是用NVIDIA 高阶GPU 执行的AI 训练任务,已被压缩到手机等边缘设备上。
关键技术BitNet + LoRA:将AI 成本砍到骨折
此次突破的核心在于两项技术的结合:
BitNet(1-bit LLM)
将传统高精度权重压缩为仅-1、0、1 三种值,大幅降低记忆体与计算需求。
LoRA(低秩适应)
仅训练少量参数(可减少高达99% 训练量),大幅降低微调成本?
两者结合后,使模型能在极低资源环境下运行。
实测显示BitNet-1B 比Gemma-3-1B 少77.8% VRAM,比Qwen3-0.6B 少65.6% VRAM。同等硬体下,可运行约2 倍更大模型
GPU 解锁手机AI:效能最高提升11 倍
QVAC 另一个关键突破,是让BitNet 真正跑在「非NVIDIA」生态上。支持来自AMD、 Intel、Apple Silicon 的GPU,甚至是手机GPU:Adren、Mali、Apple Bionic。
大型语言模型不再是科技巨头专利,AI 也能去中心化
Tether 执行长Paolo Ardoino 表示:「智慧将是未来社会发展的关键决定因素。它有潜力提升社会稳定性,成为连接社会的纽带,或进一步赋能少数精英。人工智慧的未来应该是人人可及、人人可用、人人可及的,而不应占用只有少数云端服务提供者才能获取的巨额资源。」
传统AI 开发高度依赖云端与大型GPU 丛集,成本高昂、技术集中于少数科技巨头。 Tether 的QVAC 平台支持在包括智能手机在内的消费级硬体上进行有意义的大型模式训练,证明了先进的人工智慧可以去中心化、包容性强。在未来几个月内。将继续投入大量资源和资金,以确保人工智慧能够随时随地在本地设备上使用。
本文链接地址:https://www.wwsww.cn/Stablecoin/37669.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。



