ステーブルコイン最大手テザー(USDT)は17日、AI開発プロジェクト「QVAC」の最新版として、世界初のクロスプラットフォーム対応BitNet LoRAフレームワークを発表した。NVIDIAの専用GPUやクラウドサーバーなしに、一般消費者向けのスマートフォン上で数十億パラメータのAIモデルを訓練(ファインチューニング)できる点が最大の特徴である。
これはアップルやグーグルのオンデバイスAIとは異なるアプローチだ。既存のスマートフォンAIはあくまで推論(結果の出力)にとどまるが、テザーが実現したのはモデルそのものを端末上で書き換える「学習」の領域だ。ユーザーのデータは端末の外に出ない。
マイクロソフトが開発した「BitNet」は、AIモデルの内部データを「−1・0・1」の3種類の数値だけで表現する超軽量な仕組みだ。「LoRA(低ランク適応)」と組み合わせれば、モデルを自分のデータでカスタマイズする「学習」に必要なリソースを大幅に削減できる。ただし両技術の活用には、これまで高価なNVIDIAの専用GPU(グラフィック処理チップ)かクラウドサーバーが不可欠だった。
QVAC FabricはAMD・Intel・アップル製のGPU、さらにスマートフォン内蔵のGPUチップにも対応することで、世界で初めてこの壁を突破した。
サムスン Galaxy S25・グーグル Pixel 9・アップル iPhone 16の3機種で動作を検証した結果、10億(1B)パラメータモデルのファインチューニング(追加学習)はサムスン S25で約1時間18分、iPhone 16で約1時間45分で完了した。1億2,500万(125M)モデルであればサムスン S25での所要時間は約10分と、実用水準に達している。
推論速度はGPU処理がCPU比でS25では最大11倍、iPhone 16では約6倍、ピクセル 9でも約2倍を記録した。
メモリ消費量の面でも優位で、従来の同等モデルとの比較で最大77.8%の削減を達成。iPhone 16では130億(13B)パラメータという大規模モデルの学習にも成功している。
テザーのパオロ・アルドイノCEOは「大規模AIの訓練が集中型インフラに依存し続ければイノベーションは停滞する。QVACはAIを分散型で、誰もが利用できるものにできることを証明した」と述べた。「安定した知性(Stable Intelligence)の時代が始まった」とも語っている。コードはGitHubで公開済みである。
関連:テザー、フィンテック企業に戦略出資──140か国対応の決済インフラにUSDT活用
関連:CZ氏のYZi Labs、AIロボット企業に約83億円投資


