0G Labs 報告 107B 去中心化人工智能突破,突出成本高效訓練和開源計劃

簡要概述

0G Labs 報告稱,該公司使用高效的去中心化方法訓練了具有1070億參數的 DiLoCoX 模型——比 Bittensor 系統更大,並已開始公開重新訓練,並計劃開源發布,透明度高。

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs,專注於人工智能代理的區塊鏈基礎設施開發商,曾在約八個月前訓練出一個擁有1070億參數的模型,規模約比 Bittensor 開發的模型大 48%,是迄今為止記錄中最大的去中心化 AI 系統。

該模型名為 DiLoCoX-107B,於2025年7月使用與中國移動合作開發的技術進行訓練。根據在 arXiv 發表的同行評審研究,該系統在標準1 Gbps互聯網連接下,其通信效率比傳統的 AllReduce 方法高出357倍,表明在不依賴高成本數據中心基礎設施的情況下,先進的 AI 訓練可能是可行的。

初步訓練結果顯示,分散式計算架構可以與集中式方法在模型開發的最高階段競爭。儘管 OpenAI、Google 和 Meta 等公司在大型 GPU 集群上投入巨大,0G Labs 表示其分散式框架能將成本降低約95%,根據《福布斯》的數據。該系統在通過廣泛可用的互聯網基礎設施連接的去中心化節點上運行。

相比之下,Bittensor 在其 Subnet 3 網絡上由一組貢獻者開發的 Covenant-72B 模型,被描述為去中心化 AI 領域的重要進展。然而,0G Labs 表示,其早期工作已經證明了在更大規模下訓練模型的可行性,並得到了同行評審的驗證。

公司進一步宣布,已啟動一個新階段,涉及公開重新訓練 DiLoCoX-107B,強調透明度和開源策略。此舉旨在建立更明確的可驗證 AI 開發實踐標準。

完成後,預計將以完全公開的方式發布更新後的模型,包括其權重、檢查點和性能基準。重新訓練過程還將包括全面的文檔,涵蓋數據來源、訓練指標和驗證機制,包括基於可信執行環境的驗證。

可驗證 AI 的全棧基礎設施

與主要用於實驗目的的系統不同,DiLoCoX-107B 被整合到一個更廣泛的基於區塊鏈的基礎設施中,專為 AI 代理設計。這包括一個具備生產就緒的堆疊,具有 EVM 兼容的層一區塊鏈、去中心化計算資源、分散式存儲能力,以及一個高性能的數據可用性層,速度遠快於如以太坊等類似方案。

公司表示,這樣的基礎設施旨在支持不僅是模型訓練,還包括可驗證推理、安全存儲和鏈上結算流程,反映出 AI 代理生態系統的更廣泛運營需求。

該系統採用了多種技術方法,包括管道並行、雙優化器協調(本地與全局更新)、延遲同步以實現持續訓練,以及自適應梯度壓縮以降低通信開銷同時保持性能準確性。

0G Labs 表示,重新訓練過程目前正在進行中,所有相關數據、方法和結果將在過程中披露。最終模型預計將在開源許可下發布,並提供完整的訓練資料存取。

0G-0.07%
TAO16.31%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言