🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
五校联合研究让数字人靠视觉在3D场景自主导航,成功率超最优基线约30个百分点
ME News 消息,4 月 14 日(UTC+8),据 1M AI News 监测,北京大学、卡内基梅隆大学、同济大学、加州大学洛杉矶分校和密歇根大学联合团队在 arXiv 发布 VGHuman,一个让数字人仅凭视觉感知在陌生 3D 场景中自主行动的具身 AI 框架。此前数字人系统普遍依赖预设脚本或特权状态信息驱动,VGHuman 的出发点是给数字人真正的眼睛,让它自己看路、规划、行动。 框架分两层。World Layer 从单目视频重建出带有语义标注和碰撞网格的 3D 高斯场景,遮挡感知设计让它在复杂室外环境中仍能识别被遮挡的小型物体。Agent Layer 为数字人配备第一视角 RGB-D(彩色+深度)感知,通过空间感知视觉提示和迭代推理生成规划,最终由扩散模型转化为全身动作序列驱动角色运动。 在 200 个测试场景的导航基准中,跨简单路径、障碍绕行、动态行人三个难度层级,VGHuman 任务成功率最高超出 NaVILA、NaVid、Uni-NaVid 等最强基线约 30 个百分点,碰撞率持平或更低。框架还支持跑步、跳跃等多种运动风格,以及访问连续多个目标的长程规划。代码和模型计划开源,GitHub 仓库已建立。 (来源:BlockBeats)