💥 Gate 广场活动: #发帖赢代币PORTALS# 💥
在 Gate广场发布与 PORTALS、Alpha交易赛、空投活动或Launchpool 相关的原创内容,即有机会瓜分 1,300 枚 PORTALS 奖励!
📅 活动时间:2025年9月18日 18:00 – 9月25日 24:00 (UTC+8)
📌 相关详情:
Alpha交易赛:参与即有机会赢奖励
👉 https://www.gate.com/zh/announcements/article/47181
空投活动:领取 #PORTALS# 空投
👉 https://www.gate.com/zh/announcements/article/47168
Launchpool:抵押 GT 获取 PORTALS
👉 https://www.gate.com/zh/announcements/article/47148
📌 参与方式:
发布原创内容,主题需与 PORTALS 或相关活动(Alpha交易赛 / 空投 / Launchpool) 相关
内容不少于 80 字
帖子添加话题: #发帖赢代币PORTALS#
附上任意活动参与截图
🏆 奖励设置:
🥇 一等奖(1名):300 PORTALS
🥈 二等奖(4名):150 PORTALS/人
🥉 三等奖(4名):100 PORTALS/人
📄 注意事项:
字节跳动与中科大联合提出多模态文档大模型 DocPedia
字节跳动与中国科学技术大学合作研发的多模态文档大模型 DocPedia 已成功突破了分辨率的极限,达到了 2560×2560 的高分辨率,而目前业内先进多模态大模型如 LLaVA、MiniGPT-4 等处理图像分辨率上限为 336×336,无法解析高分辨率的文档图像。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。
据称,DocPedia 不仅能准确识别图像信息,还能结合用户需求调用知识库回答问题,展现高分辨率多模态文档理解的能力。