2026-04-11 05:14:49
Ramp Labs がマルチエージェントの記憶共有の新しい仕組みを提案、Token 消費が最大 65% 低下
Ramp Labsが公開した研究成果「Latent Briefing」は、大規模言語モデルのKVキャッシュを圧縮することで、多智能体システムにおける効率的な記憶共有を実現し、Token消費を削減して精度を向上させます。LongBench v2のテストでは、この手法によりWorkerモデルのToken消費を65%削減し、全体の正確さは約3ポイント向上しました。圧縮にかかる時間はわずか1.7秒です。この技術は、さまざまなドキュメントシナリオで優れた性能を示しています。