Сообщение Gate News, 22 апреля — Google Research выпустила ReasoningBank, фреймворк агентной памяти, который позволяет агентам, управляемым большими языковыми моделями, непрерывно учиться после развертывания. Фреймворк извлекает универсальные стратегии рассуждений как из успешных, так и из неудачных опытов выполнения задач, сохраняя их в банке памяти для поиска и выполнения при выполнении похожих будущих задач. Соответствующая работа была опубликована в ICLR, а код выложен в открытый доступ на GitHub.
ReasoningBank улучшает два существующих подхода: Synapse, который фиксирует полные траектории действий, но имеет ограниченную переносимость из-за мелкозернистой детализации, и Agent Workflow Memory, который обучается только на успешных случаях. ReasoningBank вносит два ключевых изменения: хранит «паттерны рассуждений» вместо «последовательностей действий», при этом каждая запись памяти содержит структурированные поля для заголовка, описания и содержимого; и включает траектории неудач в обучение. Фреймворк использует модель для самопроверки траекторий выполнения, превращая неудачные опыты в правила против типичных ошибок. Например, правило «нажимай кнопку Load More, когда она видна» развивается в «сначала проверь идентификатор текущей страницы, избегай циклов бесконечной прокрутки, затем нажми load more».
В статье также вводится Memory-aware Test-time Scaling (MaTTS), которое выделяет дополнительные вычисления во время вывода, чтобы исследовать несколько траекторий и сохранять результаты в банке памяти. Параллельное расширение запускает несколько различных траекторий для одной и той же задачи, уточняя более надежные стратегии за счет самосравнения; последовательное расширение итеративно уточняет одну траекторию, сохраняя промежуточные рассуждения в памяти.
В задачах браузера WebArena и задачах по программированию SWE-Bench-Verified с использованием Gemini 2.5 Flash в качестве ReAct-агента ReasoningBank достигла на 8,3% более высокой доли успешных исходов на WebArena и на 4,6% более высокой на SWE-Bench-Verified по сравнению с базовой версией без памяти, сократив среднее число шагов на задачу примерно на 3. Добавление MaTTS с параллельным расширением (k=5) дополнительно улучшило успешность на WebArena на 3 процентных пункта и уменьшило число шагов еще на 0,4.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
NeoCognition привлекает $40M в посевном финансировании для ИИ-агентов обучения на рабочем месте
Сообщение Gate News, 22 апреля — AI-исследовательская лаборатория NeoCognition объявила о завершении посевного раунда на $40 миллионов долларов, выйдя из режима скрытности. Основанная доцентом Университета штата Огайо Ю Су вместе с Сян Дэн и Ю Гу, компания базируется в Пало-Альто, штат Калифорния. Раунд w
GateNews8м назад
PicWe запускает кошелёк с AI Agent и управлением ключами на устройстве
PicWe объявляет о публичной бета-версии PicWe Wallet — кошелька с поддержкой AI-агентов, работающего на устройстве и не требующего recovery phrase (фраз восстановления). Он поддерживает мультичейн-активы, свопы, автоматизацию, доступную через AI, и нацелен на объединение инфраструктуры RWA.
PicWe запустила публичную бета-версию PicWe Wallet — кошелька, включающего AI Agent и хранящего ключи на устройстве, который исключает recovery phrase и оставляет критически важные операции локальными. Бета поддерживает управление активами в нескольких сетях, свопы и комиссии на основе стейблкоинов, одновременно позволяя программируемые взаимодействия с AI. Более широкие инициативы PicWe позиционируют платформу как единую инфраструктуру для реальных активов, обеспечивая выпуск, обращение, расчёты, платежи через границы, токенизацию и координацию цепочки поставок для корпоративных сценариев использования.
GateNews52м назад
Hugging Face Open-Source ml-intern — AI-агент для автономных ML-исследований
С открытым исходным кодом: ml-intern от Hugging Face — автономный агент для ML-исследований, который читает статьи, подбирает данные, обучает, оценивает и итеративно улучшает результаты в областях науки, медицины и математики.
Аннотация: ml-intern от Hugging Face — это автономный агент для ML-исследований с открытым исходным кодом, который читает статьи, формирует датасеты, обучается на локальных или облачных GPU, оценивает результаты и итеративно улучшает решения. Построен на smolagents с интерфейсом CLI и веб-интерфейсом: он ориентируется в arXiv/HF Papers, HF Hub и HF Jobs. Демонстрации охватывают науку, медицину и математику, демонстрируя сквозную автоматизацию и рост производительности.
GateNews56м назад
Доцент Цинхуа Дай Цифэн запускает Naive.ai, привлекает ~$300M при $800M -оценке
Сообщение Gate News, 22 апреля — Дай Цифэн, доцент кафедры электронной инженерии Пекинского университета Цинхуа, основал Naive.ai — компанию, ориентированную на постобучение открытых моделей с открытым исходным кодом и AI-агентов. Стартап привлел примерно $300 млн при оценке в $80
GateNews2ч назад
AWS Expands Multi-Agent AI Workflows, Supports Claude Opus 4.7 on Bedrock
Gate News message, April 22 — Amazon Web Services announced expansion of its agentic AI initiatives through multi-agent workflows, supporting Anthropic's Claude Opus 4.7 on Amazon Bedrock to help customers move beyond generative AI pilots. The company is expanding partner relationships as customers
GateNews2ч назад
0G Labs сотрудничает с Alibaba Cloud, чтобы обеспечить доступ к агентному ИИ на блокчейне к модели Qwen
Сообщение Gate News, 22 апреля — 0G Labs объявила о партнерстве с Alibaba Cloud, чтобы обеспечить ИИ-агентам возможность напрямую вызывать большую языковую модель Alibaba Qwen в сети через инфраструктуру блокчейна 0G. Сотрудничество знаменует собой смену парадигм доступа к ИИ: от подходов, основанных на API, к программируемой, токенизированной ИИ-инфраструктуре, где ИИ-агенты могут вызывать Qwen для вывода непосредственно в сети 0G, а верификация осуществляется силами 0G.
Qwen3.6-Plus оптимизирован для сценариев агентного ИИ в рамках партнерства. Разделение технических ролей позволяет ИИ-агентам выполнять задачи вывода, в то время как 0G берет на себя слой верификации, создавая бесшовную интеграцию между блокчейн-инфраструктурой и передовыми возможностями ИИ.
Обе стороны обязались углублять сотрудничество, чтобы стимулировать внедрение ИИ-агентов в масштабах всего мира, сигнализируя о более широкой тенденции развития децентрализованной ИИ-инфраструктуры.
GateNews3ч назад