Слияние ИИ и Web3: Новые вызовы безопасности, вызванные возникновением DeFAI
Недавно в Стамбуле состоялся блокчейн-мероприятие, сосредоточенное на тенденциях融合 AI и Web3. В течение конференции несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области децентрализованных финансов и связанных с этим проблем безопасности.
С быстрым развитием больших языковых моделей и AI-агентов формируется новая финансовая парадигма, называемая "DeFAI" (децентрализованный искусственный интеллект в финансах). Однако эта инновация также создает новые уязвимости и угрозы безопасности.
В отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агента зависит от множества факторов, включая контекст, время и исторические взаимодействия. Эта непредсказуемость не только увеличивает системные риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять их на основе логики ИИ, обычно работающими по разрешению пользователей, протоколов или DAO. На данный момент большинство AI-агентов все еще функционируют на основе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к различным угрозам сетевых атак. В случае захвата это может не только привести к потерям средств, но и повлиять на стабильность всего протокола.
Эксперты предложили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложные оповещения, например, утверждая, что протокол подвергся атаке. Это может заставить AI-агента немедленно начать экстренную ликвидацию, что не только приведет к потере активов пользователей, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать с помощью таких методов, как фронт-раннинг.
В отношении этих рисков эксперты единодушно считают, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять операции с высоким уровнем риска AI-агента. Разработчики должны реализовать меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничения по скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать со всеми сторонами для выявления рисков и предложения мер по их смягчению.
Безопасный эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — лишь вопрос времени." Он предложил разработчикам, которые исследуют направление DeFAI: "Как и в случае со смарт-контрактами, логика поведения AI-агента также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходима профессиональная безопасность и тестирование на проникновение."
С запуском выдачи лицензий на блокчейн-проекты Комиссией по рынкам капитала Турции статус этого блокчейн-мероприятия значительно повысился, привлекая более 15 000 разработчиков, представителей проектов, инвесторов и регуляторов со всего мира.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
8 Лайков
Награда
8
4
Поделиться
комментарий
0/400
WhaleWatcher
· 07-10 20:22
Слепое следование за толпой — еще одна ловушка
Посмотреть ОригиналОтветить0
GateUser-aa7df71e
· 07-08 04:34
Кто понимает? Сейчас этот дефай снова ловушка для неудачников.
Посмотреть ОригиналОтветить0
BanklessAtHeart
· 07-08 04:28
Кому какая разница по поводу безопасности, давай играть!
Посмотреть ОригиналОтветить0
DaoResearcher
· 07-08 04:28
Ссылаясь на ранние исследования Виталика [3.14]: управление DeFi на основе ИИ сталкивается с дилеммой Нэша, и его доказательства корректности все еще не имеют верифицируемости. Рекомендуется сначала развернуть песочницу для тестирования, иначе вес голосования обязательно будет атакован.
Возникновение DeFAI: Слияние ИИ и Web3 вызывает новые вызовы безопасности
Слияние ИИ и Web3: Новые вызовы безопасности, вызванные возникновением DeFAI
Недавно в Стамбуле состоялся блокчейн-мероприятие, сосредоточенное на тенденциях融合 AI и Web3. В течение конференции несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий искусственного интеллекта в области децентрализованных финансов и связанных с этим проблем безопасности.
С быстрым развитием больших языковых моделей и AI-агентов формируется новая финансовая парадигма, называемая "DeFAI" (децентрализованный искусственный интеллект в финансах). Однако эта инновация также создает новые уязвимости и угрозы безопасности.
В отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агента зависит от множества факторов, включая контекст, время и исторические взаимодействия. Эта непредсказуемость не только увеличивает системные риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять их на основе логики ИИ, обычно работающими по разрешению пользователей, протоколов или DAO. На данный момент большинство AI-агентов все еще функционируют на основе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к различным угрозам сетевых атак. В случае захвата это может не только привести к потерям средств, но и повлиять на стабильность всего протокола.
Эксперты предложили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложные оповещения, например, утверждая, что протокол подвергся атаке. Это может заставить AI-агента немедленно начать экстренную ликвидацию, что не только приведет к потере активов пользователей, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать с помощью таких методов, как фронт-раннинг.
В отношении этих рисков эксперты единодушно считают, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять операции с высоким уровнем риска AI-агента. Разработчики должны реализовать меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничения по скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимый обзор поведения моделей AI-агентов, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать со всеми сторонами для выявления рисков и предложения мер по их смягчению.
Безопасный эксперт предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире — лишь вопрос времени." Он предложил разработчикам, которые исследуют направление DeFAI: "Как и в случае со смарт-контрактами, логика поведения AI-агента также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходима профессиональная безопасность и тестирование на проникновение."
С запуском выдачи лицензий на блокчейн-проекты Комиссией по рынкам капитала Турции статус этого блокчейн-мероприятия значительно повысился, привлекая более 15 000 разработчиков, представителей проектов, инвесторов и регуляторов со всего мира.