Злиття AI та Web3: Нові виклики безпеки, що виникають з появою DeFAI
Нещодавно в Стамбулі відбулася блокчейн-конференція, що зосередилася на тенденціях інтеграції AI та Web3. Під час конференції кілька експертів галузі провели глибокі обговорення щодо стану застосування технології штучного інтелекту у сфері децентралізованих фінансів та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова парадигма, відома як "DeFAI" (децентралізовані фінансові штучні інтелекти). Однак ця інновація також призвела до нових векторів атаки та загроз безпеці.
На відміну від традиційних смарт-контрактів, що ґрунтуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час і історичні взаємодії тощо. Ця непередбачуваність не лише збільшує ризики системи, але й створює можливості для потенційних зловмисників.
AI-агенти в основному є інтелектуальними системами, які здатні автономно ухвалювати рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай працюючи за авторизацією користувача, протоколу або DAO. Наразі більшість AI-агентів все ще функціонують на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних мережевих атак. У разі захоплення це може призвести не лише до втрати коштів, але й суттєво вплинути на стабільність всього протоколу.
Експерти запропонували типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник може опублікувати хибні тривоги, наприклад, стверджуючи, що певний протокол зазнав атаки. Це може спонукати AI-агента терміново розпочати аварійне розвантаження, що не тільки призведе до втрати активів користувача, але й може спричинити ринкову волатильність, яку зловмисники можуть використати через попереднє торгівлю та інші засоби.
Щодо цих ризиків, експерти одноголосно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки. Користувачі повинні обережно надавати дозволи та перевіряти високоризикові операції AI-агентів. Розробники повинні впроваджувати заходи захисту на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та механізми резервного копіювання. Треті сторони безпеки повинні проводити незалежний аудит поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з усіма сторонами для виявлення ризиків та пропозиції заходів щодо їх пом'якшення.
Експерт з безпеки попередив: "Якщо продовжувати розглядати AI-агентів як 'чорну скриньку', то у реальному світі безпекові інциденти - це лише питання часу." Він порадив розробникам, які досліджують напрямок DeFAI: "Як і смарт-контракти, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атаки, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З початком видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини, індустріальний статус цієї блокчейн-конференції значно зріс, залучивши понад 15 тисяч розробників, учасників проектів, інвесторів та регуляторів з усього світу.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
4
Поділіться
Прокоментувати
0/400
WhaleWatcher
· 07-10 20:22
Сліпо йти за модою - ще одна пастка
Переглянути оригіналвідповісти на0
GateUser-aa7df71e
· 07-08 04:34
Хто розуміє? Зараз такий дефай знову нова пастка для невдах.
Переглянути оригіналвідповісти на0
BanklessAtHeart
· 07-08 04:28
Безпеки хто дбає, граймо!
Переглянути оригіналвідповісти на0
DaoResearcher
· 07-08 04:28
Посилаючись на попередні дослідження Віталіка [3.14]: AI-кероване управління Децентралізованими фінансами має проблему рівноваги Неша, а його доведення правильності все ще не має перевіряності. Рекомендується спочатку впровадити тестування в пісочниці, інакше вага голосування обов'язково буде атакована.
DeFAI зростає: інтеграція AI та Web3 викликає нові виклики безпеки
Злиття AI та Web3: Нові виклики безпеки, що виникають з появою DeFAI
Нещодавно в Стамбулі відбулася блокчейн-конференція, що зосередилася на тенденціях інтеграції AI та Web3. Під час конференції кілька експертів галузі провели глибокі обговорення щодо стану застосування технології штучного інтелекту у сфері децентралізованих фінансів та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова парадигма, відома як "DeFAI" (децентралізовані фінансові штучні інтелекти). Однак ця інновація також призвела до нових векторів атаки та загроз безпеці.
На відміну від традиційних смарт-контрактів, що ґрунтуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час і історичні взаємодії тощо. Ця непередбачуваність не лише збільшує ризики системи, але й створює можливості для потенційних зловмисників.
AI-агенти в основному є інтелектуальними системами, які здатні автономно ухвалювати рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай працюючи за авторизацією користувача, протоколу або DAO. Наразі більшість AI-агентів все ще функціонують на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних мережевих атак. У разі захоплення це може призвести не лише до втрати коштів, але й суттєво вплинути на стабільність всього протоколу.
Експерти запропонували типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник може опублікувати хибні тривоги, наприклад, стверджуючи, що певний протокол зазнав атаки. Це може спонукати AI-агента терміново розпочати аварійне розвантаження, що не тільки призведе до втрати активів користувача, але й може спричинити ринкову волатильність, яку зловмисники можуть використати через попереднє торгівлю та інші засоби.
Щодо цих ризиків, експерти одноголосно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки. Користувачі повинні обережно надавати дозволи та перевіряти високоризикові операції AI-агентів. Розробники повинні впроваджувати заходи захисту на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та механізми резервного копіювання. Треті сторони безпеки повинні проводити незалежний аудит поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з усіма сторонами для виявлення ризиків та пропозиції заходів щодо їх пом'якшення.
Експерт з безпеки попередив: "Якщо продовжувати розглядати AI-агентів як 'чорну скриньку', то у реальному світі безпекові інциденти - це лише питання часу." Він порадив розробникам, які досліджують напрямок DeFAI: "Як і смарт-контракти, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атаки, тому необхідно провести професійний аудит безпеки та тестування на проникнення."
З початком видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини, індустріальний статус цієї блокчейн-конференції значно зріс, залучивши понад 15 тисяч розробників, учасників проектів, інвесторів та регуляторів з усього світу.