Аналіз: Змагання навколо Штучного Інтелекту у військових США
Головний конфлікт між адміністрацією Трампа та технологічною індустрією завершився безпрецедентним забороном провідної внутрішньої компанії з ШІ від участі у урядових операціях США. Конфлікт, який зосереджений навколо етичного використання штучного інтелекту у війні, призвів до того, що президент Дональд Трамп наказав усім федеральним агентствам припинити використання технологій Anthropic, виробника моделі Claude AI .
Основний конфлікт: необмежений військовий доступ
Спір розпочався, коли Міністерство оборони під керівництвом міністра Піта Хегсета вимагало від постачальників ШІ зняти всі обмеження на використання для прискорення розвитку військової сили з пріоритетом "ШІ-перший". Anthropic, яка має контракт з Пентагоном з 2024 року, отримала термін для погодження "необмеженого використання" своїх інструментів для будь-яких законних військових цілей .
Генеральний директор Anthropic, Даріо Амодей, відмовився підкоритися, посилаючись на конкретні етичні межі. Компанія заперечує використання своєї технології для масового спостереження за громадянами США та для розгортання у повністю автономних озброєннях, які можуть діяти без людського контролю. "Ці системи використовуються для масового спостереження всередині країни," заявив Амодей, стверджуючи, що таке використання суперечить демократичним цінностям .
Реакція адміністрації: федеральний заборонний наказ
У відповідь на непокору Anthropic, президент Трамп видав гарячий наказ на своїй платформі Truth Social. "Я наказую КОЖНОМУ федеральному агентству у складі уряду США НЕГАЙНО припинити використання технологій Anthropic," написав він. "Нам це не потрібно, ми цього не хочемо і більше з ними не співпрацюватимемо!" .
Заборона передбачає шестимісячний період поступового припинення для таких агентств, як Міністерство оборони. Трамп додатково погрожував компанії, заявляючи, що якщо вона не співпрацює під час цього переходу, він застосує "повну силу президентства" для примусу до виконання, з "значними цивільними та кримінальними наслідками" .
Безпрецедентна позначка "Ризик ланцюга поставок"
Після простого скасування контракту, міністр оборони Піт Хегсетх підвищив рівень, офіційно позначивши Anthropic як "ризик ланцюга поставок" для національної безпеки. Ця класифікація, яка історично застосовувалася до іноземних противників, таких як китайські компанії, фактично забороняє будь-якому підряднику або партнеру Пентагону вести бізнес з Anthropic. Хегсетх охарактеризував позицію Anthropic як "майстер-клас у зарозумілості та зраді", тоді як компанія пообіцяла оскаржити "незаконну" позначку у суді.
Парадокс використання: Claude допомагає Ірану
Додаючи ще один рівень складності до протистояння, з’явилися повідомлення, що військові США використовували Claude AI від Anthropic під час авіаударів по Ірану — всього за кілька годин після заборони Трампа. За даними The Wall Street Journal, Центральне командування використовувало Claude для розвідки, ідентифікації цілей та симуляцій бою під час операції. Це підкреслює глибоку інтеграцію технологій Anthropic у засекречені військові системи, що й стало причиною дозволу адміністрації на шестимісячний період поступового припинення, а не негайного закриття.
Реакція галузі та дії конкурентів
Технологічна спільнота висловила значну підтримку Anthropic. Більше 700 000 працівників технологічних компаній, таких як Google, Amazon і Microsoft, підписали відкритого листа з закликом до своїх роботодавців відмовитися від вимог Пентагону. У несподіваному прояві солідарності генеральний директор OpenAI Сэм Альтман публічно підтримав конкурента Амодей, заявивши, що тепер питання стосується "всьої галузі" та її етичних меж.
Однак, через кілька годин після заборони Anthropic, OpenAI оголосила, що підписала угоду з Пентагоном щодо надання своїх інструментів ШІ для засекречених систем. Альтман наполягав, що угода включає ті ж обмеження, які просила Anthropic, зокрема заборони на масове спостереження та збереження людської відповідальності за застосування сили. Цей крок створив помітний розкол у галузі, і онлайн-спільноти почали підтримувати Claude понад OpenAI.
Визначальний момент для управління ШІ
Аналітики вважають цю конфронтацію точкою кипіння у дебатах щодо "мілітаризації ШІ". Колишній посадовець Міноборони зазначив, що правова база для дій адміністрації проти Anthropic здається "надзвичайно тонкою", натякаючи, що компанія може мати перевагу у сприйнятті громадськості.
Центр демократії та технологій розкритикував цей крок як "небезпечний прецедент", який карає компанію за принципову позицію і може охолодити майбутні переговори між приватними компаніями та урядом. Поки Anthropic готується до судового процесу, результат, ймовірно, визначить майбутні відносини між Кремнієвою долиною та національною безпекою США, визначаючи, чи зможуть компанії ШІ зберегти етичні межі під тиском уряду.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
#TrumpordersfederalbanonAnthropicAI
Аналіз: Змагання навколо Штучного Інтелекту у військових США
Головний конфлікт між адміністрацією Трампа та технологічною індустрією завершився безпрецедентним забороном провідної внутрішньої компанії з ШІ від участі у урядових операціях США. Конфлікт, який зосереджений навколо етичного використання штучного інтелекту у війні, призвів до того, що президент Дональд Трамп наказав усім федеральним агентствам припинити використання технологій Anthropic, виробника моделі Claude AI .
Основний конфлікт: необмежений військовий доступ
Спір розпочався, коли Міністерство оборони під керівництвом міністра Піта Хегсета вимагало від постачальників ШІ зняти всі обмеження на використання для прискорення розвитку військової сили з пріоритетом "ШІ-перший". Anthropic, яка має контракт з Пентагоном з 2024 року, отримала термін для погодження "необмеженого використання" своїх інструментів для будь-яких законних військових цілей .
Генеральний директор Anthropic, Даріо Амодей, відмовився підкоритися, посилаючись на конкретні етичні межі. Компанія заперечує використання своєї технології для масового спостереження за громадянами США та для розгортання у повністю автономних озброєннях, які можуть діяти без людського контролю. "Ці системи використовуються для масового спостереження всередині країни," заявив Амодей, стверджуючи, що таке використання суперечить демократичним цінностям .
Реакція адміністрації: федеральний заборонний наказ
У відповідь на непокору Anthropic, президент Трамп видав гарячий наказ на своїй платформі Truth Social. "Я наказую КОЖНОМУ федеральному агентству у складі уряду США НЕГАЙНО припинити використання технологій Anthropic," написав він. "Нам це не потрібно, ми цього не хочемо і більше з ними не співпрацюватимемо!" .
Заборона передбачає шестимісячний період поступового припинення для таких агентств, як Міністерство оборони. Трамп додатково погрожував компанії, заявляючи, що якщо вона не співпрацює під час цього переходу, він застосує "повну силу президентства" для примусу до виконання, з "значними цивільними та кримінальними наслідками" .
Безпрецедентна позначка "Ризик ланцюга поставок"
Після простого скасування контракту, міністр оборони Піт Хегсетх підвищив рівень, офіційно позначивши Anthropic як "ризик ланцюга поставок" для національної безпеки. Ця класифікація, яка історично застосовувалася до іноземних противників, таких як китайські компанії, фактично забороняє будь-якому підряднику або партнеру Пентагону вести бізнес з Anthropic. Хегсетх охарактеризував позицію Anthropic як "майстер-клас у зарозумілості та зраді", тоді як компанія пообіцяла оскаржити "незаконну" позначку у суді.
Парадокс використання: Claude допомагає Ірану
Додаючи ще один рівень складності до протистояння, з’явилися повідомлення, що військові США використовували Claude AI від Anthropic під час авіаударів по Ірану — всього за кілька годин після заборони Трампа. За даними The Wall Street Journal, Центральне командування використовувало Claude для розвідки, ідентифікації цілей та симуляцій бою під час операції. Це підкреслює глибоку інтеграцію технологій Anthropic у засекречені військові системи, що й стало причиною дозволу адміністрації на шестимісячний період поступового припинення, а не негайного закриття.
Реакція галузі та дії конкурентів
Технологічна спільнота висловила значну підтримку Anthropic. Більше 700 000 працівників технологічних компаній, таких як Google, Amazon і Microsoft, підписали відкритого листа з закликом до своїх роботодавців відмовитися від вимог Пентагону. У несподіваному прояві солідарності генеральний директор OpenAI Сэм Альтман публічно підтримав конкурента Амодей, заявивши, що тепер питання стосується "всьої галузі" та її етичних меж.
Однак, через кілька годин після заборони Anthropic, OpenAI оголосила, що підписала угоду з Пентагоном щодо надання своїх інструментів ШІ для засекречених систем. Альтман наполягав, що угода включає ті ж обмеження, які просила Anthropic, зокрема заборони на масове спостереження та збереження людської відповідальності за застосування сили. Цей крок створив помітний розкол у галузі, і онлайн-спільноти почали підтримувати Claude понад OpenAI.
Визначальний момент для управління ШІ
Аналітики вважають цю конфронтацію точкою кипіння у дебатах щодо "мілітаризації ШІ". Колишній посадовець Міноборони зазначив, що правова база для дій адміністрації проти Anthropic здається "надзвичайно тонкою", натякаючи, що компанія може мати перевагу у сприйнятті громадськості.
Центр демократії та технологій розкритикував цей крок як "небезпечний прецедент", який карає компанію за принципову позицію і може охолодити майбутні переговори між приватними компаніями та урядом. Поки Anthropic готується до судового процесу, результат, ймовірно, визначить майбутні відносини між Кремнієвою долиною та національною безпекою США, визначаючи, чи зможуть компанії ШІ зберегти етичні межі під тиском уряду.