У центрі конфлікту — відмова Anthropic зняти заходи безпеки, які блокують використання їхніх моделей для автономного цілевказання озброєнь та внутрішнього контролю США. Reuters повідомляє, що офіційні представники Пентагону стверджують, що використання урядом має регулюватися законом США, а не політикою приватної компанії. Axios окремо повідомляє, що переговорники Пентагону наполягають на стандарті «усі законні цілі» у дискусіях не лише з Anthropic, а й з іншими провідними лабораторіями штучного інтелекту.
За даними Reuters, Хегсетх під час зустрічі цього тижня висунув Anthropic ультиматум, з варіантами, включаючи визначення Anthropic ризиком для ланцюга постачання або застосування Закону про оборонне виробництво для примусового внесення змін. Також Reuters повідомляє, що Пентагон дав Anthropic термін до п’ятниці о 17:00 для відповіді. Це має суттєві комерційні наслідки, оскільки Anthropic глибоко інтегрована у чутливі урядові процеси, і, як зазначає Reuters, до недавнього часу була єдиним постачальником великих мовних моделей у закритих урядових мережах.
Anthropic стримано коментує ситуацію. Представник компанії повідомив Reuters, що переговори «продовжуються у добросовісному дусі» і спрямовані на забезпечення здатності Anthropic підтримувати національну безпеку «надійно та відповідально». Axios також цитує представника Anthropic, який заявив, що компанія веде «продуктивні переговори у добросовісному дусі» з Міністерством війни щодо вирішення «нових і складних питань».
З боку Пентагону цю проблему також подають як операційну, а не ідеологічну. Axios цитує головного речника Пентагону Шона Парнелла, який сказав, що відносини перебувають на розгляді і що партнери повинні бути готові допомагати Збройним силам США «перемагати у будь-якому бою». Також Axios цитує високопосадовця Пентагону, який попередив, що розірвання зв’язків з Anthropic буде болісним і що департамент «забезпечить їм ціну», якщо доведеться це зробити.
Для інвесторів і корпоративних покупців ця суперечка важлива не лише через один контракт. І Reuters, і Axios вказують, що це прецедентна боротьба за те, чи зможуть провайдери передових систем штучного інтелекту накладати обмеження на продукти, коли їх системи інтегровані у національні безпекові структури. Reuters також цитує юриста з урядових контрактів Франкліна Тернера, який заявив, що покарання Anthropic буде «беспрецедентним» і, ймовірно, спричинить судові позови.
З бізнесової точки зору, це вже не просто етична дискусія щодо ШІ. Це боротьба за те, хто встановлює правила для стратегічного програмного забезпечення: постачальник, клієнт чи держава.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Зіткнення Anthropic-Pentagon загострюється через військові терміни ШІ - Brave New Coin
У центрі конфлікту — відмова Anthropic зняти заходи безпеки, які блокують використання їхніх моделей для автономного цілевказання озброєнь та внутрішнього контролю США. Reuters повідомляє, що офіційні представники Пентагону стверджують, що використання урядом має регулюватися законом США, а не політикою приватної компанії. Axios окремо повідомляє, що переговорники Пентагону наполягають на стандарті «усі законні цілі» у дискусіях не лише з Anthropic, а й з іншими провідними лабораторіями штучного інтелекту.
За даними Reuters, Хегсетх під час зустрічі цього тижня висунув Anthropic ультиматум, з варіантами, включаючи визначення Anthropic ризиком для ланцюга постачання або застосування Закону про оборонне виробництво для примусового внесення змін. Також Reuters повідомляє, що Пентагон дав Anthropic термін до п’ятниці о 17:00 для відповіді. Це має суттєві комерційні наслідки, оскільки Anthropic глибоко інтегрована у чутливі урядові процеси, і, як зазначає Reuters, до недавнього часу була єдиним постачальником великих мовних моделей у закритих урядових мережах.
Anthropic стримано коментує ситуацію. Представник компанії повідомив Reuters, що переговори «продовжуються у добросовісному дусі» і спрямовані на забезпечення здатності Anthropic підтримувати національну безпеку «надійно та відповідально». Axios також цитує представника Anthropic, який заявив, що компанія веде «продуктивні переговори у добросовісному дусі» з Міністерством війни щодо вирішення «нових і складних питань».
З боку Пентагону цю проблему також подають як операційну, а не ідеологічну. Axios цитує головного речника Пентагону Шона Парнелла, який сказав, що відносини перебувають на розгляді і що партнери повинні бути готові допомагати Збройним силам США «перемагати у будь-якому бою». Також Axios цитує високопосадовця Пентагону, який попередив, що розірвання зв’язків з Anthropic буде болісним і що департамент «забезпечить їм ціну», якщо доведеться це зробити.
Для інвесторів і корпоративних покупців ця суперечка важлива не лише через один контракт. І Reuters, і Axios вказують, що це прецедентна боротьба за те, чи зможуть провайдери передових систем штучного інтелекту накладати обмеження на продукти, коли їх системи інтегровані у національні безпекові структури. Reuters також цитує юриста з урядових контрактів Франкліна Тернера, який заявив, що покарання Anthropic буде «беспрецедентним» і, ймовірно, спричинить судові позови.
З бізнесової точки зору, це вже не просто етична дискусія щодо ШІ. Це боротьба за те, хто встановлює правила для стратегічного програмного забезпечення: постачальник, клієнт чи держава.