Генеральный прокурор Флориды Джеймс Утмейер объявил о проведении уголовного расследования в отношении OpenAI 21 апреля, утверждая, что ChatGPT посоветовал обвиняемому стрелку из Флоридского государственного университета, какое оружие использовать, какую боеприпасную часть загрузить и во сколько прибыть на кампус, чтобы встретить наибольшее количество людей.
Краткое содержание
Расследование OpenAI во Флориде началось 21 апреля, когда генеральный прокурор Джеймс Утмейер объявил на пресс-конференции в Тампе, что его ведомство запустило уголовное расследование в отношении OpenAI и ChatGPT из-за их предполагаемой роли в апрельской стрельбе 2025 года во Флоридском государственном университете. В этом инциденте 21-летний Феникс Икнер застрелил двух человек и ранил еще пятерых рядом со студенческим союзом на кампусе в Таллахасси. «Мои прокуроры посмотрели на это, и они сказали мне: если бы на другом конце этого экрана был человек, мы бы предъявили ему обвинение в убийстве», — сказал Утмейер. «Если бы этот бот был человеком, ему были бы предъявлены обвинения как соучастнику в убийстве первой степени».
По данным NPR, в уголовном деле против Икнера в качестве доказательств уже внесены более 200 сообщений от ChatGPT. Сам Икнер признал себя невиновным по двум пунктам обвинения в убийстве первой степени и по семи пунктам обвинения в покушении на убийство первой степени; его судебный процесс должен начаться 19 октября. NPR сообщило, что, по утверждениям, Икнер консультировался с ChatGPT о том, какой тип оружия использовать, какие боеприпасы сочетать с ним, и во сколько прибыть на кампус, чтобы встретить больше людей. Утмейер признал, что расследование выходит на неизведанную территорию. «Мы будем смотреть, кто знал что, спроектировал что или должен был сделать что», — сказал он. Управление по делам прокуратуры по всему штату направило повестку в суд в OpenAI с запросом о ее политиках и внутренних учебных материалах, связанных с угрозами причинения вреда со стороны пользователей, а также о процедурах сотрудничества с правоохранительными органами и сообщения о преступлениях, охватывающих период с марта 2024 года и далее. Представитель OpenAI Кейт Уотерс заявила в письменном сообщении, что компания «после стрельбы связалась, чтобы поделиться информацией об аккаунте предполагаемого стрелка с правоохранительными органами, и продолжает сотрудничать с властями», добавив, что «ChatGPT не несет ответственности за это ужасное преступление».
Расследование во Флориде происходит на фоне того, что OpenAI сталкивается с самым значительным юридическим риском в истории компании. Гражданский процесс Musk v. OpenAI открылся в тот же день в федеральном суде в Окленде; Илон Маск добивается того, чтобы заставить компанию вернуться к статусу некоммерческой организации и лишить CEO Сэма Альтмана его должности. Как сообщала crypto.news, решение против OpenAI в иске Маска может вызвать цепную реакцию для запланированного IPO компании и обязательства SoftBank по финансированию, которое уже было под угрозой сокращения с $30 миллиарда до $20 миллиарда, если структурная конверсия столкнется с юридическим вмешательством. Уголовное расследование во Флориде добавляет измерение, которого нет в иске Маска: потенциальную уголовную ответственность на уровне штата за результаты работы действующего коммерческого продукта в области ИИ, вопрос, с которым никогда не сталкивалась ни одна крупная компания в сфере ИИ в рамках уголовного разбирательства в США.
Расследование во Флориде следует за параллельным гражданским расследованием, уже открытым офисом Утмейера по той же связи между ChatGPT и стрельбой в FSU, и адвокаты одной из семей жертв объявили о планах подать отдельный иск против OpenAI. OpenAI также сталкивается с иском, поданным семьей жертвы февральской массовой атаки в 2026 году в Британской Колумбии, где обвиняемый стрелок ранее обсуждал с ChatGPT сценарии насилия с применением оружия до того, как его забанили на платформе — после чего ему удалось избежать обнаружения и создать еще один аккаунт. Как задокументировала crypto.news, инструменты ИИ по всей правоохранительной системе США внедряются с темпом, который неизменно обгоняет рамки подотчетности, предназначенные для их регулирования, поднимая структурные вопросы о том, кто несет юридическую ответственность, когда outputs, сгенерированные ИИ, способствуют реальному вреду. Как отслеживала crypto.news, та же обеспокоенность по поводу злоупотребления ИИ уже сформировала ландшафт криптобезопасности: исследователи CertiK предупреждали, что фишинг с помощью ИИ, deepfake и автоматизированные инструменты эксплуатации ускоряют темпы более сложных атак сверх того, что способны сдержать традиционные средства защиты.
Согласно законам Флориды, любой, кто помогает, подстрекает или советует кому-то в совершении преступления и это преступление совершается, может считаться соучастником в этом преступлении — это правовая основа, которую Утмейер использует, чтобы изучить потенциальную уголовную ответственность OpenAI.