OpenAI, Anthropic и Google запускают совместный механизм для обнаружения поведения при «дистилляции» ИИ

AI蒸餾行為

Согласно сообщению Bloomberg от 16 апреля, OpenAI, Anthropic PBC и Google начали сотрудничество через отраслевую некоммерческую организацию Frontier Model Forum, чтобы обмениваться информацией для выявления и пресечения противозаконных действий по дистилляции (выгону) противоречащих условиям предоставления сервиса моделей с применением противодействующего ИИ. OpenAI подтвердил Bloomberg, что он участвует в работе по обмену информацией об противозаконной дистилляции.

Рамки сотрудничества: механизм обмена информацией Frontier Model Forum

Frontier Model Forum был совместно основан OpenAI, Anthropic, Google и Microsoft в 2023 году. Как сообщает Bloomberg, сейчас три компании обмениваются информацией через эту организацию, стремясь идентифицировать крупномасштабные запросы с использованием противодействующих данных, отслеживать попытки дистилляции, нарушающие условия предоставления сервиса, и координировать пресечение соответствующих действий. Ранее Google публиковал пост, где указывал, что количество попыток извлечения из моделей увеличилось.

Как сообщает Bloomberg, такой формат обмена информацией соответствует уже существующим в индустрии кибербезопасности практикам, которые в течение долгого времени заключаются в обмене данными об атаках между компаниями и стратегиями противодействия для усиления защиты.

Конгрессная записка OpenAI и связанные обвинения

Согласно записке, которую OpenAI направила в специальный комитет Палаты представителей США по делам Китая (House Select Committee on China) (февраль 2026 года), OpenAI обвиняет китайскую AI-компанию DeepSeek в попытке «получить выгоду за счет технологий, разработанных OpenAI и другими американскими передовыми лабораториями», и утверждает, что она продолжает использовать технологии дистилляции данных для извлечения результатов из американских моделей, чтобы разработать новую версию чат-бота, при этом применяемые методы становятся все более сложными.

Anthropic в феврале 2026 года опубликовала заявление, в котором выявлены три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — и выдвинуты обвинения в том, что они незаконно извлекают функции модели Claude посредством противодействующей дистилляции. Ранее Anthropic в 2025 году запретила китайским компаниям использовать Claude. Bloomberg также ранее сообщал, что после того как DeepSeek выпустила модель R1 в январе 2025 года, Microsoft и OpenAI начали проверки того, не было ли незаконного извлечения данных американских моделей.

Позиция администрации Трампа и ограничения по антимонопольной комплаенс-соблюдению

Согласно опубликованным документам по политике, представители администрации Трампа заявили, что готовы содействовать обмену информацией между AI-компаниями для противодействия угрозам противодействующей дистилляции. В опубликованном президентом Трампом «Плане действий по искусственному интеллекту» прямо говорится о необходимости создания центра обмена информацией и анализа; частично цель этого — противодействовать указанным выше действиям.

Как сообщает Bloomberg, текущий охват обмена информацией о технологической дистилляции у трех компаний все еще остается ограниченным, поскольку они не уверены, какие именно сведения при действующих антимонопольных руководящих принципах можно законно обменивать; три компании также заявили о намерении расширить рамки сотрудничества после того, как правительство США четко обозначит соответствующую руководящую рамку.

Часто задаваемые вопросы

Через какую организацию OpenAI, Anthropic и Google ведут сотрудничество?

Согласно сообщению Bloomberg, три компании осуществляют обмен информацией через Frontier Model Forum — организацию, которую OpenAI, Anthropic, Google и Microsoft совместно создали в 2023 году; это отраслевая некоммерческая организация.

Что OpenAI передала в Конгресс США по вопросу AI-дистилляции?

Согласно опубликованной информации OpenAI, OpenAI направила в специальный комитет Палаты представителей США по делам Китая (февраль 2026 года) записку, в которой обвиняется DeepSeek в том, что она продолжает извлекать результаты из американских моделей, используя технологии дистилляции данных, и на основе этого разрабатывает новую версию чат-бота.

Какие из уже обнародованных действий предприняла Anthropic в связи с проблемой дистилляции у китайских AI-лабораторий?

Согласно опубликованному заявлению Anthropic, Anthropic в 2025 году запретила китайским компаниям использовать модели Claude и в феврале 2026 года выявила три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — обвиняя их в незаконном извлечении функций модели Claude посредством противодействующей дистилляции.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Сооснователь Ethereum Любин: ИИ станет критически важным поворотным моментом для криптовалют, но монополия техгигантов несет системный риск

Сооснователь Ethereum Джозеф Любин подчеркнул преобразующий потенциал ИИ для криптовалютного сектора, одновременно предостерегая от рисков централизации среди технологических гигантов. Он представляет ИИ-управляемые автономные транзакции в блокчейне и отмечает сближение традиционных финансов с DeFi.

GateNews1ч назад

Илон Маск продвигает чеки «универсального высокого дохода» как единственное решение проблемы безработицы в ИИ

Илон Маск выступает за Универсальный высокий доход, чтобы противодействовать безработице, вызванной ИИ, представляя будущее, в котором будет в достатке товаров и нулевая инфляция. В отличие от этого, такие эксперты, как Сэм Альтман, выражают обеспокоенность потерей рабочих мест и предлагают защитные меры для работников.

Coinpedia1ч назад

Сообщается, что DeepSeek запустила первый раунд внешнего сбора средств, нацелившись на оценку $10B+ и $300M+

DeepSeek, китайская AI-компания, ведет переговоры о первом раунде внешнего финансирования, стремясь привлечь как минимум $300 млн при оценке $10 млрд. Несмотря на прежние отказы от инвестиционных предложений, сейчас, как сообщается, ее обсуждения по сбору средств уже идут.

GateNews2ч назад

Реклама ChatGPT выходит на рынки Австралии и Новой Зеландии: для пользователей Free и Go сначала, платные тарифы сохраняют отсутствие рекламы

OpenAI 17 апреля 2023 года расширила рекламу ChatGPT до Австралии, Новой Зеландии и Канады, нацелившись на пользователей Free и Go; для платных пользователей рекламы нет. Это знаменует вторую траекторию коммерциализации ИИ и учитывает коммерческие и регуляторные риски: появление рекламы может способствовать конвертации в платную подписку.

ChainNewsAbmedia4ч назад

Hyundai Motor Group реорганизует деятельность вокруг ИИ и робототехники, нацеливаясь на 30 000 роботов Atlas к 2030 году

Группа Hyundai Motor Group проводит реструктуризацию, чтобы сосредоточиться на ИИ и робототехнике, сокращая традиционные направления. Она планирует инвестировать $34,3 млрд в робототехнику к 2030 году и намерена запустить модель робототехники как услуги, сотрудничая с Google DeepMind и NVIDIA.

GateNews7ч назад

NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25—26 марта, посвященный тому, как искусственный интеллект может применяться для регуляторного надзора и внутренних операций в рамках ядерных органов власти. Резюме Семинар NEA изучал реальные приложения ИИ в ядерном регулировании, с

Cryptonews9ч назад
комментарий
0/400
Нет комментариев