Генеральный директор OpenAI призывает США подготовиться к рискам ИИ «сверхразума» и к выгодам

CoinDesk

Генеральный директор OpenAI Сэм Альтман заявил, что политикам в U.S. нужно действовать уже сейчас, чтобы подготовиться к передовому искусственному интеллекту, предупредив, что эта технология переходит от теории к повседневному экономическому использованию.

В интервью Axios Альтман сказал, что системы ИИ уже выполняют задачи по программированию и исследованиям, которые раньше требовали команд программистов. По его словам, более новые модели пойдут дальше — они помогут ученым совершать крупные открытия и позволят отдельным людям делать работу целых групп.

Этот сдвиг уже заметен в кибербезопасности, где некоторые лидеры отрасли говорят, что искусственный интеллект склоняет баланс в пользу атакующих.

Например, директор по технологиям производителя аппаратных кошельков Ledger Чарльз Гийемет рассказал CoinDesk, что инструменты ИИ снижают стоимость и требуемый уровень навыков для поиска и эксплуатации уязвимостей в программном обеспечении. По его словам, задачи, которые раньше занимали месяцы, такие как обратное проектирование кода или связывание нескольких уязвимостей, теперь с правильными подсказками можно выполнять за считанные секунды.

Криптоиндустрия в прошлом году столкнулась с тем, что в результате атак было похищено или потеряно более $1.4 миллиарда активов. Как предположил Гийемет, эта цифра может продолжать расти. Кроме того, разработчики все чаще полагаются на код, сгенерированный с помощью ИИ, который потенциально может приводить к новым уязвимостям в масштабе.

По его словам, ответ будет требовать более сильной защиты — например, математически верифицированного кода, аппаратных устройств, которые держат приватные ключи офлайн, а также более широкого признания того, что системы могут давать сбои.

ИИ в кибербезопасности, биобезопасности

Хотя Альтман отметил, что ИИ может ускорить разработку лекарств или материаловедение, он также указал, что он может дать возможность для более мощных кибератак и снизить барьер для вредоносных биологических исследований. По его словам, такие угрозы могут проявиться в течение года, что делает срочной координацию между правительством, технологическими компаниями и группами по безопасности.

«Мы не так далеко от мира, где существуют невероятно способные модели с открытым исходным кодом, которые очень хорошо справляются с биологией», — сказал он. «Необходимость того, чтобы общество было устойчивым к террористическим группам, использующим эти модели для попыток создать новые патогены, — это уже не вопрос теории».

Еще одним примером, который он привел, был «шокирующий мир кибератакой» инцидент, который может случиться уже в этом году. По его словам, чтобы избежать этого, потребуется «колоссальный объем работы».

Он охарактеризовал идеи OpenAI в области политики как отправную точку, стремясь направить дискуссию о том, как управлять системами, которые быстро обучаются и действуют во многих сферах. По его словам, важно использовать ИИ, чтобы помогать защищаться от этих потенциальных атак.

Относительно возможной национализации OpenAI Альтман сказал, что довод против этого опирается на необходимость для U.S. добиться «суперинтеллекта» прежде, чем это сделают конкуренты.

«Самый весомый аргумент против национализации заключается в том, что нам нужно, чтобы U.S. добилась успеха в построении суперинтеллекта таким образом, чтобы он соответствовал демократическим ценностям U.S., до того как кто-то сделает это», — сказал он. «Вероятно, это не сработает как правительственный проект; я думаю, это печально».

Тем не менее Альтман сказал, что он считает: компании, участвующие в развитии ИИ, должны тесно сотрудничать с правительством U.S.

Учитывая его роль в OpenAI, у Альтмана также есть финансовая заинтересованность в том, как развивается этот сектор. Такая позиция может повлиять на то, как он формулирует и срочность регулирования, и роль частных компаний вроде OpenAI в управлении возникающими рисками, что может сказаться на конкурентных позициях фирмы.

ИИ как коммунальная услуга

Одной из областей, где он видит быстрый прогресс, является энергетика: поскольку растет спрос на ИИ, более широкая доступность вычислительных мощностей может удерживать затраты на низком уровне.

Альтман также указал на ранние признаки сдвигов на рынке труда. Программист в 2026 году, сказал он, уже работает иначе, чем годом ранее.

ИИ станет своего рода коммунальной услугой, как электричество, встраиваемой в различные устройства, а стоимость базового интеллекта будет падать, при том что топовые системы останутся дорогими.

«У вас будет этот персональный суперассистент, который работает в облаке», — сказал Альтман. «Если вы используете его часто или на высоких уровнях интеллекта, у вас будет более высокий счет за месяц, а если вы используете его меньше, счет будет ниже».

«Чрезвычайно важно, чтобы люди, которые создают ИИ, были людьми высокой порядочности, которым можно доверять».

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев