«Нью-Йоркер» — глубокое расследование: почему сотрудники OpenAI считают Altman ненадежным?

撰文:小饼,深潮 TechFlow

文章作者:小饼,深潮 TechFlow

2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 坐在电脑前,完成了一份 70 页的文件。

在 2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 坐在电脑前,完成了一份 70 页的文件。

这份文件整理自 Slack 消息记录、HR 沟通档案和内部会议纪要,只为回答一个问题:Sam Altman,这个掌管着可能是人类历史上最危险技术的人,到底能不能被信任?

这份文件整理自 Slack 消息记录、HR 沟通档案和内部会议纪要,只为回答一个问题:Sam Altman,这个掌管着可能是人类历史上最危险技术的人,到底能不能被信任?

Sutskever 给出的答案,写在文件第一页的第一行,列表标题是"Sam 表现出一贯的行为模式……"

Sutskever 给出的答案,写在文件第一页的第一行,列表标题是“Sam 表现出一贯的行为模式……”

第一条:撒谎。

第一条:撒谎。

两年半后的今天,调查记者 Ronan Farrow和 Andrew Marantz 在《纽约客》发表了一篇超长调查报道。采访超过 100 位当事人,拿到了此前从未公开的内部备忘录,还有 Anthropic 创始人 Dario Amodei在 OpenAI 时期留下的 200 多页私人笔记。这些文件拼出来的故事,比 2023 年那场"宫斗"难看得多:OpenAI 怎样从一家为人类安全而生的非营利组织,一步步变成商业机器,几乎每一道安全护栏,都是被同一个人亲手拆掉的。

两年半后的今天,调查记者 Ronan Farrow 和 Andrew Marantz 在《纽约客》发表了一篇超长调查报道。采访超过 100 位当事人,拿到了此前从未公开的内部备忘录,以及 Anthropic 创始ника Dario Amodei в период работы в OpenAI 留下的 более 200 页 личных заметок。故事, собранный из этих документов, гораздо непригляднее, чем та «борьба за власть» в 2023 году: как OpenAI из некоммерческой организации, созданной ради безопасности людей, шаг за шагом превратилась в коммерческую машину — и почти каждый из защитных барьеров был собственноручно демонтирован одним и тем же человеком.

Amodei 在笔记中的结论更直白:“OpenAI 的问题就是 Sam 本人。”

Amodei в своих заметках делает вывод еще прямее: «Проблема OpenAI — это Sam сам по себе».

OpenAI 的"原罪"设定

设定 «первородного греха» OpenAI

要理解这篇报道的分量,得先说清楚 OpenAI 这家公司有多特殊。

Чтобы понять вес этой публикации, нужно сначала пояснить, насколько особенной является сама компания OpenAI.

2015 年,Altman 和一群硅谷精英做了一件商业史上几乎没有先例的事:用一家非营利组织来开发可能是人类历史上最强大的技术。董事会的职责写得很明白,安全优先于公司的成功,甚至优先于公司的存活。说白了,如果有一天 OpenAI的 AI 变得危险了,董事会有义务亲手把这家公司关掉。

В 2015 году Altman и группа техногенных элит Силиконовой долины сделали в бизнес-истории почти беспрецедентную вещь: разрабатывать, с помощью некоммерческой организации, технологию, которая, возможно, является самой мощной в истории человечества. Функции совета директоров прописаны предельно ясно: безопасность важнее успеха компании и даже важнее ее выживания. Проще говоря, если однажды ИИ OpenAI станет опасным, у совета директоров есть обязанность собственными руками закрыть эту компанию.

整套架构押注在一个假设上:掌管 AGI 的人,必须是一个极其诚实的人。

Вся архитектура построена на одном допущении: человек, который управляет AGI, должен быть крайне честным.

要是押错了呢?

А что если ставка окажется неверной?

报道的核心炸弹就是那份 70 页文件。Sutskever 不搞办公室政治,他是全球最顶尖的 AI 科学家之一。但到了 2023 年,他越来越确信一件事:Altman 在持续地对高管和董事会说假话。

Главная бомба в этом материале — тот самый документ на 70 страниц. Sutskever не занимается офисной политикой: он один из ведущих в мире ученых в области ИИ. Но к 2023 году он все больше убеждается в одном: Altman постоянно лжет руководителям и членам совета директоров.

一个具体的例子:2022年 12 月,Altman 在董事会会议上保证,即将发布的 GPT-4 的多项功能已经通过了安全审查。董事会成员 Toner 要求看审批文件,结果发现其中两项争议最大的功能(用户自定义微调和个人助手部署)根本没有拿到安全面板的批准。

Один конкретный пример: в декабре 2022 года Altman на заседании совета директоров заверил, что несколько функций грядущего GPT-4 уже прошли проверки безопасности. Член совета Toner попросил показать документы об утверждении и обнаружил, что две из самых спорных функций — (пользовательская кастомизация для fine-tuning и развертывание персонального ассистента) — вообще не получили одобрения в «панели безопасности».

更离谱的事情在印度发生。一名员工向另一位董事会成员举报了"那次违规":微软没有完成必要的安全审查,就在印度提前发布了 ChatGPT 的早期版本。

Еще более странное произошло в Индии. Один сотрудник сообщил другому члену совета директоров о «том нарушении»: Microsoft не завершила необходимые проверки безопасности и заранее выпустила в Индии раннюю версию ChatGPT.

Sutskever 还在备忘录中记录了另一件事:Altman 曾对前 CTO Mira Murati 说,安全审批的流程没那么重要,公司法律总顾问已经认可了。Murati 跑去跟法律总顾问确认,对方回了一句:“我不知道 Sam 是从哪里得出这个印象的。”

Sutskever также фиксирует в заметках еще одно: Altman однажды сказал бывшей CTO Mira Murati, что процесс одобрения безопасности не так уж важен — ведь главный юрисконсульт компании уже согласился. Murati побежала уточнить у главного юрисконсульта, и тот ответил: «Я не знаю, откуда Sam взял это впечатление».

Amodei 的200 页私人笔记

Личные заметки Amodei на 200 страниц

Sutskever 的文件像一份检察官起诉书。Amodei 留下的 200 多页笔记,更像一个目击者在案发现场写的日记。

Документы Sutskever похожи на прокурорское обвинительное заключение. А заметки Amodei, которые он оставил — более чем на 200 страниц — выглядят скорее как дневник очевидца, который записывал события на месте преступления.

Amodei在 OpenAI 做安全负责人那几年,亲眼看着公司在商业压力下一步步后退。他在笔记中记了 2019 年微软投资案的一个关键细节:他曾在 OpenAI 章程里塞进一个"合并与协助"条款,大意是,如果有别的公司找到了更安全的 AGI 路径,OpenAI 就该停止竞争,转去帮那家公司。这是他在整笔交易中最看重的安全保障。

В те годы, когда Amodei отвечал в OpenAI за безопасность, он собственными глазами видел, как компания под давлением бизнеса отступала шаг за шагом. В заметках он фиксирует ключевую деталь сделки 2019 года по инвестициям Microsoft: он встроил в устав OpenAI пункт «слияние и оказание помощи» — по сути, если другая компания найдет более безопасный путь к AGI, OpenAI должна прекратить конкуренцию и вместо этого помогать той компании. Именно эта гарантия безопасности была для него самой важной во всей сделке.

交易快签的时候,Amodei 发现了一件事:微软拿到了对这个条款的否决权。什么意思?就算真有一天某个竞争对手找到了更好的路,微软一句话就可以堵死 OpenAI 的协助义务。条款还在纸上,但从签字那天起就是废纸。

Когда сделка была уже почти подписана, Amodei обнаружил одну вещь: Microsoft получила право вето на этот пункт. Что это значит? Даже если в какой-то день конкурент найдет лучший путь, Microsoft одной фразой сможет заблокировать обязательство OpenAI помогать. Пункт оставался на бумаге, но с того дня, как он был подписан, стал просто макулатурой.

Amodei 后来离开 OpenAI,创立了 Anthropic。两家公司之间的竞争,底层是关于"AI 应该怎么开发"的根本性分歧。

Позже Amodei ушел из OpenAI и основал Anthropic. Конкуренция между этими двумя компаниями по сути коренится в фундаментальном разногласии о том, «как следует разрабатывать ИИ».

消失的 20%算力承诺

Исчезнувшее обещание о 20% вычислительных мощностей

报道里有一个细节,读完让人后背发凉,关于 OpenAI 的"超级对齐团队"。

В материале есть одна деталь, от которой пробирает холодом по спине — о «суперкоманде по супер-выравниванию» (super alignment) в OpenAI.

2023 年年中,Altman 邮件联系了一位在伯克利研究"欺骗性对齐"(AI 在测试中装乖、实际部署后搞自己那套)的博士生,说自己非常担忧这个问题,在考虑设立一个 1B美元的全球研究奖。博士生很受鼓呵,休了学,加入了 OpenAI。

В середине 2023 года Altman написал по электронной почте аспиранту из Berkeley, который исследует «обманчивое выравнивание» (когда ИИ ведет себя «прилично» в тестах, а после развертывания делает по-своему), и сказал, что он очень обеспокоен этой проблемой и рассматривает создание глобальной исследовательской премии на 1 миллиард долларов. Аспирант был воодушевлен, взял академический отпуск и присоединился к OpenAI.

然后 Altman 改了主意:不搞外部奖项了,在公司内部成立"超级对齐团队"。公司高调宣布,将把"已有算力的 20%“拨给这个团队,潜在价值超过 1B美元。公告措辞极其严肃,说如果对齐问题得不到解决,AGI 可能导致"人类被剥夺权力,甚至人类灭绝”。

Затем Altman передумал: он отказался от внешней премии и учредил внутри компании «суперкоманду по супер-выравниванию». Компания с помпой объявила, что «20% уже имеющихся вычислительных мощностей» будет направлено этой команде, а потенциальная ценность превысит 1 миллиард долларов. Формулировки в объявлении были предельно серьезными: если проблема выравнивания не будет решена, AGI может привести к «лишению людей власти и даже к уничтожению человечества».

被任命领导这个团队的 Jan Leike 后来告诉记者,这个承诺本身就是一个很有效的"人才留存工具"。

Jan Leike, которого назначили руководить этой командой, позже сказал журналистам, что само это обещание является очень действенным «инструментом удержания талантов».

现实呢?四位在这个团队工作或密切接触的人士说,实际拨给的算力只有公司总算力的 1%到 2%,还是最老旧的硬件。这个团队后来被解散,使命未完成。

А как обстоят дела на практике? Четверо людей, которые работали в этой команде или тесно с ней взаимодействовали, говорят, что на самом деле ей выделили лишь 1%–2% от общих вычислительных мощностей компании, причем на самых устаревших аппаратных средствах. Затем эту команду расформировали, так и не выполнив миссию.

当记者要求采访 OpenAI 负责"存在性安全"研究的人员时,公司公关的反应让人哭笑不得:“那不是一个……实际存在的东西。”

Когда журналисты попросили взять интервью у людей в OpenAI, отвечающих за исследования «экзистенциальной безопасности», реакция со стороны PR компании вызвала одновременно смех и грусть: «Это не… нечто, которое реально существует».

Altman 本人倒是坦然。他跟记者说,自己的"直觉跟很多传统 AI 安全的东西不太合拍",OpenAI 还是会做"安全项目,或者至少是跟安全沾边的项目"。

Сам Altman оказался довольно откровенным. Он сказал журналистам, что его «интуиция плохо сочетается с многими традиционными вещами в области безопасности ИИ», но OpenAI все равно будет делать «проекты по безопасности — или, как минимум, проекты, связанные с безопасностью».

被架空的 CFO 与即将到来的 IPO

Отодвинутый CFO и надвигающееся IPO

《纽约客》的报道只是这一天坏消息的一半。同一天,The Information 爆出另一个重磅消息:OpenAI的 CFO Sarah Friar跟 Altman 之间出了严重分歧。

Материал《纽约客》— это лишь половина плохих новостей за этот день. В тот же день The Information сообщило еще одну громкую новость: между CFO OpenAI Сара Фриар и Altman возникли серьезные разногласия.

Friar 私下告诉同事,她觉得 OpenAI 今年还没准备好上市。两个原因:要完成的程序性和组织性工作量太大,Altman 承诺的 5年 600B美元算力支出带来的财务风险太高。她甚至不确定 OpenAI 的营收增长撑不撑得住这些承诺。

Фриар в частных разговорах с коллегами сказала, что она считает: OpenAI в этом году еще не готов к выходу на биржу. Две причины: объем необходимых процедурных и организационных работ слишком велик, а финансовые риски от обещанных Altman расходов на вычислительные мощности в размере 600 млрд долларов за 5 лет слишком высоки. Она даже не уверена, выдержит ли рост выручки OpenAI эти обещания.

但 Altman 想在今年第四季度就冲刺 IPO。

Но Altman хочет в этом году в четвертом квартале начать гонку за IPO.

更离谱的是,Friar 已经不再直接向 Altman 汇报了。从 2025年 8 月起,她改为向 Fidji Simo(OpenAI 的应用业务 CEO)汇报。而 Simo 上周刚因健康原因请了病假。你来品品这个局面:一家冲刺 IPO 的公司,CEO和 CFO 有根本性分歧,CFO 不向 CEO 汇报,CFO 的上级还休假了。

Еще более абсурдно то, что Фриар уже перестала напрямую отчитываться перед Altman. С августа 2025 года она стала отчитываться перед Fidji Simo (CEO подразделения прикладного бизнеса OpenAI). А Simo на прошлой неделе как раз взяла больничный по состоянию здоровья. Посмотрите на эту картину: компания, которая мчится к IPO, где у CEO и CFO принципиальные разногласия, CFO не отчитывается перед CEO, а начальник CFO еще и в отпуске.

连微软内部的高管都看不下去了,说 Altman"歪曲事实、出尔反尔、不断推翻已达成的协议"。一位微软高管甚至说了这样一句话:“我觉得他有一定概率最终会被人们记住为伯尼·麦道夫或 SBF 级别的骗子。”

Даже руководители внутри Microsoft, как говорят, не смогли это терпеть и заявили, что Altman «искажает факты, нарушает обещания и постоянно отменяет уже согласованные договоренности». Один из топ-менеджеров Microsoft даже сказал: «Я думаю, у него есть определенный шанс в итоге быть запомненным людьми как мошенник уровня Берни Мэдоффа или SBF».

Altman 的"双面人"画像

Портрет Altman как «двуличного человека»

一位前 OpenAI 董事会成员对记者描述了 Altman 身上的两种特质。这段话可能是整篇报道里最狠的人物素描。

Один бывший член совета директоров OpenAI описал журналистам две черты характера Altman. Этот отрывок, возможно, самое жесткое психологическое портретирование персонажа во всем материале.

这位董事说,Altman 有一种极其罕见的特质组合:他在每一次面对面的交流中,都强烈渴望取悦对方、被对方喜欢。同时,他对欺骗别人可能带来的后果,有一种近乎社会病态的无所谓。

Этот директор сказал, что у Altman есть редчайшее сочетание черт: во время каждого личного разговора он испытывает сильное желание угождать собеседнику и нравиться ему. При этом к последствиям, к которым может привести обман других, у него — почти патологическое равнодушие.

两种特质同时出现在一个人身上,极为罕见。但对一个推销员来说,这是最完美的天赋。

Обе эти черты одновременно присущи одному человеку — крайне редкое явление. Но для продавца это — самый идеальный дар.

报道里有一个比喻说得好:乔布斯以"现实扭曲力场"闻名,他能让全世界相信他的愿景。但即使是乔布斯,也从来没有跟顾客说过"你不买我的 MP3 播放器,你爱的人都会死"。

В материале хорошо приведена метафора: Джобс был известен своим «силовым полем, искажающим реальность» — он мог заставить весь мир поверить в его видение. Но даже Джобс никогда не говорил клиентам: «Если вы не купите мой MP3-плеер, ваши любимые люди умрут».

Altman 说过类似的话,关于 AI。

Altman говорил что-то похожее — о ИИ.

一个 CEO 的人品问题,为什么是所有人的风险

Почему проблема порядочности CEO — это риск для всех

Altman 要只是一家普通科技公司的 CEO,这些指控充其量是一个精彩的商业八卦。可 OpenAI 不普通。

Если бы Altman был просто CEO обычной технологической компании, то все эти обвинения были бы не более чем яркими бизнес-сплетнями. Но OpenAI — не обычная компания.

按照它自己的说法,它正在开发可能是人类历史上最强大的技术。能重塑全球经济和劳动力市场(OpenAI 自己刚发了一份关于 AI 导致失业问题的政策白皮书),也能被用来制造大规模生化武器或发动网络攻击。

Согласно собственным заявлениям, она разрабатывает технологию, которая, возможно, является самой мощной в истории человечества. Она способна перестроить мировую экономику и рынок труда (OpenAI недавно опубликовала собственную policy white paper о проблеме безработицы из‑за ИИ), а также может быть использована для создания крупномасштабного биохимического оружия или для кибератак.

所有的安全护栏名存实亡了。创始人的非营利使命让位给了 IPO 冲刺。前首席科学家和前安全负责人都认定 CEO"不可信"。合作伙伴把 CEO 比作 SBF。在这种情况下,这个 CEO 凭什么单方面决定什么时候发布可能改变人类命运的 AI 模型?

Все защитные ограждения стали фикцией. Некоммерческая миссия основателей уступила место гонке за IPO. Бывший главный научный сотрудник и бывший ответственный за безопасность сочли CEO «не заслуживающим доверия». Партнеры сравнивают CEO с SBF. В таких обстоятельствах — почему этот CEO в одностороннем порядке решает, когда выпускать AI-модель, способную изменить судьбу человечества?

Gary Marcus(纽约大学 AI 教授、长期 AI 安全倡导者)读完报道后写了一句话:如果某个未来的 OpenAI 模型能造出大规模生化武器或发动灾难性网络攻击,你真的放心让 Altman 一个人来决定发不发布?

Gary Marcus (профессор ИИ в New York University и давний сторонник безопасности ИИ) после прочтения материала написал одну фразу: «Если будущая модель OpenAI сможет создавать крупномасштабное биохимическое оружие или запускать катастрофические кибератаки, вы действительно доверите решение о том, выпускать ее или нет, одному Altman?»

OpenAI 对《纽约客》的回应倒是简洁:“这篇文章的大部分内容是在翻炒已报道过的事件,通过匿名说法和有选择性的轶事,消息源显然带有个人目的。”

Ответ OpenAI на《纽约客》— довольно краткий: «Большая часть этой статьи — это пересказ событий, которые уже были освещены ранее, с анонимными формулировками и избирательными эпизодами. Источники, очевидно, преследуют личные цели».

很 Altman 的回应方式:不回应具体指控,不否认备忘录的真实性,只质疑动机。

Ответ в стиле Altman: не комментировать конкретные обвинения, не отрицать подлинность записок, а лишь ставить под сомнение мотивы.

非营利的尸体上,长出了一棵摇钱树

На трупе некоммерческой структуры выросло денежное дерево

OpenAI 的十年,写成一个故事大纲是这样的:

Десять лет OpenAI, оформленные как план истории, выглядят так:

一群担忧 AI 风险的理想主义者创建了一家使命驱动的非营利组织。组织做出了非凡的技术突破。突破吸引了巨额资本。资本需要回报。使命开始让路。安全团队解散了。质疑的人被清洗了。非营利架构改成了营利实体。曾经有权关掉公司的董事会,现在坐满了 CEO 的盟友。曾经承诺拿出 20%算力守护人类安全的公司,现在的公关人员说"那不是一个实际存在的东西"。

Группа идеалистов, которые беспокоились о рисках ИИ, создала некоммерческую организацию, движимую миссией. Организация добилась выдающихся технологических прорывов. Прорыв привлек огромный капитал. Капитал требует отдачи. Миссия начинает уступать. Команда по безопасности распускается. Сомневающихся очищают. Некоммерческая структура превращают в прибыльную структуру. Раньше совет директоров имел право закрыть компанию, а теперь в нем сидят союзники CEO. Раньше компания обещала выделять 20% вычислительных мощностей ради безопасности человечества, а теперь PR-менеджеры говорят: «Это не вещь, которая реально существует».

故事的主角,一百多位亲历者给了他同一个标签:“不受真相约束。”

Главный герой этой истории — более ста очевидцев — дал ему один и тот же ярлык: «не сдерживаемый истиной».

他正准备带着这家公司 IPO,估值超过 850B美元。

Он сейчас готов вывести эту компанию на IPO при оценке более 850 млрд долларов.

本文信息综合自《纽约客》、Semafor、Tech Brew、Gizmodo、Business Insider、The Information 等多家媒体的公开报道。

Настоящая статья составлена на основе открытых публикаций ряда СМИ, включая《纽约客》, Semafor, Tech Brew, Gizmodo, Business Insider и The Information.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить