您好,歡迎收看《Eye on AI》。在本期內容中……五角大廈與Anthropic的爭鬥引發三個關鍵問題……OpenAI籌集1,100億美元新資金……Meta實驗AI購物助手……大型語言模型能大規模識別化名的網路用戶……伊朗戰爭前線的資料中心。推薦影片* * *目前在AI領域最重要的故事,無疑是美國國防部與Anthropic的爭鬥。如果你還沒跟上這場風波,可以閱讀我和《財富》同事的報導:這裡、這裡、這裡、這裡、這裡和這裡。這個故事至少提出了三個關鍵問題:在民主社會中,誰應該掌控AI的使用?應該如何行使這種控制?如果一家公司不同意政府的政策,應該有什麼後果?不管你怎麼看OpenAI的CEO山姆·奧特曼(Sam Altman)以及他簽署與五角大廈的協議——包括允許軍方“為任何合法目的”使用OpenAI的AI模型(Anthropic曾拒絕同意的條款)——奧特曼正確地指出了這場爭鬥的核心。在週末於X(前Twitter)上的“問我任何事”環節中,奧特曼表示:“一個非常重要的點:我們不是選出來的。我們有一個民主程序,選出我們的領導人。我們對技術有專業知識,了解其限制,但我認為你應該害怕一個私人公司決定在最重要的領域什麼是道德的。對我們來說,決定ChatGPT如何回應有爭議的問題似乎沒問題。但我真的不希望我們決定如果一顆核彈朝美國來襲該怎麼做。”這正是五角大廈對Anthropic現有合約的主要反對點。軍方認為私人公司不應該對選出的政府制定政策。**AI發展迅速,國會行動緩慢**-------------------------------------------------------大多數美國人可能在原則上同意五角大廈的立場。但實際上,這個問題被三個因素複雜化。第一,AI技術發展極快,但民主控制的機制——立法、國會監督、選舉——卻非常緩慢。在ChatGPT推出的三年來,國會尚未通過任何聯邦AI法案。特朗普政府拆除了前任政府制定的有限AI規範,同時也對通過自己AI規範的州採取懲罰措施。因此,雖然許多人可能同意政府的AI政策應由民選官員制定,但當這些代表未採取行動時,該怎麼辦?試圖通過實驗室與政府之間的契約談判來制定AI政策,遠不及真正的民主治理,但或許比完全沒有治理好。對Anthropic五角大廈合約的爭議應該是國會行動的警鐘。第二,過去幾十年來,各國政府的趨勢是廣泛解讀現有法律,以擴大政府利用技術監控公民的權力。(這個故事是行政部門逐步收回在水門事件和1970年代中期教會委員會聽證後,通過國會行動失去的監控權力的過程。)軍事的許多活動也被包裹在秘密之中,使民主監督和問責變得困難。這種不斷推動法律界限的行為,讓公眾對政府的意圖產生不信任。因此,現在有人可能更相信像Anthropic的達里奧·阿莫迪(Dario Amodei)這樣看似善意且聰明,但未經選舉的科技高管,認為他們會做對的事,制定正確的政策。最後,還有許多美國人對“這個特定政府”的疑慮。特朗普政府多次採取前所未有的行動,懲罰國內異議,常以薄弱的法律依據,甚至沒有法律依據,並多次動用軍隊來恐嚇或懲罰被視為反對的國內力量。它也在海外發動多次軍事行動,幾乎沒有法律依據。難怪許多人質疑,這個特定政府是否應該被授予使用AI的權力,讓其法律認可的行為都成為可能。**AI國有化是否不可避免?**--------------------------------------------即使你認為五角大廈的觀點正確,認為民主政府而非私人公司應決定AI的用途,下一個問題是:應該如何行使這種控制?奧特曼點出了行業面臨的終極問題:如果前沿AI是戰略性技術,為何政府不直接國有化?畢竟,許多具有重大戰略意義的突破——從曼哈頓計劃、太空競賽,到早期的AI研發——都是由政府資助並主要由政府指導的。正如奧特曼所說:“我長期認為,建造AGI(通用人工智慧)或許更好由政府來做,”但他補充說:“目前的趨勢似乎不太可能。”五角大廈目前的做法接近於以其他方式國有化。國防部曾威脅動用《國防生產法》(冷戰時代的法律),強制Anthropic按其偏好條款交付AI模型——這是一種軟性國有化的方式,控制了Anthropic的生產流程。而將Anthropic標記為“供應鏈風險”的決定,也部分旨在恐嚇其他AI公司接受五角大廈的合同條款,這也接近於國有化。**在民主制度中,異議的代價應該是什麼?**------------------------------------------------------最後,這引出了對於拒絕接受政府偏好合同條款的AI公司的懲罰應該是什麼的問題。正如曾短暫為特朗普政府制定AI行動計劃的AI政策專家迪恩·鮑爾(Dean Ball)所說,政府似乎有權取消與Anthropic的2億美元合同。但將Anthropic標記為“供應鏈風險”並進一步採取行動,觸及私有財產權和自由言論的核心。在一個自由民主國家,這一標記本意是用來對抗可能幫助外國敵手破壞關鍵國防系統的技術,但從未用於美國公司,也從未用來懲罰不願接受軍方期望合同條款的公司。Ball表示,這等同於“企圖企業謀殺”,因為根據SCR(供應鏈風險)標記,與五角大廈合作的任何公司都將被禁止與Anthropic進行商業合作。如果這個解讀成立——許多法律學者認為不會——這可能對Anthropic造成致命打擊。該公司依賴向大型財富500強企業銷售,這些企業也為五角大廈工作,提供收入、雲端運算基礎設施和風險投資支持。拒絕政府的要求,應該會導致企業倒閉嗎?這顯然不符合美國精神。奧特曼聲稱,他與五角大廈的合作部分是為了緩和政府與AI企業之間的緊張關係,並表示“政府與建造這項技術的公司之間的緊密合作非常重要。”雖然我不確定奧特曼的真正動機,但我同意他最後這一點。在AI可能帶來前所未有的經濟和社會變革的時代,促進政府與開發先進AI系統的企業之間的不信任與衝突,似乎是個糟糕的想法。接下來是更多AI新聞。**Jeremy Kahn** jeremy.kahn@fortune.com @jeremyakahn### 《財富》關於AIAnthropic的Claude在App Store超越ChatGPT,因用戶抵制OpenAI的2億美元五角大廈合約——作者:Marco Quiroz-Gutierrez伊朗具備AI網路攻擊的意圖——並且工具日益完善——作者:Sharon Goldman專訪:CrowdStrike與SentinelOne的資深人士籌集3400萬美元,應對企業AI治理缺口——作者:Beatrice NolanOpenAI的五角大廈交易引發AI與大規模監控的新疑問——作者:Beatrice NolanAI恐慌變成現實,美國意識到或許還未準備好迎接未來——作者:Nick Lichtenberg
五角大廈與Anthropic的對抗是我們首次真正測試如何控制強大人工智慧的考驗。壞消息是:我們都失敗了
您好,歡迎收看《Eye on AI》。在本期內容中……五角大廈與Anthropic的爭鬥引發三個關鍵問題……OpenAI籌集1,100億美元新資金……Meta實驗AI購物助手……大型語言模型能大規模識別化名的網路用戶……伊朗戰爭前線的資料中心。
推薦影片
目前在AI領域最重要的故事,無疑是美國國防部與Anthropic的爭鬥。如果你還沒跟上這場風波,可以閱讀我和《財富》同事的報導:這裡、這裡、這裡、這裡、這裡和這裡。
這個故事至少提出了三個關鍵問題:在民主社會中,誰應該掌控AI的使用?應該如何行使這種控制?如果一家公司不同意政府的政策,應該有什麼後果?
不管你怎麼看OpenAI的CEO山姆·奧特曼(Sam Altman)以及他簽署與五角大廈的協議——包括允許軍方“為任何合法目的”使用OpenAI的AI模型(Anthropic曾拒絕同意的條款)——奧特曼正確地指出了這場爭鬥的核心。
在週末於X(前Twitter)上的“問我任何事”環節中,奧特曼表示:
“一個非常重要的點:我們不是選出來的。我們有一個民主程序,選出我們的領導人。我們對技術有專業知識,了解其限制,但我認為你應該害怕一個私人公司決定在最重要的領域什麼是道德的。對我們來說,決定ChatGPT如何回應有爭議的問題似乎沒問題。但我真的不希望我們決定如果一顆核彈朝美國來襲該怎麼做。”
這正是五角大廈對Anthropic現有合約的主要反對點。軍方認為私人公司不應該對選出的政府制定政策。
AI發展迅速,國會行動緩慢
大多數美國人可能在原則上同意五角大廈的立場。但實際上,這個問題被三個因素複雜化。第一,AI技術發展極快,但民主控制的機制——立法、國會監督、選舉——卻非常緩慢。在ChatGPT推出的三年來,國會尚未通過任何聯邦AI法案。特朗普政府拆除了前任政府制定的有限AI規範,同時也對通過自己AI規範的州採取懲罰措施。
因此,雖然許多人可能同意政府的AI政策應由民選官員制定,但當這些代表未採取行動時,該怎麼辦?試圖通過實驗室與政府之間的契約談判來制定AI政策,遠不及真正的民主治理,但或許比完全沒有治理好。對Anthropic五角大廈合約的爭議應該是國會行動的警鐘。
第二,過去幾十年來,各國政府的趨勢是廣泛解讀現有法律,以擴大政府利用技術監控公民的權力。(這個故事是行政部門逐步收回在水門事件和1970年代中期教會委員會聽證後,通過國會行動失去的監控權力的過程。)軍事的許多活動也被包裹在秘密之中,使民主監督和問責變得困難。這種不斷推動法律界限的行為,讓公眾對政府的意圖產生不信任。因此,現在有人可能更相信像Anthropic的達里奧·阿莫迪(Dario Amodei)這樣看似善意且聰明,但未經選舉的科技高管,認為他們會做對的事,制定正確的政策。
最後,還有許多美國人對“這個特定政府”的疑慮。特朗普政府多次採取前所未有的行動,懲罰國內異議,常以薄弱的法律依據,甚至沒有法律依據,並多次動用軍隊來恐嚇或懲罰被視為反對的國內力量。它也在海外發動多次軍事行動,幾乎沒有法律依據。難怪許多人質疑,這個特定政府是否應該被授予使用AI的權力,讓其法律認可的行為都成為可能。
AI國有化是否不可避免?
即使你認為五角大廈的觀點正確,認為民主政府而非私人公司應決定AI的用途,下一個問題是:應該如何行使這種控制?奧特曼點出了行業面臨的終極問題:如果前沿AI是戰略性技術,為何政府不直接國有化?畢竟,許多具有重大戰略意義的突破——從曼哈頓計劃、太空競賽,到早期的AI研發——都是由政府資助並主要由政府指導的。正如奧特曼所說:“我長期認為,建造AGI(通用人工智慧)或許更好由政府來做,”但他補充說:“目前的趨勢似乎不太可能。”
五角大廈目前的做法接近於以其他方式國有化。國防部曾威脅動用《國防生產法》(冷戰時代的法律),強制Anthropic按其偏好條款交付AI模型——這是一種軟性國有化的方式,控制了Anthropic的生產流程。而將Anthropic標記為“供應鏈風險”的決定,也部分旨在恐嚇其他AI公司接受五角大廈的合同條款,這也接近於國有化。
在民主制度中,異議的代價應該是什麼?
最後,這引出了對於拒絕接受政府偏好合同條款的AI公司的懲罰應該是什麼的問題。正如曾短暫為特朗普政府制定AI行動計劃的AI政策專家迪恩·鮑爾(Dean Ball)所說,政府似乎有權取消與Anthropic的2億美元合同。
但將Anthropic標記為“供應鏈風險”並進一步採取行動,觸及私有財產權和自由言論的核心。在一個自由民主國家,這一標記本意是用來對抗可能幫助外國敵手破壞關鍵國防系統的技術,但從未用於美國公司,也從未用來懲罰不願接受軍方期望合同條款的公司。Ball表示,這等同於“企圖企業謀殺”,因為根據SCR(供應鏈風險)標記,與五角大廈合作的任何公司都將被禁止與Anthropic進行商業合作。如果這個解讀成立——許多法律學者認為不會——這可能對Anthropic造成致命打擊。該公司依賴向大型財富500強企業銷售,這些企業也為五角大廈工作,提供收入、雲端運算基礎設施和風險投資支持。拒絕政府的要求,應該會導致企業倒閉嗎?這顯然不符合美國精神。
奧特曼聲稱,他與五角大廈的合作部分是為了緩和政府與AI企業之間的緊張關係,並表示“政府與建造這項技術的公司之間的緊密合作非常重要。”雖然我不確定奧特曼的真正動機,但我同意他最後這一點。在AI可能帶來前所未有的經濟和社會變革的時代,促進政府與開發先進AI系統的企業之間的不信任與衝突,似乎是個糟糕的想法。
接下來是更多AI新聞。
Jeremy Kahn
[email protected]
@jeremyakahn
《財富》關於AI
Anthropic的Claude在App Store超越ChatGPT,因用戶抵制OpenAI的2億美元五角大廈合約——作者:Marco Quiroz-Gutierrez
伊朗具備AI網路攻擊的意圖——並且工具日益完善——作者:Sharon Goldman
專訪:CrowdStrike與SentinelOne的資深人士籌集3400萬美元,應對企業AI治理缺口——作者:Beatrice Nolan
OpenAI的五角大廈交易引發AI與大規模監控的新疑問——作者:Beatrice Nolan
AI恐慌變成現實,美國意識到或許還未準備好迎接未來——作者:Nick Lichtenberg