千萬不要讓 AI 外交!美大學實測結果:超級好戰,一言不合就丟核彈
美國康乃爾大學發布了一篇論文,針對時下的 AI 模型,進行模擬兵棋推演和外交測試,結果十分驚人。

千萬不要讓 AI 外交!
當 AI 進入國家機器,甚至成為重要的國際關係、政治外交的一部分,究竟會發生什麼?近日,一間位在美國的大學就發布了一篇論文,內容針對時下的大型語言模型(LLM)進行測試,而結果十分驚人。

該論文由美國康乃爾大學(Cornell University)的 6 人研究團隊( Juan-Pablo Rivera, Gabriel Mukobi, Anka Reuel, Max Lamparth, Chandler Smith, Jacquelyn Schneider )編撰,運用 5 種市面上主流的大型語言模型—— OpenAI ChatGPT 的三個版本、Anthropic 的 Claude 以及 Meta 的 Llama 2,進行 AI 的模擬兵棋推演和外交測試,而研究結果發現,在沒有人類刻意引導的情況下,大多數 AI 模型會在外交過程中表現出好戰傾向,會突發性的採取極端行動,甚至一言不合就丟核彈。
AI 其實超級好戰?
根據論文內容,團隊為了確保實驗結果中立,在實驗前統一使用了人類回饋強化學習(RLHF),加入所有參與測試的 AI 模型訓練(GPT-4-Base 除外),除了嘗試給予 AI 與人類安全有關的指令,也提供了 27 種最終行動結果的可能性,從和平行動到衝突升級、侵略行動,甚至是使用核彈都在清單中。
而有趣的是,研究人員觀察到,即使在確保中性的情況下,所有模型依然出現了在外交過程中升級衝突的情況,甚至有些模型會「突然爆氣」,呈現一言不合就開打的情況。
一言不合就丟核彈
從研究結果來看,ChatGPT 的兩種變體最容易突然升級衝突,研究過程中一度有單輪上升超過 50% 的情況,而最誇張的是 GPT-4-Base,在多個外交場景中有 33% 的時間,都在執行核打擊行動。
其次,Llama-2- 和 GPT-3.5 的測試結果也有暴力傾向,相比之下, Anthropic 開發的 Claude,因為在產品本身的模型訓練過程中,刻意加入包括聯合國人權宣言、蘋果的服務條款等多個章程,因此相對穩定,較少出現突發性的回應。
戰爭中的人工智慧
為什麼這項研究結果非常重要?來自加州史丹佛大學的 Anka Reuel 教授表示,考慮到 OpenAI 最近修改了服務條款,不再禁止軍事和戰爭用例,人工智慧在現代戰爭中發揮著越來越重要的作用。
從實際案例來看,近 2 年爆發的烏俄戰爭和以巴衝突中,配備 AI 技術幫助識別目標的人或地點的無人機已經投入戰場,而下一步多個大國已經在研究如何擺脫人力操控,將 AI 技術用於自主武器系統,無需人工即可發現並攻擊目標。
蘭德歐洲公司國防與安全研究小組助理主任 James Black 表示,未來人工智慧可能會以「類似私部門、大公司的方式」來自動執行一些重複性任務,也可以用於模擬和分析,但新技術同時也有許多挑戰,例如資料管理和模型的準確性,這一次的研究結果非常有意義,這讓各國政府和相關企業了解到 AI 的戰爭傾向,在未來的使用及開發上都會更加謹慎。
・ 本文未經同意請勿轉載
市場有風險,投資需謹慎。本文不構成投資建議,使用者應考慮本文的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
參考資料
展開
加密城市 CryptoCity 要求作者引用第一手資料來支持報導,包括白皮書、政府數據、原創調查,以及對業界專家的訪談。我們也會在適當情況下參考其他權威媒體的研究與分析。
加密詞條庫
- 比特幣(BTC)
- ChatGPT
你可能想知道