中國要求 AI 模型「符合社會主義」!線上對話恐遭即時監測,敏感詞全封殺
中國網路監管機構網信辦對境內人工智慧(AI)模型進行嚴格審查,考驗 AI 模型對一系列「敏感問題」的回答,如何在政治與技術之間尋求平衡?

中國要求 AI 模型「符合社會主義」
近期,中國網路監管機構網信辦(Cyberspace Administration of China, CAC)對境內人工智慧(AI)模型進行嚴格審查,並強制要求各大科技公司參與政府的審查過程。
據多名知情人士透露,審查工作包包括對大型語言模型(LLM)進行批量測試,考驗 AI 模型對一系列「敏感問題」的回答,這些問題大多與中國的政治敏感話題,以及與習近平有關的有關的敏感字詞。
敏感關鍵詞全部封殺
據了解,包括字節跳動(ByteDance)、阿里巴巴、Moonshot 和 01.AI 在內的科技巨頭與新創公司,均被要求對其 AI 模型進行詳細的審查和調整。
一名杭州某人工智慧(AI)公司的員工就表示,網信辦會派出一個專門的團隊,親自來到公司的辦公室內進行面對面審查:「我們第一次審查沒有通過,原因不明,所以我們不得不與同行交流,並進行猜測和調整。最終,我們在第二次審查中通過,但整個過程耗時數月。」
北京某頂級 AI 新創公司的員工也表示:「我們的基礎模型在回答問題時非常不受約束,所以安全過濾非常重要。」
線上對話恐被即時監測
矛盾的是,中國官員同時希望營造開放形象,指示 AI 機器人「不要完全迴避」所有政治話題,為此還設下「拒絕回答」的次數限制,不應超過提出問題總數的 5%。
對此,一名中國的 AI 專家表示,對於開發者而言,要控制 LLM 生成的文本非常困難,因此他們通常會建立「另一層」來即時替換回應,使用者的線上對話將被實時監測,當 AI 在回應時被偵測到敏感話題時,系統就會自動觸發替換答案。
中國對 AI 模型的嚴格審查和控制,反映了政治與技術發展的攻防,未來,隨著技術的不斷進步和監管的逐步加強,中國的 AI 模型將如何在政治與技術之間尋求平衡,仍是一個值得關注的課題。
你可能想知道