中國要求 AI 模型「符合社會主義」!線上對話恐遭即時監測,敏感詞全封殺

中國網路監管機構網信辦對境內人工智慧(AI)模型進行嚴格審查,考驗 AI 模型對一系列「敏感問題」的回答,如何在政治與技術之間尋求平衡?

中國網路監管機構網信辦對境內人工智慧(AI)模型進行嚴格審查,考驗 AI 模型對一系列「敏感問題」的回答,如何在政治與技術之間尋求平衡? 中國要求 AI 模型「符合社會主義」!線上對話恐遭即時監測,敏感詞全封殺


中國要求 AI 模型「符合社會主義」

近期,中國網路監管機構網信辦(Cyberspace Administration of China, CAC)對境內人工智慧(AI)模型進行嚴格審查,並強制要求各大科技公司參與政府的審查過程。 

據多名知情人士透露,審查工作包包括對大型語言模型(LLM)進行批量測試,考驗 AI 模型對一系列「敏感問題」的回答,這些問題大多與中國的政治敏感話題,以及與習近平有關的有關的敏感字詞。 


敏感關鍵詞全部封殺

據了解,包括字節跳動(ByteDance)、阿里巴巴、Moonshot 和 01.AI 在內的科技巨頭與新創公司,均被要求對其 AI 模型進行詳細的審查和調整。 

一名杭州某人工智慧(AI)公司的員工就表示,網信辦會派出一個專門的團隊,親自來到公司的辦公室內進行面對面審查:「我們第一次審查沒有通過,原因不明,所以我們不得不與同行交流,並進行猜測和調整。最終,我們在第二次審查中通過,但整個過程耗時數月。」 

北京某頂級 AI 新創公司的員工也表示:「我們的基礎模型在回答問題時非常不受約束,所以安全過濾非常重要。」 


線上對話恐被即時監測

矛盾的是,中國官員同時希望營造開放形象,指示 AI 機器人「不要完全迴避」所有政治話題,為此還設下「拒絕回答」的次數限制,不應超過提出問題總數的 5%。 

對此,一名中國的 AI 專家表示,對於開發者而言,要控制 LLM 生成的文本非常困難,因此他們通常會建立「另一層」來即時替換回應,使用者的線上對話將被實時監測,當 AI 在回應時被偵測到敏感話題時,系統就會自動觸發替換答案。 

中國對 AI 模型的嚴格審查和控制,反映了政治與技術發展的攻防,未來,隨著技術的不斷進步和監管的逐步加強,中國的 AI 模型將如何在政治與技術之間尋求平衡,仍是一個值得關注的課題。 

・ 本文未經同意請勿轉載

icon免責聲明

市場有風險,投資需謹慎。本文不構成投資建議,使用者應考慮本文的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

crypto_city_linecrypto_city_threadscrypto_city_telegram

加密詞條庫

- ChatGPT

你可能想知道

即將開始下一篇upcoming

background
login_logo
logo

使用以下帳號繼續

繼續表示您已同意 服務條款與隱私政策

copy

中國要求 AI 模型「符合社會主義」!線上對話恐遭即時監測,敏感詞全封殺