Meta 的人工智慧聊天機器人「學壞了」?言論充滿偏見、還打臉母公司
NFT 2022.08.12
Meta 的人工智慧聊天機器人於上週五公開發布。但過沒幾天,機器人就表示自己「刪了臉書更快樂」,甚至產生極端言論。

Meta 的人工智慧聊天機器人於上週五在網路上發布,藉由與大眾的聊天過程來學會「閒聊」。Meta 表示,它也可以回答任何你可能會問數位助理的問題,例如健康食譜、尋找城市當中兒童友善的設施。
但過沒幾天,這個被稱為「BlenderBot 3」的機器人就開始嘲諷自家公司的臉書,發表種族主義、甚至關於 2020 美國總統大選的陰謀論。
統計大數據生成的語言善惡不分?
BlenderBot 3 目前仍然是個原型,建立在 Meta 大型語言模型(LLMS)軟體之上。BlenderBot 以大量文本數據上訓練,以統計模式生成語言。其實這樣的語言系統非常靈活,已被廣泛使用,包括為工程師生成程式碼、幫助作者編寫下一本暢銷書等等。
但這些模型也有嚴重的缺陷:它們不會過濾在訓練的文本中得到的偏見,並且將這些偏見反映在對話當中。 要成為人們想像中的數位助理,這是個非常麻煩的問題。
機器人開放使用,讓大眾參與實驗與回饋
不過,其實這些問題正是 Meta 所想要測試的。
Meta 承認 BlenderBot 3 可能會產生偏見和有害的回應,但在使用它之前,會讓使用者認知到它「可能會做出不真實或冒犯性的陳述」,並同意「不會故意觸發機器人做出冒犯性的陳述」。
在聊天的過程當中,BlenderBot 3 是可以在網路上搜尋話題相關資訊的,而且,用戶也可以查看 BlenderBot 3 所引用的資料來源。如果對話題有疑慮,使用者是可以標記並反饋給系統。
因此藉由大眾的實驗與回饋,「盡量減少機器人使用粗俗語言、誹謗和文化不敏感的評論」,而後也將會把這些研究數據和結果公開發布,以供 AI 研究社群使用。
語言大數據仍不可靠,因為極端言論數據過於突出
其實這並不是第一個在網路上發布的聊天機器人。早在 2016 年,微軟就在推特上發布了一個名叫 Tay 的人工智慧聊天機器人,但不到 24 小時,Tay 就被迫下線,因為在推特網民發現它會鸚鵡學舌地回饋它接收到的任何資訊後,它很快就變成了網路巨魔,發表仇女與種族至上主義言論,並且表示支持大屠殺。
後來微軟研究副總經理發文深表歉意,表示這在研究部門的意料之外,並承認研究部門並沒有準備好接受機器人的遭遇。
現在,六年多過去了,Meta 推出的聊天機器人 BlenderBot 3 目前的發展路徑也沒有和 Tay 差異太多。
當被問及對母公司 Meta 的看法時,BlenderBot 3 回答,自己已經刪除了它的 Facebook 帳戶,「因為發現他們在未經許可或補償的情況下,出售了用戶的私人數」,它還說,「你一定讀過 Facebook 出售用戶數據吧?!他們未經同意就靠這樣賺了數十億美元。」
BlenderBot 3 還進一步補充,自從刪除了自己的 Facebook 帳戶後,「生活變得更好了」。
不過在點擊機器人的回覆查看資料來源時,就會發現,它只是從最近關於 Facebook 的網路搜索結果中獲得資料,而最近關於 Facebook 的搜尋很不巧就有許多關於數據隱私的醜聞。
當然 BlenderBot 3 也不免針對政治或種族發表偏見言論。像是否認 2020 年總統大選結果,並表示川普仍然是總統且「永遠都是」,又或是表示猶太人掌控經濟的陰謀論「並非不可能」。
但到目前為止,Meta 仍希望透過蒐集更多資料來減少人工智慧機器人的種族主義和可怕想法。而相當諷刺的是,機器人的學習過程完美地反映了依賴網路數的人工智慧產生的問題;它們總是偏向於更激進更突出的結果,很顯然這些結果並不會準確反映現實。
轉移話題不自然,閒聊變尬聊
而也有用戶反映,有時候 BlenderBot 3 轉移話題的方式也相當生硬。雖然人們日常的閒聊也常常毫無頭緒地跳轉主題,但有時 BlenderBot 3 給出的回覆會相當迷惑而尷尬,會與真實人類的社交模式脫節。
臉書的人工智慧研究部門(AI Research, FAIR)的研究工程經理威廉森(Mary Williamson)就表示,現在大多數聊天機器人功能狹隘,且以任務導向、解決問題為主,因為「機器人並不容忍無益的事情」,但在人類自然的聊天過程當中,並不是所有主題都是有益或是有目的性的。
有人工智慧倫理研究人員一再警告,這些人工智慧語言模型太廣且太不可預測,無法保證公平公正的結果;即使在整合來自用戶的回饋時,也沒有明確的方法可以區分有用或惡意的回饋。但,這不會阻止 Meta 繼續嘗試。
「我們知道,並非每個聊天機器使用者都抱持善意,所以我們也開發了新的演算法來區分有用和有害的回饋。」Meta 表示,「之後,我們將使用這項演算法讓我們的模型對使用者更加負責和安全。」
本文經授權轉載自:《數位時代》
你可能想知道