由於他們相當令人擔憂的評論,測試人員只用了五天時間就觸發了有關新聊天機器人的警報,這次來自 Meta。
幾天前,Meta 發布了其新的基於人工智能的聊天機器人,名為 BlenderBot 3,它應該能夠與互聯網上的幾乎任何人進行對話,而不會陷入我們已經經歷過的其他問題。
如果我們記得,在 7 月份,谷歌解雇了一名工程師,因為他說其 LaMDA 聊天機器人很敏感,並且會拋出一些奇怪的信息。他們還表示,這種人工智能可以被視為種族主義和性別歧視。而在 2016 年,一個名叫 Tay 的微軟聊天機器人在他開始讚美阿道夫·希特勒後 48 小時內就被下線了。
“BlenderBot 3 旨在通過與它聊天的人的反饋來提高你的對話技巧和信心,”Meta 在一篇關於新聊天機器人的博客文章中說,“專注於有用的反饋,同時避免從無用或危險的響應中學習。
好吧,有了這一切,我們已經可以看到 BlenderBot 3 是如何帶著解決所有這些問題的想法誕生的,並真正成為一個有用且智能的聊天機器人。然而,沒有什麼比現實更遠了。這種新穎性已經根據它與在線真人的互動做出了許多虛假聲明。
例如,Mashable 強調了唐納德特朗普贏得 2020 年美國總統大選並擔任總統的一些說法、反猶太陰謀論,以及指責 Facebook 的所有“假新聞”(以及來自 Meta 的)的評論。
得知這一點後,該公司回應說:“對話式 AI 聊天機器人有時會模仿並生成不安全、有偏見或冒犯性的評論,因此我們進行了研究並開發了新技術來為 BlenderBot 3 創建保護措施。儘管有這項工作,你仍然可以做出冒犯性的評論,所以我們正在收集反饋。”
請注意,Meta 已經從其博客中預見到了這些問題,並且已經確認了這種情況發生的可能性,並要求測試人員有意識和負責任地進行測試。然而,他們似乎更有趣的是探索這些 AI 的局限性並返回談論我們已經知道存在的問題。
— 這篇文章是從原文自動翻譯過來的 —