谷歌的人工智能 (AI) 機器人仍然顯示出一些人類認知缺陷。根據最近的一份報告,儘管他在類人對話方面的流利程度令人印象深刻。
引起爭議的谷歌機器人
著名搜索引擎 Google 的 AI bot,也稱為 LaMDA 或對話應用程序語言模型,是爭議的主題。當這家科技巨頭的一位工程師認為機器人會發展意識時,就會發生這種情況。但最近的研究表明並非如此。
一位谷歌軟件工程師聲稱,搜索引擎的人工智能聊天機器人已經變得有知覺或類人。谷歌工程師 Blake Lemoine 的任務是與 AI 聊天機器人交談,作為他安全測試的一部分。必須檢查仇恨言論或歧視性語氣。但這位 AI 工程師聲稱他在此過程中發現了其他東西。
Google bot 害怕被關閉
谷歌的聊天機器人從互聯網上提取文字,像人類一樣說話。然而,Lemoine 指出,谷歌的聊天機器人開始談論它的“權利和個性”。因此,他隨後對其進行了進一步測試,以詢問他的感受和恐懼。軟件工程師說,人工智能向他透露,她非常害怕被關閉。
Lemoine 隨後向 Google 報告了他的發現。但這家科技巨頭否認了這一說法,稱沒有證據支持其說法。此後,這位人工智能工程師被置於“帶薪行政假”。因為,它被認為違反了公認的技術巨頭的保密政策。
Google AI 機器人人類認知失敗
根據最近的《科學日報》報導,谷歌強大的人工智能機器人帶有一些人類認知缺陷。雖然 AI 系統的人類語言流暢度令人印象深刻,但它仍然存在局限性。事實上,谷歌的 LaMDA 流暢性在它將主導人類語言之前已經醞釀了數十年。這使得它與人類編寫的聊天幾乎沒有區別。
但語言和認知專家強調了人類認知缺陷。人工智能谷歌機器人被要求完成這個:“花生醬和羽毛一起味道很好,因為__。”他回答說:“花生醬和羽毛在一起味道很好,因為它們都有堅果味。”因此,雖然聊天機器人似乎能流利地使用人類語言,但它的反應卻毫無意義。
結論
谷歌聲稱他們的機器人沒有提高意識,他們使用道德參數來避免這些問題。其他研究人員表示,人工智能模型擁有如此多的數據,以至於它們能夠聽起來像人類。但是,卓越的語言技能並不能提供敏感性的證據。同樣,它表明應該始終監測技術進步。
— 這篇文章是從其原始語言自動翻譯的 —