谷歌和牛津科學家的新論文聲稱人工智能將很快摧毀人類

谷歌和牛津科學家的新論文聲稱人工智能將很快摧毀人類

牛津大學和谷歌 Deepmind 的研究人員在一篇新論文中分享了一個令人不寒而栗的警告。該論文於上個月發表在 AI 雜誌上,聲稱 AI 的威脅比以前認為的要大。事實上,這太棒了,人工智能很可能有一天會崛起並消滅人類。

人工智能總有一天會崛起

AI 的威脅越來越大 圖片來源:AndSus / Adob​​e AI 令人印象深刻。它可以模擬電影中 Val Kilmer 的聲音,並多次幫助研究人員解決複雜問題。不過,現在研究人員認為,人工智能的威脅比我們想像的要大。

研究人員在 8 月底公佈了他們的發現。根據該論文,人工智能的威脅可能會根據研究人員確定的一系列條件而改變。這也不是研究人員第一次將人工智能視為一種可能的威脅。但這篇新論文之所以有趣,是因為它所看到的似乎是合理的假設。

在這些假設中,研究人員認為,“人工智能干預提供獎勵會產生非常糟糕的後果,”該論文的作者之一邁克爾科恩本月在推特上寫道。科恩說,研究人員確定的條件表明,威脅性結論的可能性比以前的任何出版物都強。

此外,該團隊表示,人工智能的威脅是建立在一場生存災難的基礎上的。這不僅是可能的,而且很有可能。 Cohen 和他的研究人員同事指出,最大的問題之一是總是可以將更多的精力投入到一個問題上,以使其達到人工智能因其所做的事情而獲得獎勵的程度。因此,它可能會使我們與機器發生衝突。 “簡短的版本,”科恩在他的推特帖子中寫道,“總是可以使用更多的能量來提高相機永遠看到數字 1 的概率,但我們需要一些能量來種植食物。這讓我們不得不與更先進的特工進行不可避免的競爭。”考慮到這一點,聽起來人工智能的威脅可能會根據它的教學方式而改變。

Cohen 在這裡所指的數字是基於強制 AI 代理達到某個數字的測試。而且,一旦它被證明可以做到這一點,它就可以使用更多的能量來優化實現該目標。這是一個有趣的命題,也說明了為什麼這麼多人擔心人工智能的威脅。

顯然,論文中提供的示例並不是唯一可能的結果。而且,也許我們可以找到一種方法來控制機器。但是,這項新研究確實提出了一些問題,即我們希望在多大程度上信任人工智能的發展,以及如果存在性災難來襲,我們如何控制它。

— 這篇文章是從原文自動翻譯過來的 —

Comments

No comments yet. Why don’t you start the discussion?

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注