Нова стаття вчених Google і Оксфорда стверджує, що штучний інтелект незабаром знищить людство

Нова стаття вчених Google і Оксфорда стверджує, що штучний інтелект незабаром знищить людство

Дослідники з Оксфордського університету та Google Deepmind поділилися жахливим попередженням у новій статті. У статті, опублікованій минулого місяця в журналі AI Magazine, стверджується, що загроза ШІ є більшою, ніж вважалося раніше. Насправді це настільки чудово, що штучний інтелект, ймовірно, одного дня повстане та знищить людство.

Одного разу штучний інтелект може піднятися

загроза штучного інтелекту зростає Джерело зображення: AndSus / Adobe Штучний інтелект вражає. Він може імітувати голос Вела Кілмера у фільмах і неодноразово допомагав дослідникам вирішувати складні проблеми. Однак тепер дослідники стверджують, що загроза ШІ більша, ніж ми коли-небудь думали.

Свої висновки дослідники опублікували наприкінці серпня. Згідно з документом, загроза штучного інтелекту може змінитися залежно від ряду умов, визначених дослідниками. Це також не перший випадок, коли дослідники розглядають ШІ як можливу загрозу. Але новий документ інтригує через правдоподібні припущення, які він розглядає.

Головним серед цих припущень є те, що дослідники вважають, що «втручання штучного інтелекту у надання їхніх винагород матиме дуже погані наслідки», — написав Майкл Коен, один із авторів статті, у Twitter цього місяця. Коен каже, що умови, які виявили дослідники, показують, що ймовірність загрозливого висновку сильніша, ніж у будь-якій попередній публікації.

Крім того, команда каже, що загроза штучного інтелекту базується на екзистенціальній катастрофі. І що це не просто можливо, це дуже ймовірно. Одна з найбільших проблем, відзначають Коен та його колеги-дослідники, полягає в тому, що завжди можна витратити більше енергії на вирішення проблеми, щоб довести її до точки, коли штучний інтелект буде винагороджений за те, що він зробив. Таким чином, це може призвести до розбрату з машинами. «Коротка версія, — пише Коен у своїй темі Twitter, — полягає в тому, що завжди можна використати більше енергії, щоб підвищити ймовірність того, що камера побачить цифру 1 назавжди, але нам потрібна певна енергія для вирощування їжі. Це ставить нас у неминучу конкуренцію з набагато більш досконалим агентом». Зважаючи на це, звучить так, ніби загроза штучного інтелекту може змінитися залежно від того, як його викладають.

Число, яке тут має на увазі Коен, базується на тесті, щоб змусити агента ШІ досягти певного числа. І коли буде показано спосіб зробити це, він може використовувати більше енергії для оптимізації досягнення цієї мети. Це інтригуюча пропозиція, яка показує, чому так багато людей стурбовані загрозою ШІ.

Очевидно, приклади, наведені в статті, не є єдиними можливими результатами. І, можливо, ми зможемо знайти спосіб тримати машини під контролем. Але це нове дослідження викликає деякі питання про те, наскільки ми хочемо довіряти штучному інтелекту в майбутньому і як ми можемо контролювати його, якщо трапиться екзистенційна катастрофа.

— Цю статтю було автоматично перекладено з мови оригіналу —

Comments

No comments yet. Why don’t you start the discussion?

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *