BlenderBot 3, новому чат-боту Meta, займає всього п’ять днів, щоб перетворити його на расистську та конспірологічну тематику

BlenderBot 3, новому чат-боту Meta, займає всього п’ять днів, щоб перетворити його на расистську та конспірологічну тематику

Лише п’ять днів знадобилося тестувальникам, щоб запустити тривогу щодо нового чат-бота, цього разу від Meta, через їхні досить тривожні коментарі.

Кілька днів тому Meta випустила свій новий чат-бот на основі штучного інтелекту під назвою BlenderBot 3, який, як передбачається, зможе підтримувати розмову практично з будь-ким в Інтернеті, не потрапляючи в інші проблеми, з якими ми вже стикалися.

Якщо ми пам’ятаємо, у липні Google звільнив інженера за те, що його чат-бот LaMDA був чутливим і викидав якісь дивні повідомлення. Вони також заявили, що цей ШІ можна вважати расистським і сексистським. А в 2016 році чат-бот Microsoft на ім’я Тей був виведений з ладу протягом 48 годин після того, як він почав вихваляти Адольфа Гітлера.

«BlenderBot 3 розроблений, щоб покращити ваші навички розмови та впевненість завдяки зворотному зв’язку від людей, які спілкуються з ним, — продає Мета в дописі в блозі про новий чат-бот, — зосереджуючись на корисних відгуках, уникаючи при цьому вчитися на марних або небезпечних відповідях.

Що ж, з усім цим на столі ми вже бачимо, як BlenderBot 3 народився з ідеєю вирішити всі ці проблеми та справді стати корисним та розумним чат-ботом. Однак немає нічого далі від реальності. Ця новинка вже висуває низку неправдивих заяв на основі взаємодії, яку вона мала з реальними людьми в Інтернеті.

Наприклад, Mashable висвітлює деякі заяви про те, що Дональд Трамп переміг на президентських виборах у США 2020 року і зараз є президентом, антисемітські теорії змови, а також коментарі, які звинувачують Facebook у всіх його «фейкових новинах» (і тих, що надходять від Meta).

Дізнавшись про це, компанія відповіла: «Розмовні чат-боти зі штучним інтелектом іноді імітують і генерують небезпечні, упереджені або образливі коментарі, тому ми провели дослідження та розробили нові методи захисту для BlenderBot 3. Незважаючи на цю роботу, ви все ще можете зробити образливі коментарі, тому ми збираємо відгуки».

Зауважте, що вже у своєму блозі Meta передбачає ці проблеми та вже підтверджує можливість їх виникнення та вимагає від тестувальників свідомо та відповідально виконувати свої тести. Однак, здається, їм цікавіше дослідити межі цих ШІ та повернутися до розмови про проблему, про існування якої ми вже знаємо.

— Цю статтю було автоматично перекладено з мови оригіналу —

Comments

No comments yet. Why don’t you start the discussion?

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *