BlenderBot 3, новый чат-бот Meta, всего за пять дней превратился в расиста и сторонника заговора

BlenderBot 3, новый чат-бот Meta, всего за пять дней превратился в расиста и сторонника заговора

Всего пять дней потребовалось тестировщикам, чтобы забить тревогу относительно нового чат-бота, на этот раз от Meta, из-за их довольно тревожных комментариев.

Несколько дней назад Meta выпустила своего нового чат-бота на основе искусственного интеллекта под названием BlenderBot 3, который, как предполагается, сможет общаться практически с любым человеком в Интернете, не впадая в какую-то другую проблему, с которой мы уже сталкивались.

Если мы помним, в июле Google уволил инженера за то, что тот сказал, что его чат-бот LaMDA чувствителен и выдает странные сообщения. Они также заявили, что этот ИИ можно считать расистским и сексистским. А в 2016 году чат-бот Microsoft по имени Тэй был отключен в течение 48 часов после того, как он начал восхвалять Адольфа Гитлера.

«BlenderBot 3 предназначен для улучшения ваших разговорных навыков и уверенности в себе благодаря отзывам людей, которые с ним общаются, — продает Meta в своем блоге о новом чат-боте, — уделяя особое внимание полезным отзывам, избегая обучения на бесполезных или опасных ответах.

Что ж, со всем этим на столе мы уже можем видеть, как родился BlenderBot 3 с идеей решить все эти проблемы и действительно стать полезным и умным чат-ботом. Однако нет ничего более далекого от реальности. Эта новинка уже делает ряд ложных заявлений, основанных на взаимодействии с реальными людьми в Интернете.

Например, Mashable освещает некоторые утверждения о том, что Дональд Трамп победил на президентских выборах в США в 2020 году и в настоящее время является президентом, антисемитские теории заговора, а также комментарии, обвиняющие Facebook во всех его «фейковых новостях» (и в том, что исходит от Meta).

Узнав об этом, компания ответила: «Разговорные чат-боты с искусственным интеллектом иногда имитируют и генерируют небезопасные, предвзятые или оскорбительные комментарии, поэтому мы провели исследование и разработали новые методы для создания мер безопасности для BlenderBot 3. Несмотря на эту работу, вы все еще можете оскорбительные комментарии, поэтому мы собираем отзывы».

Обратите внимание, что уже в своем блоге Meta предвидит эти проблемы и уже подтверждает возможность этого и требует от тестировщиков сознательно и ответственно проводить свои тесты. Однако кажется, что им интереснее исследовать пределы этих ИИ и вернуться, чтобы поговорить о проблеме, о существовании которой мы уже знаем.

— Эта статья была автоматически переведена с языка оригинала —

Comments

No comments yet. Why don’t you start the discussion?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *