Всего пять дней потребовалось тестировщикам, чтобы забить тревогу относительно нового чат-бота, на этот раз от Meta, из-за их довольно тревожных комментариев.
Несколько дней назад Meta выпустила своего нового чат-бота на основе искусственного интеллекта под названием BlenderBot 3, который, как предполагается, сможет общаться практически с любым человеком в Интернете, не впадая в какую-то другую проблему, с которой мы уже сталкивались.
Если мы помним, в июле Google уволил инженера за то, что тот сказал, что его чат-бот LaMDA чувствителен и выдает странные сообщения. Они также заявили, что этот ИИ можно считать расистским и сексистским. А в 2016 году чат-бот Microsoft по имени Тэй был отключен в течение 48 часов после того, как он начал восхвалять Адольфа Гитлера.
«BlenderBot 3 предназначен для улучшения ваших разговорных навыков и уверенности в себе благодаря отзывам людей, которые с ним общаются, — продает Meta в своем блоге о новом чат-боте, — уделяя особое внимание полезным отзывам, избегая обучения на бесполезных или опасных ответах.
Что ж, со всем этим на столе мы уже можем видеть, как родился BlenderBot 3 с идеей решить все эти проблемы и действительно стать полезным и умным чат-ботом. Однако нет ничего более далекого от реальности. Эта новинка уже делает ряд ложных заявлений, основанных на взаимодействии с реальными людьми в Интернете.
Например, Mashable освещает некоторые утверждения о том, что Дональд Трамп победил на президентских выборах в США в 2020 году и в настоящее время является президентом, антисемитские теории заговора, а также комментарии, обвиняющие Facebook во всех его «фейковых новостях» (и в том, что исходит от Meta).
Узнав об этом, компания ответила: «Разговорные чат-боты с искусственным интеллектом иногда имитируют и генерируют небезопасные, предвзятые или оскорбительные комментарии, поэтому мы провели исследование и разработали новые методы для создания мер безопасности для BlenderBot 3. Несмотря на эту работу, вы все еще можете оскорбительные комментарии, поэтому мы собираем отзывы».
Обратите внимание, что уже в своем блоге Meta предвидит эти проблемы и уже подтверждает возможность этого и требует от тестировщиков сознательно и ответственно проводить свои тесты. Однако кажется, что им интереснее исследовать пределы этих ИИ и вернуться, чтобы поговорить о проблеме, о существовании которой мы уже знаем.
— Эта статья была автоматически переведена с языка оригинала —