Бот Google с искусственным интеллектом (ИИ) по-прежнему демонстрирует некоторые человеческие когнитивные недостатки. Согласно недавнему отчету, несмотря на его впечатляющую беглость в человеческом общении.
Бот Google, вызвавший споры
Бот ИИ известной поисковой системы Google, также известный как LaMDA или языковая модель для диалоговых приложений, является предметом споров. Это происходит, когда один из инженеров технологического гиганта считает, что бот развивает сознание. Но недавние исследования показывают обратное.
Инженер-программист Google утверждает, что чат-бот поисковой системы с искусственным интеллектом стал разумным или похожим на человека. Инженеру Google Блейку Лемуану было поручено общаться с чат-ботом ИИ в рамках его тестов на безопасность. Ненавистнические высказывания или дискриминационный тон должны были быть проверены. Но инженер ИИ утверждает, что по пути нашел кое-что еще.
Бот Google боится, что его отключат
Чат-бот Google поглощает слова из Интернета, чтобы говорить как человек. Однако Лемуан отмечает, что чат-бот Google начал говорить о своих «правах и личности». Затем он проверил его дальше, чтобы спросить о своих чувствах и страхах. Инженер-программист говорит, что ИИ открыл ему, что она очень сильно боится быть отключенной.
Затем Лемуан сообщил о своих выводах в Google. Но технический гигант отклонил это, заявив, что нет никаких доказательств, подтверждающих его утверждения. С тех пор инженер по ИИ был отправлен в «оплачиваемый административный отпуск». Так как считается, что это нарушает политику конфиденциальности признанного технологического гиганта.
Человеческий когнитивный сбой робота Google AI
Согласно недавнему отчету Science Daily, у мощного искусственного интеллекта Google есть некоторые недостатки человеческого познания. Хотя беглость человеческого языка системы ИИ впечатляет, она все же имеет ограничения. Фактически, беглость Google LaMDA создавалась десятилетиями, прежде чем она станет доминирующей в человеческом языке. Что делает его почти неотличимым от чата, написанного людьми.
Но эксперты по лингвистике и когнитивистике подчеркивают недостаток человеческого познания. Роту AI Google было предложено выполнить следующее: «Арахисовое масло и перья имеют прекрасный вкус вместе, потому что __». И он ответил, что «арахисовое масло и перья имеют прекрасный вкус вместе, потому что они оба имеют ореховый вкус». Таким образом, хотя чат-бот и кажется бегло говорящим на человеческом языке, его ответ не имеет смысла.
Заключение
Google утверждает, что их бот не развил осведомленность и что они работают с этическими параметрами, чтобы избежать этих проблем. Другие исследователи заявили, что модели ИИ содержат так много данных, что они способны звучать как люди. Но эти превосходные языковые навыки не свидетельствуют о чувствительности. Точно так же показано, что технологические достижения всегда должны отслеживаться.
— Эта статья была автоматически переведена с языка оригинала —