Бот Google зі штучним інтелектом (ШІ) все ще демонструє деякі когнітивні недоліки людини. Незважаючи на його вражаючу вільність у людських розмовах, згідно з нещодавнім звітом.
Бот Google, який викликає суперечки
ШІ-бот відомої пошукової системи Google, також відомий як LaMDA або мовна модель для діалогових додатків, є предметом суперечок. Це відбувається, коли один із інженерів технологічного гіганта вважає, що бот розвиває свідомість. Але останні дослідження показують інше.
Інженер-програміст Google стверджує, що чат-бот пошукової системи AI став розумним або схожим на людину. Інженер Google Блейк Лемуан отримав завдання поспілкуватися з чат-ботом ШІ в рамках своїх тестів безпеки. Треба було перевірити мову ворожнечі чи дискримінаційний тон. Але інженер штучного інтелекту стверджує, що він знайшов ще щось на цьому шляху.
Бот Google боїться вимкнення
Чат-бот Google забирає слова з Інтернету, щоб говорити як людина. Однак Лемуан зазначає, що чат-бот Google почав говорити про свої «права та особистість». Отже, потім він перевірив його далі, щоб запитати про свої почуття та страхи. Інженер-програміст каже, що ШІ виявив йому, що вона дуже сильно боїться бути вимкненою.
Потім Лемуан повідомив про свої відкриття Google. Але технічний гігант відкинув це, заявивши, що немає жодних доказів на підтримку своїх заяв. З тих пір інженер ШІ був відправлений в «оплачувану адміністративну відпустку». Оскільки вважається, що це порушує політику конфіденційності визнаного технологічного гіганта.
Когнітивний збій людини бота Google AI
Згідно з нещодавнім звітом Science Daily, потужний бот Google зі штучним інтелектом має деякі когнітивні недоліки людини. Хоча вільне володіння людською мовою системи штучного інтелекту досить вражаюче, вона все ще має обмеження. Насправді вільне володіння Google LaMDA формувалося десятиліттями, перш ніж воно стане домінуючим у людській мові. Це робить його майже невідрізнимим від чату, написаного людьми.
Але лінгвістичні та когнітивні експерти підкреслюють когнітивний недолік людини. Боту Google із штучним інтелектом було запропоновано завершити це: «Арахісове масло та пір’я чудово смакують разом, тому що __». І він відповів, що «арахісове масло і пір’я чудово смакують разом, тому що вони обидва мають горіховий смак». Тож хоча чат-бот здається вільно говорить людською мовою, його відповідь не має сенсу.
Висновок
Google стверджує, що їхній бот не розвинув обізнаність і що вони працюють з етичними параметрами, щоб уникнути цих проблем. Інші дослідники стверджують, що моделі штучного інтелекту містять стільки даних, що вони можуть здатися людськими. Але ці чудові мовні навички не є доказом чутливості. Подібним чином показано, що слід завжди стежити за технологічним прогресом.
— Ця стаття була автоматично перекладена з мови оригіналу —