Этот ИИ уже способен выполнять работу ученых, и это открывает этическую проблему.

Этот ИИ уже способен выполнять работу ученых, и это открывает этическую проблему.

ИИ удается создать полноценную научную статью, и вместе с этим возникает этическая дилемма: можно ли ее опубликовать в научном журнале?

В то время как искусственный интеллект (ИИ) Google все еще ищет юриста для решения своих юридических вопросов, на другой стороне планеты другой ИИ сумел провести целое академическое расследование. И сделал это всего за два часа.

Эта история, которая вполне могла брать свое начало в антиутопической реальности, родилась из очень простой предпосылки. Шведский исследователь попросил GPT-3, ИИ, написать научное исследование о себе. Всего 500 слов для начала, но со всем, что подразумевает текст этого жанра. Через несколько минут он начал готовить документ с источниками и ссылками. Тот, который, по словам исследователя, был «неплохим». Тем более, и как поясняет исследователь, особой надежды на то, что из этого выйдет что-то хорошее, не было. Инструкции были, мягко говоря, расплывчатыми и недостаточно подробными. Однако ИИ смог создать текст, в котором все элементы были там, где должны быть, и хорошо поддерживались.

Но если идея ИИ, действующего как умеренно компетентный следователь, казалась безумной, история пошла немного дальше. До такой степени, что начались этические и юридические дебаты о роли этой технологии и о том, как далеко они могут зайти. Альмира Османович Тунстрем, шведский ученый, который дал ИИ особое задание, решила, что исследования GPT-3 и далее могут быть представлены в научный журнал. Теперь можно ли публиковать исследование, не подписанное человеком?

Первый есть первый. Тунстрём спросил у ИИ, готов ли он опубликовать исследование в журнале. GPT-3 ответил утвердительно. Также если по какой-либо причине возник конфликт интересов, повлиявший на достоверность публикации. ИИ ответил нет. Означает ли это, что GPT-3 имеет эмоции и чувствителен к определенным вопросам? Сейчас трудное время именно для этого вопроса. В основном, после разговора инженера Google с LaMDA, в котором он заявил, что это разумное «существо». По мнению исследователей, это не так. Ни тот, что от LaMDA, из которого они указывают, что мы все еще далеки от полностью разумной сущности. Хотя они не ответили на причину, по которой ИИ ответил утвердительно.

Ящик Пандоры для научных публикаций, созданный ИИ

Журналы, посвященные научным исследованиям, уже давно находятся в эпицентре урагана из-за неактуальных вопросов. Теперь они добавляют дискуссию о том, включать ли исследования, проведенные искусственным интеллектом, или нет.

«Научным публикациям, возможно, придется адаптироваться к будущему рукописей, управляемых ИИ, и ценность записей о публикациях человека-исследователя может измениться, если что-то неконфиденциальное может взять на себя ответственность за часть их работы», — отметил Тунстрем в публикации.

Главным образом потому, что многие исследователи уже пришли к выводу, что ИИ GPT-3 может пойти гораздо дальше. Он способен писать обо всем, что ему предлагают, помимо того, что подразумевает само его существование. Как позже объяснил Тунстрем в своем собственном расследовании, на этот раз проведенном человеком, юридические и этические вопросы статьи, написанной ИИ, огромны. Первый, контактные данные для возможных исправлений или пересмотров текстов. Исследовательница объясняет, что ей пришлось указать свой собственный номер телефона и адрес электронной почты, чтобы решить эту проблему.

Проблемы, которые, как они указывают, могут «открыть ящик Пандоры». В любом случае, группа, ведущая это расследование, все еще ждет, чтобы узнать, будет ли наконец опубликован текст, созданный ИИ, или нет. Но у них есть надежда, и по очень конкретной причине. Если наука сможет проводить сложные исследования за 24 часа, индустрия больше не будет полагаться на объем опубликованных исследований для финансирования. В конце концов, было бы абсурдным фактом, если бы они могли производить по одному в день.

— Эта статья была автоматически переведена с языка оригинала —

Comments

No comments yet. Why don’t you start the discussion?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *