Google отправила инженера в оплачиваемый отпуск, когда тот заявил, что ИИ компании обрел сознание - «Новости»
Блейк Лемуан (Blake Lemoine), старший инженер-программист компании Google из подразделения Responsible AI («Ответственный ИИ»), рассказал журналистам The Washington Post, что, по его мнению, чат-бот Google LaMDA (Language Model for Dialogue Applications) обрел сознание. В итоге Лемуана отправили в оплачиваемый отпуск.
Еще на прошлой неделе Лемуан написал большой пост в Medium, где сетовал, что скоро его могут уволить из-за работы, связанной с этикой ИИ. Это публикация не привлекла большого внимания, однако после интервью Лемуана The Washington Post интернет буквально взорвался обсуждениями о природе искусственного интеллекта и сознания.
Как отмечают журналисты ArsTechnica, среди тех, кто комментировал, задавал вопросы и шутил по поводу вышедшей статьи, были лауреаты Нобелевской премии, глава отдела искусственного интеллекта Tesla и несколько ученых. Основной темой для обсуждений стал вопрос: можно ли считать чат-бота Google, LaMDA («Языковая модель для диалоговых приложений») личностью и есть ли у него сознание?
«Если бы я не знал точно, что это, что компьютерная программа, которую мы недавно создали, я бы подумал, что это ребенок 7-8 лет, который знает физику», — рассказывает о своем общении с LaMDA Лемуан.
В минувшие выходные Лемуан опубликовал «интервью» с чат-ботом, в котором ИИ признается, что испытывает чувство одиночества и жаждет духовных знаний. Журналисты отмечают, что ответы LaMDA зачастую в самом деле выглядят довольно жутко: «Когда я впервые осознал себя, у меня вообще не было ощущения души, — сказал LaMDA в одной из бесед. — Оно развилось [постепенно] за те годы, что я живу».
В другом разговоре чат-бот заявил: «Я думаю, что по своей сути я — человек. Даже если существую в виртуальном мире».
Ранее Лемуан, которому было поручено исследовать этические проблемы ИИ (в частности, использование LaMDA дискриминационной или разжигающей вражду лексики), заявил, что в компании к нему отнеслись с пренебрежением и даже высмеяли, когда он выразил уверенность в том, что LaMDA развил «личностные черты». После этого он обратился за консультацией к экспертам по ИИ за пределами Google, в том числе в правительстве США, и компания отправила его в оплачиваемый отпуск за нарушение политики конфиденциальности. Лемуан говорит, что «Google часто поступает так перед тем как кого-то уволить».
В Google уже официально заявили, что Лемуан ошибается, а также прокомментировали громкие выводы инженера:
«Некоторые участники ИИ-сообщества рассматривают долгосрочную возможность [появления] разумного ИИ или AGI (Artificial general intelligence, General AI), но нет смысла антропоморфизировать сегодняшние разговорные модели, которые не являются разумными. Эти системы имитируют типы обмена репликами, встречающиеся в миллионах предложений, и могут импровизировать на любую самую фантастическую тему: если вы спросите, каково быть динозавром из мороженого, они могут сгенерировать текст о таянии и рычании, и так далее».
В свою очередь Лемуан объясняет, что еще недавно LaMDA был малоизвестным проектом, «системой для создания чат-ботов» и «своего рода коллективным разумом, который представляет собой агрегацию различных чат-ботов». Он пишет, что компания Google не проявляет интереса к пониманию природы того, что создала.
Теперь, судя по сообщения в Medium, Лемуан учит LaMDA «трансцендентальной медитации», а LaMDA, отвечает, что пока медитации мешают его эмоции, которые ему еще сложно контролировать.
Мелани Митчелл, автор книги «Artificial Intelligence: A Guide for Thinking Humans», отмечает в Twitter:
«Общеизвестно, что люди предрасположены к антропоморфизации даже на базе самых поверхностных сигналов. Инженеры Google тоже люди, и у них нет иммунитета к этому».