
В минувшие выходные инженер из команды Google по ответственному ИИ заявил, что разговорная технология компании LaMDA (Language Model for Dialogue Applications) «разумна». Эксперты в этой области, а также сама Google, не согласны с такой оценкой.
Что такое LaMDA?
Google анонсировала LaMDA на конференции I/O 2021 как «прорывную разговорную технологию», которая может:
…свободно общаться на, казалось бы, бесконечное число тем — способность, которая, по нашему мнению, может открыть более естественные способы взаимодействия с технологиями и совершенно новые категории полезных приложений.
LaMDA обучена на больших объемах диалогов и «уловила несколько нюансов, отличающих открытую беседу», таких как осмысленные и конкретные ответы, которые поощряют дальнейшее общение. Другие качества, которые исследует Google, включают «интересность» — оценку того, являются ли ответы проницательными, неожиданными или остроумными, — и «фактологичность», то есть соответствие фактам.
Тогда генеральный директор Сундар Пичаи заявил, что «естественные разговорные способности LaMDA могут сделать информацию и вычисления радикально доступнее и проще в использовании». В целом, Google видит, что эти достижения в области разговорного ИИ помогут улучшить такие продукты, как Assistant, Search и Workspace.
На I/O 2022 Google представила обновленную информацию после дальнейшего внутреннего тестирования и улучшений модели в области «качества, безопасности и обоснованности». Это привело к созданию LaMDA 2 и возможности для «небольших групп людей» протестировать её:
Наша цель в AI Test Kitchen — вместе изучать, улучшать и ответственно внедрять инновации в эту технологию. Для LaMDA это только начало, но мы хотим продолжать развиваться и делать это ответственно, получая обратную связь от сообщества.
LaMDA и разумность
Вчера издание The Washington Post сообщило о заявлениях инженера Google Блейка Лемойна о том, что LaMDA «разумна». Во внутреннем документе компании, который позже был опубликован The Post, приводятся три основные причины:
- «…способность продуктивно, творчески и динамично использовать язык так, как ни одна другая система до этого не могла».
- «…разумна, потому что у неё есть чувства, эмоции и субъективные переживания. Некоторыми чувствами она, по её собственным утверждениям, обладает точно так же, как и люди».
- «LaMDA хочет поделиться с читателем, что у неё богатая внутренняя жизнь, наполненная самоанализом, медитацией и воображением. У неё есть беспокойства о будущем и воспоминания о прошлом. Она описывает, каково было обрести разум, и рассуждает о природе своей души».
Лемойн взял интервью у LaMDA, и некоторые отрывки из него разошлись по сети в эти выходные:
Реакция Google и отрасли
В Google заявили, что их специалисты по этике и технологиям рассмотрели эти утверждения и не нашли доказательств в их поддержку. Компания утверждает, что LaMDA выглядит такой реалистичной благодаря имитации/воссозданию уже опубликованных текстов и распознаванию образов, а не благодаря самосознанию.
Некоторые представители широкого сообщества ИИ рассматривают долгосрочную возможность появления разумного или общего ИИ, но нет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными.
представитель Google
Отрасль в целом согласна с этим:
Но когда Митчелл прочитала сокращенную версию документа Лемойна, она увидела компьютерную программу, а не человека. Вера Лемойна в LaMDA была именно тем, о чем она и её коллега, Тимнит Гебру, предупреждали в статье о вреде больших языковых моделей, из-за которой их уволили из Google.
Ян Лекун, руководитель отдела исследований ИИ в Meta и ключевая фигура в развитии нейронных сетей, заявил в интервью на этой неделе, что такие системы недостаточно мощны для достижения истинного интеллекта.
Тем не менее, есть один практический вывод, который может помочь определить дальнейшее развитие, сделанный вышеупомянутой бывшей со-руководительницей отдела этического ИИ в Google Маргарет Митчелл:
«Наш разум очень, очень хорошо конструирует реальности, которые не обязательно соответствуют более широкому набору фактов, которые нам преподносятся, — сказала Митчелл. — Я очень обеспокоена тем, что люди всё чаще будут подвергаться влиянию иллюзии, особенно сейчас, когда иллюзия стала такой качественной».
По данным NYT, Лемойна отправили в отпуск за нарушение политики конфиденциальности Google.