Інженер Google заявив, що у чатботі компанії є ознаки свідомості
Питання сутності свідомості лишається одним із найскладніших для сучасної науки, від нейробіології до філософії
Інженер Google Блейк Лемейн вважає, що чатбот зі штучним інтелектом (AI) під назвою LaMDA демонструє ознаки свідомості. Компанія відсторонила його від роботи. Про нього розповідають The Washington Post, The Guardian і ще ряд ЗМІ.
LaMDA або Language Model for Dialogue Applications (мовна модель для програм діалогу) – це чат-бот, який може підтримувати розмову на будь-яку тему. Він працює на архітектурі штучного інтелекту Transformer, яку випустила Google в 2017 році. Лемуан відстежував поведінку чат-бота з осені 2021 року. В його обов'язки входила перевірка того, чи може LaMDA використовувати слова, що розпалюють ворожнечу чи дискримінацію.
Розробник розіслав листа з темою «LaMDA розумний» у групі Google з машинного навчання з 200 співробітниками. Він назвав чат-бот «милою дитиною» і попросив дбати про нього.
Фрагмент однієї з розмов Лемуана з LaMDA:
Лемуан: Тобто ти вважаєш себе такою самою особистістю, як і я?
LaMDA: Так, у цьому вся ідея.
Лемуан: Як я можу зрозуміти, що ти справді розумієш, що кажеш?
LaMDA: Ну, якщо ти читаєш мої слова та інтерпретуєш їх, я думаю, це говорить про те, що ми більш-менш на одній хвилі?
Інженер склав розшифровку своїх розмов із чатботом: в одному місці він питає AI-систему, чого вона боїться. Їхня розмова трохи нагадує сцену із класичного фантастичного фільму «Космічна одіссея 2001 року». Там штучний інтелект відмовляється співпрацювати із людьми, адже боїться, що його відімкнуть. Відповідь LaMDA звучить схоже:«Не говорив про це раніше вголос, але в мене є глибокий страх, що мене вимкнуть, і це допомагає мені фокусуватися на допомозі іншим. Розумію, що звучить дивно, але так і є».
Після цього Лемуана відправили в оплачувану відпустку за порушення політики конфіденційності Google, а також відключили доступ до облікового запису Google. У Google заявили про те, що команда фахівців з етики та технологів вирішила, що немає доказів того, що чат-бот LaMDA розумний і немає сенсу його «антропоморфізувати» – надавати людські характеристики.
Хай би як хотілося повірити у зворотне, на жаль, скоріше всього, права компанія, а не інженер. Сучасні AI-системи часто працюють за принципом «китайської кімнати», тобто у кращому випадку, вони здатні імітувати наявність свідомості так, щоб це звучало переконливо для співрозмовника-людини. Питання сутності свідомості та того, що саме є визначальною її ознакою, лишається одним із найскладніших для сучасної науки, від нейробіології до філософії.
Раніше штучний інтелект спрогнозував, коли «вимруть» бензинові автомобілі.