banner

[ad_1]

Последнее время все чаще слышны разговоры о том, что искусственный интеллект может обрести сознание. Но что для этого действительно нужно? В прошлом году инженер Google, Блейк Лемуан, заявил, что чат-бот компании LaMDA обрел способность осознавать окружающий мир.

Почему ChatGPT пока не разумен, а будущие ИИ могут стать сознательными

По словам Лемуана, программа обладала разговорными способностями семилетнего ребенка, и мы должны были предположить, что она обладает аналогичной осведомленностью о мире.

LaMDA, позже ставшая общедоступной под названием Bard, работает на основе «большой языковой модели» (LLM), подобной той, что лежит в основе бота ChatGPT компании OpenAI. Другие крупные технологические компании спешат внедрить аналогичную технологию.

Сотни миллионов людей уже получили возможность поиграть с LLM, но мало кто верит в то, что они обладают сознанием. Вместо этого, по поэтическому выражению лингвиста и специалиста по изучению данных Эмили Бендер, они представляют собой «стохастических попугаев», которые убедительно болтают, ничего не понимая. Но как быть со следующим поколением систем искусственного интеллекта (ИИ) и последующими?

Наша группа философов, нейробиологов и компьютерщиков, опираясь на современные научные теории работы человеческого сознания, составила список основных вычислительных свойств, которыми, вероятно, должна обладать гипотетически сознательная система. По нашему мнению, ни одна из современных систем не приближается к планке сознания, но в то же время нет никаких очевидных причин, по которым будущие системы не смогут стать по-настоящему сознательными.

Поиск индикаторов

С тех пор как в 1950 г. пионер вычислительной техники Алан Тьюринг предложил свою «Игру в имитацию», способность успешно выдавать себя за человека в разговоре часто принималась за надежный маркер сознания. Обычно это объясняется тем, что задача казалась настолько сложной, что для ее решения необходимо сознание.

Однако, как и в случае с победой шахматного компьютера Deep Blue над гроссмейстером Гари Каспаровым в 1997 году, разговорная беглость LLM может просто сдвинуть точку отсчета. Существует ли принципиальный способ подойти к вопросу о сознании ИИ, который не опирался бы на наши интуитивные представления о том, что является сложным или особенным в человеческом познании?

Именно на это направлена наша недавняя статья. Мы сравнили существующие научные теории о том, что делает человека сознательным, и составили список «индикаторных свойств», которые затем можно применить к системам ИИ.

Мы не считаем, что системы, обладающие индикаторными свойствами, обязательно обладают сознанием, но чем больше индикаторов, тем серьезнее мы должны относиться к заявлениям о сознании ИИ.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign