[ad_1]
Нейронные сети в некоторой степени имитируют структуру человеческого мозга, поскольку их узлы обработки информации связаны друг с другом, а обработка данных протекает на иерархических уровнях. Но исторически ИИ не хватало умения комбинировать известные концепции новыми способами, называемого систематической композиционностью. Исследование, опубликованное на этой неделе в журнале Nature, демонстрирует, что теперь нейросети могут приобрести этот ключевой аспект человеческого интеллекта.
Как пояснил соавтор исследования, доцент кафедры психологии и науки о данных в Нью-Йоркском университете Бренден Лейк, если стандартная нейронная сеть выучит слова «прыжок», «дважды» и «по кругу», ей необходимо показать множество примеров того, как эти слова можно объединить в значимые фразы, такие как «двойной прыжок» и «прыгай по кругу». Но если системе затем дать новое слово, например «вращение», ей снова придется просмотреть кучу примеров, чтобы научиться применять его аналогичным образом.
В новом исследовании Бренден Лейк вместе с Марко Барони из Университета Помпеу Фабра в Барселоне протестировали как модели искусственного интеллекта, так и людей-добровольцев, используя вымышленный язык с такими словами, как dax и wif. Эти слова соответствовали либо цветным точкам, либо функции, которая влияла на порядок этих точек в последовательности. Получив бессмысленную фразу, ИИ и люди должны были выяснить основные «грамматические правила», определяющие, какие точки подходят к словам.
Участники-люди воспроизводили правильные последовательности точек примерно в 80% случаев. После тестирования семи моделей ИИ Лейк и Барони остановились на методе, называемом метаобучением для композиционности (MLC), который позволяет нейронной сети практиковаться в применении различных наборов правил к вновь выученным словам, а также дает обратную связь о том, применяет ли она правила верно. Обученная таким образом нейронная сеть соответствовала результатам людей в этих тестах или превосходила их. А когда ученые добавили данные о распространенных ошибках людей, модель ИИ допустила те же ошибки.
«Они добились впечатляющих успехов в этой задаче — вычислении смысла предложений, — сказал Пол Смоленский, профессор когнитивных наук в Университете Джонса Хопкинса (США) и старший научный сотрудник Microsoft Research, который не участвовал в исследовании. — Однако способность модели к обобщению все еще ограничена. ИИ мог работать с теми типами предложений, на которых обучался, но не мог обобщать новые типы предложений».
По его мнению, эта работа все же является важным шагом, потому что прежде «не удавалось научить нейросеть быть полностью композиционной».
Напомним, в этом году исследователи из Оксфордского университета создали новые алгоритмы, которые позволяют искусственному интеллекту учиться подобно мозгу человека.
Изображение: Unsplash
[ad_2]
Источник