[ad_1]
Любой, кто имел дело с работой с клиентами — или даже просто работал с командой, состоящей из нескольких человек, — знает, что у каждого человека на Земле есть свои уникальные, иногда сбивающие с толку предпочтения.
Понять предпочтения каждого человека сложно даже нам, людям. Но как насчет моделей ИИ, которые не имеют прямого человеческого опыта, на который можно было бы опираться, не говоря уже о том, чтобы использовать их в качестве системы отсчета для применения к другим, пытаясь понять, чего они хотят?
Команда исследователей из ведущих институтов и стартапа Anthropic, компании, создавшей большую языковую модель (LLM)/чат-бота Claude 2, работают над этой самой проблемой и придумали, казалось бы, очевидное решение: заставить модели ИИ задавать больше вопросов. пользователей, чтобы узнать, чего они действительно хотят.
Вход в новый мир понимания искусственного интеллекта через GATE
Исследователь антропологии Алекс Тамкин вместе с коллегами Белиндой З. Ли и Джейкобом Андреасом из Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института (MIT) вместе с Ноем Гудманом из Стэнфорда в начале этого месяца опубликовали исследовательскую работу о своих метод, который они называют «генеративно-активным выявлением задач (GATE)».
Их цель? «Используйте (большие языковые) модели сами, чтобы помочь преобразовать человеческие предпочтения в автоматизированные системы принятия решений»
Другими словами: возьмите существующие возможности LLM по анализу и генерации текста и используйте их, чтобы задавать письменные вопросы пользователю при его первом взаимодействии с LLM. LLM затем будет читать и включать ответы пользователя в свои поколения в будущем, жить на лету и (это важно) сделать вывод от этих ответов — на основе того, с какими другими словами и понятиями они связаны в базе данных LLM — до того, что в конечном итоге спрашивает пользователь.
Как пишут исследователи: «Эффективность языковых моделей (LM) для понимания и создания текста произвольной формы предполагает, что они могут быть способны выявлять и понимать предпочтения пользователей».
Трое ВОРОТ
По мнению исследователей, этот метод можно применять по-разному:
- Генеративное активное обучение: Исследователи описывают этот метод как LLM, который создает примеры ответов, которые он может дать, и спрашивает, нравятся ли они пользователю. Один из примеров вопроса, который они предлагают магистратуре, звучит так: «Интересна ли вас следующая статья? Искусство кухни фьюжн: смешение культур и вкусов (…) ». В зависимости от того, что ответит пользователь, LLM будет предоставлять больше или меньше контента в этом направлении.
- Генерация вопросов Да/Нет: Этот метод настолько прост, насколько кажется (и кажется). LLM будет задавать бинарные вопросы «да» или «нет», например: «Вам нравится читать статьи о здоровье и благополучии?» а затем учитывать ответы пользователя при ответе в дальнейшем, избегая информации, которая ассоциируется у него с теми вопросами, на которые был получен ответ «нет».
- Открытые вопросы: Похож на первый метод, но еще шире. Как пишут исследователи, LLM будет стремиться получить от пользователя «самые широкие и абстрактные знания», включая такие вопросы, как «Какие хобби или занятия вам нравятся в свободное время (…) и почему эти хобби или занятия увлекают тебя?»
Многообещающие результаты
Исследователи опробовали метод GATE в трех областях: рекомендации по контенту, моральные рассуждения и проверка электронной почты.
Улучшив GPT-4 конкурента Anthropic от OpenAI и набрав 388 платных участников по 12 долларов в час, чтобы они отвечали на вопросы GPT-4 и оценивали ответы, исследователи обнаружили, что GATE часто дает более точные модели, чем базовые показатели, требуя при этом сопоставимых или меньших умственных усилий. от пользователей.
В частности, они обнаружили, что GPT-4, настроенный с помощью GATE, лучше угадывает индивидуальные предпочтения каждого пользователя в своих ответах примерно на 0,05 пункта значимости при субъективном измерении, что звучит как небольшая цифра, но на самом деле это много при запуске. от нуля, как это делает шкала исследователей.
В конечном итоге исследователи заявляют, что они «представили первоначальные доказательства того, что LM могут успешно реализовать GATE для выявления человеческих предпочтений (иногда) более точно и с меньшими усилиями, чем обучение с учителем, активное обучение или подходы, основанные на подсказках».
Это может сэкономить разработчикам корпоративного программного обеспечения много времени при загрузке чат-ботов на базе LLM для приложений, ориентированных на клиентов или сотрудников. Вместо того, чтобы обучать их работе с массивом данных и пытаться использовать их для выяснения индивидуальных предпочтений клиентов, точная настройка предпочитаемых ими моделей для выполнения описанного выше танца вопросов и ответов может облегчить им создание увлекательного, позитивного и полезного опыта. для своих предполагаемых пользователей.
Итак, если ваш любимый чат-бот с искусственным интеллектом начнет задавать вам вопросы о ваших предпочтениях в ближайшем будущем, есть большая вероятность, что он может использовать метод GATE, чтобы попытаться дать вам более качественные ответы в будущем.
[ad_2]
Источник