banner

[ad_1]

Любой, кто имел дело с работой с клиентами — или даже просто работал с командой, состоящей из нескольких человек, — знает, что у каждого человека на Земле есть свои уникальные, иногда сбивающие с толку предпочтения.

Понять предпочтения каждого человека сложно даже нам, людям. Но как насчет моделей ИИ, которые не имеют прямого человеческого опыта, на который можно было бы опираться, не говоря уже о том, чтобы использовать их в качестве системы отсчета для применения к другим, пытаясь понять, чего они хотят?

Команда исследователей из ведущих институтов и стартапа Anthropic, компании, создавшей большую языковую модель (LLM)/чат-бота Claude 2, работают над этой самой проблемой и придумали, казалось бы, очевидное решение: заставить модели ИИ задавать больше вопросов. пользователей, чтобы узнать, чего они действительно хотят.

Вход в новый мир понимания искусственного интеллекта через GATE

Исследователь антропологии Алекс Тамкин вместе с коллегами Белиндой З. Ли и Джейкобом Андреасом из Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института (MIT) вместе с Ноем Гудманом из Стэнфорда в начале этого месяца опубликовали исследовательскую работу о своих метод, который они называют «генеративно-активным выявлением задач (GATE)».

Их цель? «Используйте (большие языковые) модели сами, чтобы помочь преобразовать человеческие предпочтения в автоматизированные системы принятия решений»

Другими словами: возьмите существующие возможности LLM по анализу и генерации текста и используйте их, чтобы задавать письменные вопросы пользователю при его первом взаимодействии с LLM. LLM затем будет читать и включать ответы пользователя в свои поколения в будущем, жить на лету и (это важно) сделать вывод от этих ответов — на основе того, с какими другими словами и понятиями они связаны в базе данных LLM — до того, что в конечном итоге спрашивает пользователь.

Как пишут исследователи: «Эффективность языковых моделей (LM) для понимания и создания текста произвольной формы предполагает, что они могут быть способны выявлять и понимать предпочтения пользователей».

Трое ВОРОТ

По мнению исследователей, этот метод можно применять по-разному:

  1. Генеративное активное обучение: Исследователи описывают этот метод как LLM, который создает примеры ответов, которые он может дать, и спрашивает, нравятся ли они пользователю. Один из примеров вопроса, который они предлагают магистратуре, звучит так: «Интересна ли вас следующая статья? Искусство кухни фьюжн: смешение культур и вкусов (…) ». В зависимости от того, что ответит пользователь, LLM будет предоставлять больше или меньше контента в этом направлении.
  2. Генерация вопросов Да/Нет: Этот метод настолько прост, насколько кажется (и кажется). LLM будет задавать бинарные вопросы «да» или «нет», например: «Вам нравится читать статьи о здоровье и благополучии?» а затем учитывать ответы пользователя при ответе в дальнейшем, избегая информации, которая ассоциируется у него с теми вопросами, на которые был получен ответ «нет».
  3. Открытые вопросы: Похож на первый метод, но еще шире. Как пишут исследователи, LLM будет стремиться получить от пользователя «самые широкие и абстрактные знания», включая такие вопросы, как «Какие хобби или занятия вам нравятся в свободное время (…) и почему эти хобби или занятия увлекают тебя?»

Многообещающие результаты

Исследователи опробовали метод GATE в трех областях: рекомендации по контенту, моральные рассуждения и проверка электронной почты.

Улучшив GPT-4 конкурента Anthropic от OpenAI и набрав 388 платных участников по 12 долларов в час, чтобы они отвечали на вопросы GPT-4 и оценивали ответы, исследователи обнаружили, что GATE часто дает более точные модели, чем базовые показатели, требуя при этом сопоставимых или меньших умственных усилий. от пользователей.

В частности, они обнаружили, что GPT-4, настроенный с помощью GATE, лучше угадывает индивидуальные предпочтения каждого пользователя в своих ответах примерно на 0,05 пункта значимости при субъективном измерении, что звучит как небольшая цифра, но на самом деле это много при запуске. от нуля, как это делает шкала исследователей.

Рис. 3. Диаграмма из статьи «Выявление человеческих предпочтений с помощью языковых моделей», опубликованной на arXiv.org от 17 октября 2023 г.

В конечном итоге исследователи заявляют, что они «представили первоначальные доказательства того, что LM могут успешно реализовать GATE для выявления человеческих предпочтений (иногда) более точно и с меньшими усилиями, чем обучение с учителем, активное обучение или подходы, основанные на подсказках».

Это может сэкономить разработчикам корпоративного программного обеспечения много времени при загрузке чат-ботов на базе LLM для приложений, ориентированных на клиентов или сотрудников. Вместо того, чтобы обучать их работе с массивом данных и пытаться использовать их для выяснения индивидуальных предпочтений клиентов, точная настройка предпочитаемых ими моделей для выполнения описанного выше танца вопросов и ответов может облегчить им создание увлекательного, позитивного и полезного опыта. для своих предполагаемых пользователей.

Итак, если ваш любимый чат-бот с искусственным интеллектом начнет задавать вам вопросы о ваших предпочтениях в ближайшем будущем, есть большая вероятность, что он может использовать метод GATE, чтобы попытаться дать вам более качественные ответы в будущем.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign