[ad_1]
Использование искусственного интеллекта в бизнесе, ориентированном на потребителя, растет, равно как и обеспокоенность тем, как лучше всего управлять технологией в долгосрочной перспективе. Необходимость более эффективного управления ИИ только усиливается после недавнего указа администрации Байдена, который предписывает новые протоколы измерений для разработки и использования передовых систем ИИ.
Поставщики ИИ и регулирующие органы сегодня уделяют большое внимание объяснимости как основе управления ИИ, позволяя тем, на кого влияют системы ИИ, лучше понимать и оспаривать результаты этих систем, включая предвзятость.
Хотя объяснение ИИ практично для более простых алгоритмов, таких как те, которые используются для одобрения автокредитов, более поздние технологии ИИ используют сложные алгоритмы, которые может быть чрезвычайно сложно объяснить, но все же дают значительные преимущества.
GPT-4 от OpenAI обучен на огромных объемах данных с миллиардами параметров и может производить человеческие диалоги, которые производят революцию в целых отраслях. Аналогичным образом, модели скрининга рака Google Deepmind используют методы глубокого обучения для точного выявления заболеваний, которые могут спасти жизни.
Эти сложные модели могут сделать почти невозможным отследить, где было принято решение, но это может даже не иметь смысла. Вопрос, который мы должны задать себе: должны ли мы лишать мир этих технологий, которые лишь частично объяснимы, когда мы можем гарантировать, что они приносят пользу, ограничивая при этом вред?
Даже американские законодатели, которые стремятся регулировать ИИ, быстро понимают проблемы, связанные с объяснимостью, показывая необходимость другого подхода к управлению ИИ для этой сложной технологии — подхода, более ориентированного на результаты, а не исключительно на объяснимость.
Борьба с неопределенностью вокруг новых технологий не нова
Медицинское научное сообщество уже давно осознало, что, чтобы избежать вреда при разработке новых методов лечения, необходимо сначала определить, каким может быть потенциальный вред. Чтобы оценить риск этого вреда и уменьшить неопределенность, было разработано рандомизированное контролируемое исследование.
В рандомизированном контролируемом исследовании, также известном как клиническое исследование, участников распределяют на лечебную и контрольную группы. Лечебная группа подвергается медицинскому вмешательству, а контрольная — нет, и наблюдаются результаты в обеих когортах.
Сравнивая две демографически сопоставимые когорты, можно выявить причинно-следственную связь, то есть наблюдаемое воздействие является результатом конкретного лечения.
Исторически сложилось так, что медицинские исследователи полагались на стабильную схему тестирования для определения долгосрочной безопасности и эффективности терапии. Но в мире ИИ, где система постоянно обучается, новые преимущества и риски могут возникать каждый раз, когда алгоритмы переучиваются и развертываются.
Классическое рандомизированное контрольное исследование может оказаться непригодным для оценки рисков ИИ. Но подобная структура, такая как A/B-тестирование, может оказаться полезной, которая может бесконечно измерять результаты работы системы ИИ.
Как A/B-тестирование может помочь определить безопасность ИИ
За последние 15 лет A/B-тестирование широко использовалось при разработке продуктов, когда к группам пользователей относились по-разному, чтобы измерить влияние определенного продукта или экспериментальных функций. Это может включать в себя определение того, какие кнопки на веб-странице или в мобильном приложении более кликабельны, а также когда следует отправлять маркетинговое электронное письмо.
Бывший руководитель отдела экспериментов в Bing Ронни Кохави представил концепцию непрерывного онлайн-экспериментирования. В этой системе тестирования пользователи Bing случайным образом и постоянно распределялись либо по текущей версии сайта (контрольная), либо по новой версии (обработка).
Эти группы постоянно контролировались, а затем оценивались по нескольким показателям на основе общего воздействия. Рандомизация пользователей гарантирует, что наблюдаемые различия в результатах между экспериментальной и контрольной группами обусловлены интервенционным лечением, а не чем-то другим — например, временем суток, различиями в демографических данных пользователя или каким-либо другим лечением на веб-сайте.
Эта структура позволила технологическим компаниям, таким как Bing, а затем Uber, Airbnb и многим другим, вносить итеративные изменения в свои продукты и пользовательский опыт и понимать преимущества этих изменений для ключевых бизнес-показателей. Важно отметить, что они создали инфраструктуру, чтобы делать это в больших масштабах, и теперь эти предприятия потенциально могут одновременно проводить тысячи экспериментов.
В результате у многих компаний теперь есть система для итеративного тестирования изменений в технологии по сравнению с контрольными или контрольными показателями: систему, которую можно адаптировать для измерения не только бизнес-преимуществ, таких как кликабельность, продажи и доходы, но и причинно-следственного выявления вреда, например, несопоставимого воздействия. и дискриминация.
Как выглядит эффективное измерение безопасности ИИ
Например, крупный банк может быть обеспокоен тем, что их новый алгоритм ценообразования для продуктов личного кредитования несправедлив в отношении женщин. Хотя в модели явно не используются защищенные атрибуты, такие как пол, компания обеспокоена тем, что при обучении данных могли использоваться прокси-генды пола, и поэтому ставит эксперимент.
Для участников лечебной группы цены рассчитываются по этому новому алгоритму. Для контрольной группы клиентов решения о кредитовании принимались с использованием сравнительной модели, которая использовалась в течение последних 20 лет.
Если предположить, что демографические атрибуты, такие как пол, известны, распределены поровну и в достаточном объеме между лечением и контролем, несопоставимое воздействие между мужчинами и женщинами (если таковой имеется) можно измерить и, следовательно, ответить на вопрос, справедлива ли система ИИ в обращении с женщинами.
Воздействие ИИ на людей также может происходить медленнее при контролируемом развертывании новых функций продукта, когда функция постепенно распространяется на большую часть пользовательской базы.
Альтернативно, лечение может быть сначала ограничено меньшей и менее рискованной популяцией. Например, Microsoft использует красную команду, когда группа сотрудников враждебно взаимодействует с системой искусственного интеллекта, чтобы проверить ее наиболее значительный вред, прежде чем раскрыть ее широкому населению.
Измерение безопасности ИИ обеспечивает подотчетность
Там, где объяснимость во многих случаях может быть субъективной и плохо понимаемой, оценка системы ИИ с точки зрения ее результатов в различных группах населения обеспечивает количественную и проверенную основу для определения того, действительно ли алгоритм ИИ вреден.
Что особенно важно, он устанавливает подотчетность системы ИИ, где поставщик ИИ может нести ответственность за правильное функционирование системы и ее соответствие этическим принципам. Во все более сложных средах, когда пользователей лечат с помощью множества систем искусственного интеллекта, непрерывное измерение с использованием контрольной группы может определить, какое лечение с помощью искусственного интеллекта причинило вред, и привлечь к ответственности за это лечение.
Хотя объяснимость остается в центре внимания поставщиков ИИ и регулирующих органов во всех отраслях, методы, впервые использованные в здравоохранении, а затем принятые в сфере технологий для борьбы с неопределенностью, могут помочь достичь универсальной цели — чтобы ИИ работал так, как задумано, и, что наиболее важно, был безопасный.
Кэролайн О’Брайен — директор по данным и руководитель отдела продуктов в Afiniti, компании, занимающейся искусственным интеллектом для работы с клиентами.
Элазер Р. Эдельман — профессор медицинской инженерии и науки имени Эдварда Дж. Пойтраса в Массачусетском технологическом институте, профессор медицины Гарвардской медицинской школы и старший лечащий врач отделения коронарной терапии в женской больнице имени Бригама в Бостоне.
[ad_2]
Источник