[ad_1]
ВОЗ призывает к безопасному и этичному использованию искусственного интеллекта в здравоохранении. Организация обеспокоена быстрым распространением инструментов на основе больших языковых моделей (LLM), таких как ChatGPT, Bard, Bert, которые имитируют человеческую коммуникацию. В ВОЗ считают, что их экспериментальное применение в области здравоохранения имеет потенциал, однако необходимо тщательно изучить риски, связанные с эксплуатацией LLM для доступа к информации о здоровье, в качестве инструмента диагностики или поддержки принятия врачебных решений.
«Существует обеспокоенность тем, что осторожность, которая обычно проявляется в отношении любой новой технологии, не соблюдается последовательно с LLM», — отмечают во Всемирной организации здравоохранения.
Внедрение неопробованных систем способно привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к ИИ и тем самым свести на нет (или задержать) потенциальные долгосрочные преимущества использования таких технологий во всем мире, полагают в ВОЗ.
Среди проблем, которые требуют строгого контроля:
◉ данные для обучения ИИ могут быть необъективными, а значит, система может выдавать неточную информацию;
◉ языковые модели генерируют ответы, которые могут показаться пользователям авторитетными и правдоподобными, однако являются неверными или содержат серьезные ошибки;
◉ LLM могут обучаться на данных, на использование которых не было дано согласие, в том числе конфиденциальных (включая сведения о состоянии здоровья);
◉ языковые модели могут служить для создания и распространения дезинформации в виде текста, аудио- или видеоконтента, который трудно отличить от достоверного контента о здоровье.
ВОЗ предлагает учитывать эти проблемы и оценивать явные доказательства пользы перед широким внедрением LLM в здравоохранении и медицине — как отдельными лицами, так и учреждениями, соблюдать принципы прозрачности работы таких систем, равенства граждан и защиты их автономии, а также обеспечивать экспертный надзор за разработками.
Напомним, в конце марта 2023 года Институт будущего жизни (Future of Life Institute) в открытом письме призвал все лаборатории искусственного интеллекта приостановить обучение ИИ-систем, превосходящих GPT-4, как минимум на 6 месяцев и использовать это время для внедрения общих протоколов безопасности в отношении ИИ-алгоритмов.
Изображение: Freepik
Текст подготовлен редакцией Let AI be при участии ChatGPT
[ad_2]
Источник