banner

[ad_1]

ВОЗ призывает к безопасному и этичному использованию искусственного интеллекта в здравоохранении. Организация обеспокоена быстрым распространением инструментов на основе больших языковых моделей (LLM), таких как ChatGPT, Bard, Bert, которые имитируют человеческую коммуникацию. В ВОЗ считают, что их экспериментальное применение в области здравоохранения имеет потенциал, однако необходимо тщательно изучить риски, связанные с эксплуатацией LLM для доступа к информации о здоровье, в качестве инструмента диагностики или поддержки принятия врачебных решений.

«Существует обеспокоенность тем, что осторожность, которая обычно проявляется в отношении любой новой технологии, не соблюдается последовательно с LLM», — отмечают во Всемирной организации здравоохранения.

Внедрение неопробованных систем способно привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к ИИ и тем самым свести на нет (или задержать) потенциальные долгосрочные преимущества использования таких технологий во всем мире, полагают в ВОЗ.

Среди проблем, которые требуют строгого контроля:

◉ данные для обучения ИИ могут быть необъективными, а значит, система может выдавать неточную информацию;

◉ языковые модели генерируют ответы, которые могут показаться пользователям авторитетными и правдоподобными, однако являются неверными или содержат серьезные ошибки;

◉ LLM могут обучаться на данных, на использование которых не было дано согласие, в том числе конфиденциальных (включая сведения о состоянии здоровья);

◉ языковые модели могут служить для создания и распространения дезинформации в виде текста, аудио- или видеоконтента, который трудно отличить от достоверного контента о здоровье.

ВОЗ предлагает учитывать эти проблемы и оценивать явные доказательства пользы перед широким внедрением LLM в здравоохранении и медицине — как отдельными лицами, так и учреждениями, соблюдать принципы прозрачности работы таких систем, равенства граждан и защиты их автономии, а также обеспечивать экспертный надзор за разработками.

Напомним, в конце марта 2023 года Институт будущего жизни (Future of Life Institute) в открытом письме призвал все лаборатории искусственного интеллекта приостановить обучение ИИ-систем, превосходящих GPT-4, как минимум на 6 месяцев и использовать это время для внедрения общих протоколов безопасности в отношении ИИ-алгоритмов.

Изображение: Freepik

Текст подготовлен редакцией Let AI be при участии ChatGPT

 

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign