[ad_1]
Системы искусственного интеллекта перед началом работы должны показывать предупреждение о возможных рисках. В этом убеждены участники дискуссии по теме «Этика в сфере искусственного интеллекта: от разработчика к пользователю», которая состоялась 17 августа в рамках международной конференции AI IN 2023.
Эксперты вывели на экран 7 тезисов, которые могут послужить пользователю дисклеймером (предупреждением о возможных последствиях и ответственности) при применении той или иной системы ИИ:
1. Разработчики сделали все возможное, чтобы их решения, при правильном использовании, помогли бы мне получить от них максимальную пользу.
2. Мое общение с системами ИИ на самом деле является общением со всеми людьми, которые их создали и (или) оставили там свои данные.
3. Информация, полученная при работе с системами ИИ, может быть, несмотря на усилия разработчиков, неправильной и устаревшей.
4. Если я неточно сформулировал запрос или неправильно понял ответ системы, то ни разработчики, ни те, кто предоставлял данные, не несут за это ответственность.
5. Работая с системами ИИ, я, как и в повседневном общении, никогда не допускаю унижения других людей в отношении их расы, возраста, религии, пола и состояния здоровья.
6. Если системы ИИ в чем-то нарушают мои личные культурные убеждения, то я не рассматриваю это как намеренную попытку оскорбить меня.
7. Верю, что разработчики стараются создать максимально безопасные системы ИИ, и чем точнее я следую их рекомендациям, тем более защищенным я себя чувствую.
Эти пункты не итоговые, но могут служить наглядным примером того, как можно проинформировать пользователя о возможных рисках эксплуатации инструмента ИИ и о тех ошибках, которые может допустить сама нейросеть.
Как считает Александр Крайнов, директор по развитию технологий искусственного интеллекта «Яндекса», ответственность разработчика состоит в том, чтобы предупредить пользователя: искусственный интеллект может допускать ошибки. Далее уже сам пользователь решает, работать с выбранным инструментом или нет.
Сегодня люди привыкают к тому, что ответы машины часто бывают правильными, и перестают их анализировать — в этом случае не стоит просить нейронную сеть решать те вопросы, в которых пользователь не разбирается, уверен эксперт.
А ректор Университета Иннополис Александр Тормасов отметил: если пользоваться системой так, как она предназначена для этого, то результат будет гораздо приятнее, лучше и безопаснее для пользователя и для окружающего мира.
Проблема неэтичного применения продуктов сегодня особенно актуальна. Это отражается в разных формах: многочисленных жалобах, направленных компаниям по поводу работы их систем, претензиях пользователей друг к другу, обращениях в госорганы, судебных делах.
«Было бы здорово, если бы получилось через внедрение этих принципов немного повысить уровень культуры использования и решений в целом», — считает Татьяна Войтас, директор по правовому сопровождению продуктов, технологий и данных «Авито».
С внедрением ИИ-систем для широкого круга потребителей речь идет о старых постулатах этики, только уже в новом контексте. По мнению Елены Сурагиной, руководителя направления по регулированию искусственного интеллекта МТС, необходимо обратить внимание на просветительскую сторону вопроса, то есть нужно объяснять, чем чревато использование ИИ, если вести себя деструктивно и неэтично.
В качестве примеров спикер привела несанкционированную обработку данных другого человека и вторжение в его личную жизнь со стороны пользователя с помощью технологии распознавания лиц для незаконной идентификации или слежки.
Так, в Китае обрабатывать лицо или голос человека с помощью технологии Deepfake можно только с его согласия. В данном случае в силу вступил закон, который должен защитить людей от создания дипфейков с их участием без разрешения.
Наравне с установлением принципов этики пользователя стоит формирование принципов этики разработчика. На сегодняшний день необходимо правильное распределение ответственности среди создателей ИИ-инструментов и людей, использующих эти алгоритмы.
«Принципы этики пользователя вместе с принципами этики разработчика составляют единую систему, у которой одна общая цель — безопасный прогресс, безопасное внедрение технологий», — подчеркнула Елена Сурагина.
Кроме того, при соблюдении этики со стороны разработчиков выгод для организации будет гораздо больше, чтобы в дальнейшем развиваться и не столкнуться с негативными последствиями. Этот принцип более очевиден крупным компаниям, чем стартаперам. Например, Александр Крайнов считает, что выживаемость компании вдолгую зависит от ее репутации, от того, насколько она хорошо себя ведет по отношению к пользователю. Конечно, нет 100% гарантии, что все организации станут соблюдать те этические правила, которые им предписываются, но многие будут стараться сделать все возможное для их выполнения. Напомним, российский Кодекс этики искусственного интеллекта был представлен в 2021 году, его уже подписали около 200 организаций.
Чтобы получить комплексный взгляд на проблему неэтичного поведения пользователя, требуются междисциплинарные усилия: не только разработчики и IT-специалисты, но еще и психологи, антропологи, социологи, философы, юристы и так далее. На это обратила внимание Юлия Таратухина, кандидат филологических наук, старший научный сотрудник Института проблем управления РАН, доцент Высшей школы экономики.
Для пользователей нужно обеспечить хорошие образовательные программы, полезные ролики и рекомендации по применению инструментов ИИ, чтобы доступ к технологиям помог сделать жизнь людей удобнее и лучше, заключили эксперты.
Текст: Юлия Быстрова
[ad_2]
Источник