[ad_1]
Стремительное развитие ИИ-систем и попытки их повсеместного внедрения вызывают и оптимизм, и опасения. Искусственный интеллект способен помочь человеку в самых разных областях деятельности, и индустрия кибербезопасности знает об этом не понаслышке. Например, мы в «Лаборатории Касперского» применяем машинное обучение уже почти 20 лет и точно знаем, что без ИИ-систем в принципе невозможно защититься от гигантского количества существующих киберугроз. За это время мы идентифицировали и широкий спектр проблем, которые могут порождаться использованием ИИ — от обучения на некорректных данных и злонамеренных атак на ИИ-системы до применения ИИ в неэтичных целях.
Различные площадки и международные организации уже разработали общие принципы этичного ИИ (например, вот рекомендации ЮНЕСКО), однако более конкретные руководства для индустрии кибербезопасности пока не стали общепринятыми.
Чтобы применять искусственный интеллект в кибербезопасности без негативных последствий, мы предлагаем индустрии принять Этические принципы ИИ (AI ethical principles), первую версию которых мы представляем на проходящем в эти дни в Киото саммите ООН Internet Governance Forum. Разумеется, принципы требуют обсуждения в индустриальном сообществе и уточнения, однако мы их придерживаемся уже сейчас. Что же это за принципы? Вот краткая версия.
Прозрачность и объяснимость
Пользователь имеет право знать, что обеспечивающая его безопасность компания использует ИИ-системы. Знать, в каких целях и каким образом эти системы принимают решения. Поэтому мы обязуемся разрабатывать системы ИИ, работа которых интерпретируема и объяснима в максимально возможном объеме, а также внедрять необходимые предосторожности и защитные меры, чтобы ИИ-системы генерировали корректные результаты. При необходимости с кодом, техническими и бизнес-процессами «Лаборатории Касперского» можно ознакомиться посетив один из наших центров прозрачности.
Безопасность использования
Среди угроз, связанных с использованием ИИ систем, важное место занимают атаки, в которых кто-то манипулирует входными данными, чтобы спровоцировать ИИ на неверное решение. Поэтому мы считаем, что разработчики ИИ должны иметь своим приоритетом устойчивость и безопасность ИИ.
Для этого мы принимаем целый ряд практических мер, обеспечивающих высокое качество ИИ-систем: аудиты безопасности с фокусом на специфику ИИ и red-teaming, минимизацию использования сторонних наборов данных в обучении и целый ансамбль различных технологий для создания многослойной защиты. По возможности рекомендуем предпочитать ИИ, основанный на облачных технологиях (с применением необходимых предосторожностей) вместо локально установленных моделей.
Человеческий контроль
Хотя наши системы машинного обучения могут работать автономно, результаты и качество их работы постоянно отслеживаются специалистами. При необходимости вердикты автоматических систем корректируются, а сами системы адаптируются и модифицируются экспертами, чтобы противостоять принципиально новым или очень сложным киберугрозам. Мы комбинируем машинное обучение и человеческий опыт и обязуемся всегда сохранять этот человеческий элемент контроля в наших системах.
Конфиденциальность
Обучение ИИ невозможно без огромных массивов информации, при этом их часть может оказаться персональными данными. Этичный подход к обучению требует, чтобы права человека на защиту личных данных строго соблюдались. На практике в ИБ это может выражаться в целом ряде мер: ограничении типов и количества обрабатываемых данных, использовании псевдонимизации и анонимизации, обеспечении целостности данных, применении технических и организационных мер для защиты данных.
Применение в защитных целях
Технологии ИИ в сфере кибербезопасности должны применяться сугубо в защитных целях. Для нас это неотъемлемая часть нашей миссии по построению безопасного мира, в котором технологии завтрашнего дня улучшают жизнь всех и каждого из нас.
Открытость к диалогу
Мы считаем, что преодолеть препятствия, связанные с внедрением и использованием искусственного интеллекта в целях безопасности можно только сообща. Поэтому мы стремимся к диалогу со всеми заинтересованными сторонами, чтобы делиться передовым опытом этического использования ИИ.
Более подробно с нашими принципами этичного использования ИИ в безопасности можно ознакомиться вот здесь.
[ad_2]
Источник