[ad_1]
За последний год ИИ покорил мир, и некоторые задаются вопросом: находится ли ИИ в нескольких шагах от порабощения человеческого населения, новейшего технического увлечения или чего-то гораздо более тонкого?\
Все сложно. С одной стороны, ChatGPT смог сдать экзамен на адвоката, что одновременно впечатляет и, возможно, немного зловеще для юристов. Тем не менее, некоторые недостатки в возможностях программного обеспечения уже выявляются, например, когда адвокат использовал ChatGPT в суде, а бот сфабриковал элементы его аргументов.
ИИ, несомненно, продолжит совершенствовать свои возможности, но остаются еще большие вопросы. Откуда мы знаем, что можем доверять ИИ? Откуда мы знаем, что его результаты не только правильны, но и свободны от предвзятости и цензуры? Откуда берутся данные, на которых обучается модель ИИ, и как мы можем быть уверены, что ими не манипулировали?
Вмешательство создает сценарии высокого риска для любой модели ИИ, особенно для тех, которые вскоре будут использоваться в целях безопасности, транспорта, обороны и других областях, где на карту поставлена человеческая жизнь.
Проверка ИИ: необходимое регулирование для безопасного ИИ
Хотя национальные агентства по всему миру признают, что ИИ станет неотъемлемой частью наших процессов и систем, это не означает, что внедрение должно происходить без должного внимания.
Два наиболее важных вопроса, на которые нам нужно ответить:
- Использует ли конкретная система модель искусственного интеллекта?
- Если используется модель ИИ, какими функциями она может управлять/на что влиять?
Если мы знаем, что модель была обучена для достижения поставленной цели, и мы точно знаем, где она используется (и что она может делать), то мы устранили значительное количество рисков неправильного использования ИИ.
Существует множество различных методов проверки ИИ, включая проверку оборудования, проверку системы, постоянную проверку и радиационный анализ Ван Эка.
Аппаратные проверки — это физические проверки вычислительных элементов, которые служат для выявления наличия чипов, используемых для ИИ. Механизмы проверки системы, напротив, используют программное обеспечение для анализа модели, определения того, чем она может управлять, и пометки любых функций, которые должны быть запрещены.
Механизм работает путем выявления и разделения карантинных зон системы — частей, которые намеренно замаскированы для защиты интеллектуальной собственности и секретов. Вместо этого программное обеспечение проверяет окружающие прозрачные компоненты, чтобы обнаружить и пометить любую обработку ИИ, используемую в системе, без необходимости раскрывать какую-либо конфиденциальную информацию или IP-адрес.
Более глубокие методы проверки
Механизмы устойчивой проверки применяются после первоначальной проверки, гарантируя, что после развертывания модели она не будет изменена или подделана. Некоторые методы защиты от несанкционированного доступа, такие как криптографическое хеширование и обфускация кода, реализованы в самой модели.
Криптографическое хеширование позволяет инспектору определить, изменилось ли базовое состояние системы, не раскрывая при этом лежащие в его основе данные или код. Методы обфускации кода, которые все еще находятся на ранней стадии разработки, шифруют системный код на машинном уровне, чтобы его невозможно было расшифровать внешними силами.
Радиационный анализ Ван Экка изучает характер излучения, испускаемого во время работы системы. Поскольку в сложных системах выполняется ряд параллельных процессов, излучение часто искажается, что затрудняет извлечение конкретного кода. Однако метод Ван Эка позволяет обнаруживать серьезные изменения (например, появление нового ИИ) без расшифровки какой-либо конфиденциальной информации, которую развертывающие системы хотят сохранить в тайне.
Данные для обучения: избежание GIGO (мусор на входе, мусор на выходе)
Самое главное, данные, вводимые в модель ИИ, должны быть проверены в источнике. Например, зачем военным противникам пытаться уничтожить ваш парк истребителей, если вместо этого они могут манипулировать тренировочными данными, используемыми для обучения модели искусственного интеллекта обработки сигналов ваших самолетов? Каждая модель ИИ обучается на данных — они сообщают, как модель должна интерпретировать, анализировать и предпринимать действия в отношении новых вводимых данных. Хотя в процессе обучения существует огромное количество технических деталей, он сводится к тому, чтобы помочь ИИ «понять» что-то так, как это сделал бы человек. Процесс аналогичен, есть и подводные камни.
В идеале мы хотим, чтобы наш набор обучающих данных представлял реальные данные, которые будут переданы в модель ИИ после ее обучения и развертывания. Например, мы могли бы создать набор данных о бывших сотрудниках с высокими показателями производительности и использовать эти функции для обучения модели искусственного интеллекта, которая может прогнозировать качество потенциального кандидата на работу, просматривая его резюме.
Фактически, Amazon сделал именно это. Результат? Объективно модель имела огромный успех в выполнении того, чему ее учили. Плохие новости? Данные научили модель быть сексистской. Большинство высокопроизводительных сотрудников в наборе данных были мужчинами, что могло привести вас к двум выводам: мужчины работают лучше, чем женщины; или просто было нанято больше мужчин, и это исказило данные. Модель ИИ не обладает достаточным интеллектом, чтобы учитывать последнее, и поэтому ей пришлось предполагать первое, придавая больший вес полу кандидата.
Проверяемость и прозрачность являются ключом к созданию безопасного, точного и этичного ИИ. Конечный пользователь должен знать, что модель ИИ была обучена на правильных данных. Использование криптографии с нулевым разглашением для доказательства того, что данные не подвергались манипуляциям, обеспечивает уверенность в том, что ИИ с самого начала обучается на точных, защищенных от несанкционированного доступа наборах данных.
Заглядывая вперед
Руководители бизнеса должны понимать, по крайней мере на высоком уровне, какие методы проверки существуют и насколько они эффективны при обнаружении использования ИИ, изменений в модели и систематических ошибок в исходных данных обучения. Определение решений – это первый шаг. Платформы, на которых созданы эти инструменты, обеспечивают критически важную защиту для любого недовольного сотрудника, промышленного/военного шпиона или простых человеческих ошибок, которые могут вызвать опасные проблемы с мощными моделями искусственного интеллекта.
Хотя проверка не решит все проблемы для системы на основе ИИ, она может сыграть важную роль в обеспечении того, чтобы модель ИИ работала должным образом и что ее способность неожиданно развиваться или подвергаться вмешательству будет обнаружена немедленно. Искусственный интеллект все больше интегрируется в нашу повседневную жизнь, и очень важно, чтобы мы могли ему доверять.
Скотт Дайкстра — соучредитель и технический директор компании Space and Time, а также стратегический советник ряда стартапов в области баз данных и технологий Web3.
[ad_2]
Источник