banner

[ad_1]

Новое исследование Menlo Security показывает, как взрывной рост генеративного искусственного интеллекта создает новые проблемы кибербезопасности для предприятий. Поскольку такие инструменты, как ChatGPT, прочно вошли в повседневные рабочие процессы, компаниям необходимо срочно пересмотреть свои стратегии безопасности.

«Сотрудники интегрируют ИИ в свою повседневную работу. Средства контроля не могут просто заблокировать его, но мы также не можем позволить ему выйти из-под контроля», — сказал Эндрю Хардинг, вице-президент по маркетингу продуктов Menlo Security, в эксклюзивном интервью VentureBeat. «На предприятии наблюдается постоянный рост числа посещений объектов с помощью генеративного ИИ и количества опытных пользователей, но проблемы для служб безопасности и ИТ-отделов сохраняются. Нам нужны инструменты, которые применяют средства контроля к инструментам искусственного интеллекта и помогают директорам по информационной безопасности управлять этим риском, одновременно поддерживая рост производительности и понимание, которое может генерировать GenAI».

Всплеск использования и злоупотреблений ИИ

Новый отчет Menlo Security рисует тревожную картину. Всего за последние 6 месяцев количество посещений сайтов, посвященных генеративному ИИ, на предприятиях выросло более чем на 100%. Число частых пользователей генеративного ИИ также выросло на 64% за тот же период. Но эта повсеместная интеграция в повседневные рабочие процессы открыла новые опасные уязвимости.

Хотя многие организации, по мнению исследователей, применяют более строгие политики безопасности в отношении использования генеративного ИИ, большинство из них используют неэффективный подход по каждому домену. Как рассказал Хардинг VentureBeat: «Организации усиливают меры безопасности, но есть одна загвоздка. Большинство из них применяют эти политики только на уровне домена, что больше не мешает».

Эта поэтапная тактика просто не успевает за темпами, поскольку постоянно появляются новые генеративные платформы искусственного интеллекта. В отчете показано, что количество попыток загрузки файлов на сайты генеративного ИИ возросло на тревожные 80% за 6 месяцев — прямой результат добавленной функциональности. И риски выходят далеко за рамки возможной потери данных при загрузке.

Исследователи предупреждают, что генеративный ИИ может серьезно усилить фишинговые атаки. Как отметил Хардинг, «фишинг с использованием искусственного интеллекта — это просто более умный фишинг. Предприятиям нужна защита от фишинга в режиме реального времени, которая бы вообще не позволила «фишингу» OpenAI когда-либо стать проблемой».

От новизны к необходимости

Так как же мы сюда попали? Генеративный ИИ, похоже, взорвался в одночасье, когда ChatGPT-мания охватила весь земной шар. Однако технология появлялась постепенно, в течение многих лет исследований.

OpenAI запустила свою первую систему генеративного искусственного интеллекта под названием GPT-1 (Генераторный предварительно обученный трансформатор) еще в июне 2018 года. Эта и другие ранние системы были ограничены, но продемонстрировали потенциал. В апреле 2022 года Google Brain разработал на основе этого PaLM — модель искусственного интеллекта, имеющую 540 миллиардов параметров.

Когда в начале 2021 года OpenAI представила DALL-E для генерации изображений, генеративный ИИ привлек широкую общественную интригу. Но настоящий ажиотаж вызвал дебют OpenAI ChatGPT в ноябре 2022 года.

Почти сразу же пользователи начали интегрировать ChatGPT и подобные инструменты в свои повседневные рабочие процессы. Люди случайно запрашивали у бота все: от создания идеального электронного письма до отладки кода. Оказалось, что ИИ может делать практически всё.

Но для бизнеса эта стремительная интеграция привела к серьезным рискам, которые часто упускают из виду в шумихе. Генеративные системы искусственного интеллекта по своей сути настолько безопасны, этичны и точны, насколько безопасны данные, используемые для их обучения. Они могут невольно разоблачать предвзятость, распространять дезинформацию и передавать конфиденциальные данные.

Эти модели извлекают обучающие данные из огромных массивов общедоступного Интернета. Без строгого мониторинга контроль над тем, какой контент поглощается, ограничен. Поэтому, если конфиденциальная информация публикуется в Интернете, модели могут легко усвоить эти данные, а затем разгласить их.

Исследователи также предупреждают, что генеративный ИИ может серьезно усилить фишинговые атаки. Как сказал Хардинг VentureBeat: «Фишинг с использованием искусственного интеллекта — это просто более умный фишинг. Предприятиям нужна защита от фишинга в режиме реального времени, которая бы вообще не позволила «фишингу» OpenAI когда-либо стать проблемой».

Балансирование

Так что же можно сделать, чтобы сбалансировать безопасность и инновации? Эксперты выступают за многоуровневый подход. Как рекомендует Хардинг, сюда входят «ограничения на копирование и вставку, политики безопасности, мониторинг сеансов и контроль на уровне группы на генеративных платформах искусственного интеллекта».

Прошлое доказывает пролог. Организации должны учиться на предыдущих технологических переломных моментах. Широко используемые технологии, такие как облачные технологии, мобильные устройства и Интернет, по своей сути создают новые риски. Компании постепенно адаптировали стратегии безопасности, чтобы они со временем соответствовали развивающимся технологическим парадигмам.

Тот же взвешенный и упреждающий подход необходим и для генеративного ИИ. Окно для действий быстро закрывается. Как предупредил Хардинг: «Происходит постоянный рост количества посещений объектов с помощью генеративного ИИ и количества опытных пользователей на предприятии, но проблемы для служб безопасности и ИТ-отделов сохраняются».

Стратегии безопасности должны развиваться – и быстро – чтобы соответствовать беспрецедентному внедрению генеративного искусственного интеллекта в организациях. Для бизнеса крайне важно найти баланс между безопасностью и инновациями. В противном случае генеративный ИИ рискует выйти из-под контроля.

[ad_2]

Источник

banner

Вам может понравиться

Обзор сервисов ИИ

Искусственный интеллект

Daily AI

ИИ в жизни, бизнесе, науке и искусстве.

@2024 All Right Reserved. Designed and Developed by PenciDesign