[ad_1]
Присоединяйтесь к нам в Атланте 10 апреля и изучите ситуацию в сфере безопасности. Мы рассмотрим концепцию, преимущества и варианты использования ИИ для служб безопасности. Запросите приглашение здесь.
Зависимость предприятий от инструментов AL/машинного обучения (ML) выросла почти на 600%, увеличившись с 521 миллиона транзакций в апреле 2023 года до 3,1 миллиарда в месяц к январю 2024 года. Повышенная обеспокоенность по поводу безопасности привела к 18,5% всех транзакций AI/ML. заблокированы, что на 577% больше всего за девять месяцев.
У директоров по информационной безопасности и предприятий, которые они защищают, есть веские причины проявлять осторожность и блокировать рекордное количество транзакций AI/ML. Злоумышленники отточили свое мастерство и теперь вооружили LLM для атак на организации без их ведома. Состязательный искусственный интеллект также представляет собой растущую угрозу, поскольку никто не предвидит появления этой киберугрозы.
Опубликованный сегодня отчет Zscaler ThreatLabz 2024 AI Security Report дает количественную оценку того, почему предприятиям нужна масштабируемая стратегия кибербезопасности для защиты множества инструментов AI/ML, которые они используют. В результатах опроса доминируют защита данных, управление качеством данных ИИ и вопросы конфиденциальности. Основываясь на более чем 18 миллиардах транзакций с апреля 2023 года по январь 2024 года на бирже Zscaler Zero Trust Exchange, ThreatLabz проанализировала, как предприятия сегодня используют инструменты искусственного интеллекта и машинного обучения.
Внедрение инструментов искусственного интеллекта и машинного обучения в сфере здравоохранения, финансов и страхования, услуг, технологий и обрабатывающей промышленности и риск кибератак дают отрезвляющий взгляд на то, насколько неподготовлены эти отрасли к атакам на основе искусственного интеллекта. Производство генерирует большую часть трафика ИИ, на его долю приходится 20,9% всех транзакций ИИ/МО, за ним следуют финансы и страхование (19,9%) и услуги (16,8%).
Блокировка транзакций — быстрая и временная победа
Директора по информационной безопасности и их команды безопасности предпочитают блокировать рекордное количество транзакций инструментов AI/ML для защиты от потенциальных кибератак. Это грубый шаг, который защищает наиболее уязвимые отрасли от натиска кибератак.
ChatGPT на сегодняшний день является наиболее используемым и блокируемым инструментом искусственного интеллекта, за ним следуют OpenAI, Fraud.net, Fore Thought и Hugging Face. Наиболее блокируемыми доменами являются Bing.com, Divo.ai, Drift.com и Quillbot.com.
Фото: С апреля 2023 года по январь 2024 года предприятия заблокировали более 2,6 миллиарда транзакций..
Производство блокирует только 15,65% транзакций ИИ, что является низким показателем, учитывая, насколько подвержена риску эта отрасль в отношении кибератак, особенно программ-вымогателей. Сектор финансов и страхования блокирует наибольшую долю транзакций ИИ — 37,16%, что указывает на повышенную обеспокоенность по поводу рисков безопасности данных и конфиденциальности. Вызывает обеспокоенность тот факт, что индустрия здравоохранения блокирует 17,23% транзакций ИИ, несмотря на обработку конфиденциальных медицинских данных и информации, позволяющей идентифицировать личность (PII), что позволяет предположить, что они, возможно, отстают в усилиях по защите данных, используемых в инструментах ИИ.
Создание хаоса в таких чувствительных ко времени и жизни сферах, как здравоохранение и производство, приводит к выплатам от программ-вымогателей, намного превышающим другие предприятия и отрасли. Недавняя атака с помощью программы-вымогателя United Healthcare является примером того, как организованная атака может разрушить всю цепочку поставок.
Блокировка — это краткосрочное решение гораздо более серьезной проблемы.
Лучшее использование всей доступной телеметрии и расшифровка огромного количества данных, которые платформы кибербезопасности способны перехватить, — это первый шаг после блокировки. CrowdStrike, Palo Alto Networks и Zscaler продвигают свою способность получать новую информацию с помощью телеметрии.
Соучредитель и генеральный директор CrowdStrike Джордж Курц рассказал основной аудитории на ежегодном мероприятии Fal.Con компании в прошлом году: «Одна из областей, в которой мы действительно стали пионерами, — это возможность принимать слабые сигналы с разных конечных точек. И мы можем связать их вместе, чтобы найти новые открытия. Сейчас мы распространяем это на наших сторонних партнеров, чтобы мы могли анализировать другие слабые сигналы не только на конечных точках, но и на разных доменах, и находить новые методы обнаружения».
Ведущие поставщики кибербезопасности, обладающие глубокими знаниями в области искусственного интеллекта, а многие из них имеют многолетний опыт в области машинного обучения, включают Blackberry Persona, Broadcom, Cisco Security, CrowdStrike, CyberArk, Cybereason, Ivanti, SentinelOne, Microsoft, McAfee, Sophos и VMWare Carbon Black. Ищите этих поставщиков для обучения своих LLM данным об атаках на основе ИИ, пытаясь оставаться на паритете с растущим использованием злоумышленниками состязательного ИИ.
Новый, более смертоносный ландшафт угроз ИИ уже здесь
«Для предприятий риски и угрозы, связанные с ИИ, делятся на две широкие категории: риски защиты данных и безопасности, связанные с использованием корпоративных инструментов ИИ, и риски новой среды киберугроз, основанной на генеративных инструментах ИИ и автоматизации», — говорит Зскалер в своей статье. отчет.
Перед директорами по информационной безопасности и их командами стоит непростая задача – защитить свои организации от натиска методов атак с использованием искусственного интеллекта, кратко описанных в отчете. Защита от халатности сотрудников при использовании ChatGPT и предотвращение случайного раскрытия конфиденциальных данных должна стать темой совета директоров. Им следует сделать управление рисками приоритетом своей стратегии кибербезопасности.
Защита интеллектуальной собственности от утечки из организации через ChatGPT, содержащий теневой искусственный интеллект, а также обеспечение конфиденциальности и безопасности данных являются основой эффективной стратегии инструментов AI/ML.
В прошлом году VentureBeat поговорил с Алексом Филипсом, директором по информационным технологиям компании National Oilwell Varco (NOV), о подходе его компании к генеративному искусственному интеллекту. Филлипс рассказал VentureBeat, что ему было поручено рассказать совету директоров о преимуществах и рисках ChatGPT и генеративного искусственного интеллекта в целом. Он периодически предоставляет совету директоров обновленную информацию о текущем состоянии технологий GenAI. Этот непрерывный образовательный процесс помогает сформировать ожидания относительно этой технологии и того, как NOV может установить защитные меры, чтобы гарантировать, что утечек, подобных Samsung, никогда не произойдет. Он упомянул о том, насколько мощным инструментом повышения производительности является ChatGPT и насколько важно обеспечить правильную безопасность, сохраняя при этом контроль над теневым искусственным интеллектом.
Баланс между производительностью и безопасностью имеет решающее значение для решения проблем нового, неизведанного ландшафта угроз ИИ. Генеральный директор Zscaler стал объектом сценария вишинга и смишинга, когда злоумышленники выдавали себя за голос генерального директора Zscaler Джея Чаудри в сообщениях WhatsApp, которые пытались обманом заставить сотрудника купить подарочные карты и раскрыть дополнительную информацию. Zscaler смог предотвратить атаку, используя свои системы. Компания VentureBeat узнала, что это знакомая схема атаки, нацеленная на ведущих руководителей и технологических лидеров в индустрии кибербезопасности.
Злоумышленники полагаются на искусственный интеллект для запуска атак с использованием программ-вымогателей в большем масштабе и быстрее, чем это было в прошлом. Зскалер отмечает, что атаки программ-вымогателей, управляемые искусственным интеллектом, сегодня являются частью арсенала злоумышленников национальных государств, и частота их использования растет. Злоумышленники теперь используют генеративные подсказки искусственного интеллекта для создания таблиц известных уязвимостей для всех межсетевых экранов и VPN в организации, на которую они нацелены. Затем злоумышленники используют LLM для создания или оптимизации кода эксплойтов для этих уязвимостей с настраиваемыми полезными нагрузками для целевой среды.
Зскалер отмечает, что генеративный искусственный интеллект также можно использовать для выявления слабых мест в партнерах по корпоративной цепочке поставок, одновременно выделяя оптимальные маршруты для подключения к базовой сети предприятия. Даже если предприятия поддерживают строгий уровень безопасности, наибольшую угрозу часто могут представлять нижестоящие уязвимости. Злоумышленники постоянно экспериментируют с генеративным искусственным интеллектом, создавая свои петли обратной связи для улучшения результатов в более сложных и целенаправленных атаках, которые еще сложнее обнаружить.
Злоумышленник стремится использовать генеративный искусственный интеллект во всей цепочке атак программ-вымогателей — от автоматизации разведки и использования кода для выявления конкретных уязвимостей до создания полиморфных вредоносных программ и программ-вымогателей. Автоматизируя критические части цепочки атак, злоумышленники могут создавать более быстрые, сложные и целенаправленные атаки на предприятия.
Кредит: Злоумышленники используют ИИ, чтобы оптимизировать свои стратегии атак и получать более крупные выплаты, создавая еще больший хаос в целевых организациях и их цепочках поставок.
[ad_2]
Источник