[ad_1]
В так называемой «дилемме защитника» кибербезопасности хорошие парни всегда бегут, бегут, бегут и все время держат свою охрану, в то время как злоумышленникам, с другой стороны, нужна только одна маленькая возможность прорваться и совершить что-то реальное. повреждать.
Но, по мнению Google, защитникам следует использовать передовые инструменты искусственного интеллекта, чтобы разорвать этот изнурительный цикл.
Чтобы поддержать это, технологический гигант сегодня выпустил новую «Инициативу киберзащиты ИИ» и взял на себя несколько обязательств, связанных с ИИ, в преддверии Мюнхенской конференции по безопасности (MSC), которая стартует завтра (16 февраля).
Объявление было сделано через день после того, как Microsoft и OpenAI опубликовали исследование о состязательном использовании ChatGPT и взяли на себя обязательства поддерживать «безопасное и ответственное» использование ИИ.
Поскольку лидеры правительств со всего мира собираются вместе, чтобы обсудить политику международной безопасности в MSC, становится ясно, что эти активные сторонники ИИ стремятся продемонстрировать свою инициативность, когда дело доходит до кибербезопасности.
«Революция искусственного интеллекта уже началась», — заявил сегодня Google в своем блоге. «Мы… воодушевлены потенциалом ИИ в решении проблем безопасности поколений, одновременно приближая нас к безопасному, надежному и надежному цифровому миру, которого мы заслуживаем».
Google инвестирует в инфраструктуру, готовую к использованию искусственного интеллекта, новые инструменты и исследования
В Мюнхене более 450 высокопоставленных лиц, принимающих решения, а также лидеров мысли и бизнеса соберутся, чтобы обсудить такие темы, как технологии, трансатлантическая безопасность и глобальный порядок.
«Технологии все больше проникают во все аспекты того, как государства, общества и отдельные лица преследуют свои интересы», — заявляет MSC на своем веб-сайте, добавляя, что цель конференции — продвинуть дискуссию о регулировании, управлении и использовании технологий «для содействия инклюзивной безопасности и глобальному сотрудничеству». »
Искусственный интеллект, несомненно, находится в центре внимания многих мировых лидеров и регулирующих органов, поскольку они изо всех сил стараются не только понять технологию, но и опередить ее использование злоумышленниками.
По ходу мероприятия Google берет на себя обязательства инвестировать в «инфраструктуру, готовую к искусственному интеллекту», выпускать новые инструменты для защитников, а также запускать новые исследования и обучение безопасности искусственного интеллекта.
Сегодня компания объявляет о создании новой группы «ИИ для кибербезопасности», состоящей из 17 стартапов из США, Великобритании и Европейского Союза в рамках программы «ИИ для кибербезопасности» Академии роста стартапов Google.
«Это поможет укрепить трансатлантическую экосистему кибербезопасности с помощью стратегий интернационализации, инструментов искусственного интеллекта и навыков их использования», — заявляют в компании.
Google также будет:
- Расширить программу семинаров Google.org по кибербезопасности стоимостью 15 миллионов долларов, чтобы охватить всю Европу и помочь подготовить специалистов по кибербезопасности в недостаточно обслуживаемых сообществах.
- Magika с открытым исходным кодом, новый инструмент на базе искусственного интеллекта, призванный помочь защитникам посредством идентификации типов файлов, что важно для обнаружения вредоносного ПО. Google заявляет, что платформа превосходит традиционные методы идентификации файлов, обеспечивая повышение точности на 30% и до 95% более высокую точность для такого контента, как VBA, JavaScript и Powershell, который часто трудно идентифицировать.
- Выделите 2 миллиона долларов в виде исследовательских грантов для поддержки исследовательских инициатив на основе искусственного интеллекта в Чикагском университете, Университете Карнеги-Меллон и Стэнфордском университете, среди других. Цель состоит в том, чтобы улучшить проверку кода, улучшить понимание роли ИИ в киберпреступлениях и защите, а также разработать более устойчивые к угрозам модели большого языка (LLM).
Кроме того, Google указывает на свою платформу Secure AI Framework, запущенную в июне прошлого года, чтобы помочь организациям по всему миру сотрудничать в области передового опыта по обеспечению безопасности искусственного интеллекта.
«Мы считаем, что технологии безопасности искусственного интеллекта, как и другие технологии, должны быть безопасными по своей конструкции и по умолчанию», — пишет компания.
В конечном счете, Google подчеркивает, что миру нужны целевые инвестиции, партнерство между отраслью и правительством и «эффективные подходы к регулированию», которые помогут максимизировать ценность ИИ, одновременно ограничивая его использование злоумышленниками.
«Выборы управления ИИ, принятые сегодня, могут непредвиденным образом изменить ситуацию в киберпространстве», — пишет компания. «Нашему обществу нужен сбалансированный нормативный подход к использованию и внедрению ИИ, чтобы избежать будущего, в котором злоумышленники смогут внедрять инновации, а защитники — нет».
Microsoft и OpenAI борются со злонамеренным использованием ИИ
Между тем, в своем совместном заявлении на этой неделе Microsoft и OpenAI отметили, что злоумышленники все чаще рассматривают ИИ как «еще один инструмент повышения производительности».
Примечательно, что OpenAI заявила, что закрыла учетные записи, связанные с пятью государственными субъектами угроз из Китая, Ирана, Северной Кореи и России. Эти группы использовали ChatGPT для:
- Отладка кода и создание скриптов
- Создавайте контент, который может быть использован в фишинговых кампаниях.
- Перевести техническую документацию
- Получайте общедоступную информацию об уязвимостях и многочисленных спецслужбах.
- Изучите распространенные способы уклонения вредоносного ПО от обнаружения.
- Проведение исследований с открытым исходным кодом в области протоколов спутниковой связи и технологий радиолокационной визуализации.
Однако компания поспешила отметить, что «наши результаты показывают, что наши модели предлагают лишь ограниченные дополнительные возможности для злонамеренных задач кибербезопасности».
Обе компании обязались обеспечить «безопасное и ответственное использование» технологий, включая ChatGPT.
Для Microsoft эти принципы включают в себя:
- Выявление злонамеренных действий со стороны злоумышленников и противодействие им, например отключение учетных записей или прекращение работы служб.
- Уведомление других поставщиков услуг ИИ и обмен соответствующими данными.
- Сотрудничество с другими заинтересованными сторонами в вопросах использования ИИ злоумышленниками.
- Информирование общественности об обнаружении использования ИИ в их системах и мерах, принятых против них.
Аналогично, OpenAI обязуется:
- Отслеживайте и пресекайте деятельность злоумышленников, связанных с государством. Это включает в себя определение того, как злоумышленники взаимодействуют со своей платформой, и оценку более широких намерений.
- Работайте и сотрудничайте с «экосистемой искусственного интеллекта»
- Обеспечить общественную прозрачность в отношении характера и масштабов злонамеренного использования ИИ субъектами, связанными с государством, и мерах, принимаемых против них.
Как криминальные, так и спонсируемые государством субъекты усиливают нападения
Команда Google по анализу угроз заявила в подробном отчете, опубликованном сегодня, что она отслеживает тысячи злоумышленников и семейств вредоносных программ и обнаружила, что:
- Злоумышленники продолжают профессионализировать операции и программы
- Наступательные кибервозможности теперь являются главным геополитическим приоритетом
- Тактика групп злоумышленников теперь регулярно обходит стандартные меры контроля.
- Беспрецедентные события, такие как вторжение России в Украину, ознаменовали первый случай, когда кибероперации сыграли заметную роль в войне.
Исследователи также «с высокой степенью уверенности» оценивают, что «большая четверка» — Китай, Россия, Северная Корея и Иран — продолжит представлять значительные риски во всех географических регионах и секторах. Например, Китай вкладывает значительные средства в наступательный и оборонительный искусственный интеллект, а также занимается кражей личных данных и интеллектуальной собственности, чтобы конкурировать с США.
Google отмечает, что злоумышленники используют ИИ, в частности, для социальной инженерии и информационных операций, разрабатывая все более сложные инструменты фишинга, SMS и других инструментов травли, фейковых новостей и дипфейков.
«По мере развития технологии искусственного интеллекта мы считаем, что она может значительно усилить вредоносные операции», — пишут исследователи. «Правительство и промышленность должны масштабироваться, чтобы противостоять этим угрозам с помощью мощных программ анализа угроз и активного сотрудничества».
Решение «дилеммы защитников»
С другой стороны, ИИ поддерживает работу защитников по обнаружению и устранению уязвимостей, реагированию на инциденты и анализу вредоносного ПО, отмечает Google.
Например, ИИ может быстро суммировать информацию об угрозах и отчеты, обобщать расследования случаев и объяснять подозрительное поведение сценариев. Аналогичным образом, он может классифицировать категории вредоносного ПО и определять приоритетность угроз, выявлять уязвимости безопасности в коде, запускать моделирование путей атаки, отслеживать эффективность управления и оценивать риск раннего сбоя.
Кроме того, по словам Google, ИИ может помочь нетехническим пользователям генерировать запросы на естественном языке; разработать схемы управления безопасностью, автоматизации и реагирования; и создавать правила и политики управления идентификацией и доступом (IAM).
Например, группы обнаружения и реагирования Google используют ИИ для создания сводок об инцидентах, что в конечном итоге позволяет сэкономить более 50 % своего времени и получить более качественные результаты анализа инцидентов.
Компания также улучшила показатели обнаружения спама примерно на 40% благодаря новой многоязычной модели обработки текста на основе нейросетей RETVec. А его программа Gemini LLM исправляет 15 % ошибок, обнаруженных с помощью инструментов очистки, и обеспечивает увеличение покрытия кода до 30 % в более чем 120 проектах, что приводит к обнаружению новых уязвимостей.
В конце концов, исследователи Google утверждают: «Мы считаем, что ИИ предоставляет лучшую возможность решить дилемму защитника и склонить чашу весов в киберпространстве, чтобы дать защитникам решающее преимущество перед злоумышленниками».
[ad_2]
Источник