13/10/2024

Китайские и иранские хакеры используют инструменты ChatGPT и LLM для создания вредоносных программ, фишинговых атак

Отчет OpenAI зафиксировал более 20 кибератак, созданных с помощью ChatGPT
OpenAI заявляет, что будет работать с сообществом, чтобы избежать подобных эксплойтов. Если есть один признак того, что ИИ приносит больше проблем, чем пользы, OpenAI подтверждает, что произошло более двадцати кибератак, все они были созданы с помощью ChatGPT. Отчет подтверждает, что генеративный ИИ использовался для проведения фишинговых атак, отладки и разработки вредоносного ПО, а также для осуществления другой вредоносной деятельности. Отчет подтверждает две кибератаки с использованием генеративного ИИ ChatGPT. Cisco Talos сообщила о первой атаке в ноябре 2024 года, которую использовали китайские злоумышленники, нацеленные на азиатские правительства. В этой атаке использовался метод целевого фишинга под названием «SweetSpecter», включающий ZIP-файл с вредоносным файлом, который при загрузке и открытии создает цепочку заражения в системе пользователя. OpenAI обнаружила, что SweetSpecter был создан с использованием нескольких учетных записей, которые использовали ChatGPT для разработки скриптов и обнаружения уязвимостей с помощью инструмента LLM.

Вторая кибератака с использованием ИИ была совершена иранской группой под названием «CyberAv3ngers», которая использовала ChatGPT для эксплуатации уязвимостей и кражи паролей пользователей с ПК на базе macOS. Третья атака, возглавляемая другой иранской группой под названием Storm-0817, использовала ChatGPT для разработки вредоносного ПО для Android. Вредоносное ПО похищало списки контактов, извлекало журналы вызовов и историю браузера, получало точное местоположение устройства и получало доступ к файлам на зараженных устройствах.

Все эти атаки использовали существующие методы для разработки вредоносного ПО, и, согласно отчету, не было никаких признаков того, что ChatGPT создал существенно новое вредоносное ПО. Независимо от этого, это показывает, как легко злоумышленникам обмануть службы генеративного ИИ, чтобы создать вредоносные инструменты для атак. Это открывает новую банку червей, показывая, что любому человеку с необходимыми знаниями проще запустить ChatGPT, чтобы сделать что-то со злым умыслом. Хотя есть исследователи безопасности, которые обнаруживают такие потенциальные эксплойты, чтобы сообщить о них и исправить их, такие атаки создают необходимость обсудить ограничения реализации генеративного ИИ.

На данный момент OpenAI приходит к выводу, что она продолжит совершенствовать свой ИИ, чтобы предотвратить использование таких методов. Тем временем она будет работать с внутренними командами по безопасности. Компания также заявила, что продолжит делиться своими выводами с коллегами из отрасли и исследовательским сообществом, чтобы предотвратить возникновение подобной ситуации.

Хотя это происходит с OpenAI, было бы контрпродуктивно, если бы крупные игроки с их собственными платформами генеративного ИИ не использовали защиту, чтобы избежать таких атак. Однако, зная, что предотвратить такие атаки сложно, соответствующие компании ИИ нуждаются в мерах безопасности, чтобы предотвращать проблемы, а не устранять их.

Комментариев нет:

Отправить комментарий