Исследователи Google смогли остановить массовую атаку с использованием zero-day эксплойта, созданного с помощью искусственного интеллекта для взлома IT-инструмента администратора.
Эксперты Google обнаружили попытку хакеров применить впервые zero-day эксплойт (спецпрограмму, фрагменту кода или последовательность команд, которые используют уязвимости (ошибки, бреши) в ПО), который был написал с помощью искусственного интеллекта (ИИ) для атаки на неуказанный open-source IT-админ-инструмент. Компания предупредила разработчика, что позволило предотвратить массовую эксплуатацию уязвимости, пишет Forbes.
В отчете сказано, что вредоносный код отличался структурой, характерной для ИИ: «эталонное» применение Python, детальные help-меню и даже следы «галлюцинации» – ссылка на несуществующую уязвимость. Google не смог определить, какая именно система ИИ применялась.
Google обнаружил, что хакеры, в том числе связанные с китайской и северокорейской разведками, использовали чат-бот Gemini для поиска уязвимостей и подготовки атак. Группа UNC2814 обманула Gemini, заставив его искать уязвимости в маршрутизаторах TP-Link. Затем Gemini согласился искать уязвимости в маршрутизаторах TP-Link (которые запрещены в США по соображениям безопасности).
Джон Халтквист, главный аналитик Google Threat Intelligence Group, заявил, что Северная Корея «очень рано начала использовать ИИ», перейдя от фишинга к разработке кибератак на корпоративные и правительственные сети.
«Это интересно, потому что это область, на которой они обычно не сосредотачивались, предпочитая социальную инженерию. Это может указывать на то, что они используют ИИ для развития», – добавил Халтквист.
Обнаружение компанией Google уязвимости нулевого дня в системе искусственного интеллекта – это последний из растущего числа случаев, когда хакеры используют ИИ в качестве своего рода второго пилота в киберпреступлениях или для осуществления атаки в полном объеме.
Как писала газета ВЗГЛЯД, NYT осенью 2025 года сообщала о риске создания вирусов с помощью искусственного интеллекта. Евгений Касперский рассказывал о том, что хакеры могут «свести с ума» ИИ с помощью испорченных данных.