Искусственный интеллект радикально трансформирует ландшафт информационной безопасности. Эксперты сходятся во мнении: мы находимся на пороге качественного скачка в автоматизации как атак, так и защиты.
ИИ меняет правила
По словам генерального директора InfEra Security Игоря Бирюкова искусственный интеллект радикально изменяет кибербезопасность в обоих направлениях - одновременно усиливает защиту и расширяет возможности атакующих. Эта амбивалентность - ключевая характеристика текущего момента.
С одной стороны, ИИ-модели способны анализировать огромные объемы данных в реальном времени, выявляя аномалии и потенциальные угрозы быстрее, чем традиционные методы. Исследования показывают, что ИИ-инструменты позволяют обнаруживать и смягчать угрозы эффективнее, улучшая такие метрики, как точность обнаружения и скорость реакции. Microsoft, например, внедрила более 40 ИИ-агентов в свои системы безопасности, и по их данным обнаружение вредоносных писем ускорилось в 5-6 раз.
С другой стороны, те же технологии дают злоумышленникам инструменты, которые радикально снижают порог входа в кибератаки. ML-директор Positive Technologies Андрей Кузнецов, отмечает: " Если раньше для написания вредоносного ПО требовались глубокие знания программирования, то сегодня порог входа для людей, не являющихся квалифицированными разработчиками, значительно снизился. Не обязательно быть экспертом во всех языках программирования - достаточно уметь пользоваться ИИ-помощниками. Это касается и персонализированного фишинга, что лишь подтверждает, что тренд уже выраженный. Хакеры одними из первых оценили силу возможности моделей ИИ, поэтому активно их используют".
Масштаб проблемы: говорят цифры
Статистика 2025 года показывает беспрецедентный рост ИИ-ориентированных атак. Как рассказал "Агенту будущего" генеральный директор Start X Сергей Волдохин, 87% организаций столкнулись с кибератаками, в которых использовался ИИ. Это не теоретическая угроза, а практическая реальность, с которой сталкиваются компании ежедневно.
Фишинг - одна из наиболее демонстративных областей применения ИИ злоумышленниками. С момента появления общедоступных генеративных моделей объем фишинговых писем вырос на 1265%. Две трети всех фишинговых атак теперь используют ИИ для создания сообщений. Результаты впечатляют и пугают одновременно: 78% получателей открывают такие письма, 21% переходят по вредоносным ссылкам. Преступники используют ИИ для создания "идеально персонализированных" писем, адаптированных под конкретного получателя - с правильной грамматикой, стилем и контекстом.
Но фишинг - это только вершина айсберга. Дипфейки стали новым фронтом в войне между атакующими и защитниками. 85% организаций в 2025 году столкнулись с атаками на основе дипфейков, и число таких инцидентов выросло на 680% за год. Самый громкий случай произошел в Гонконге, где сотрудник финансового отдела провел видеозвонок с "финансовым директором" и "коллегами" из головного офиса. Обсудили срочную сделку, согласовали платежи.
Сотрудник перевёл 25,5 млн долларов США. Через несколько недель выяснилось: все участники звонка, кроме него, были сгенерированы ИИ.
Только за первый квартал 2025 года убытки от мошенничества с дипфейками превысили 200 миллионов долларов США. Мошенничество с подделкой голоса руководителей нацелено на 400 компаний ежедневно. При этом 80% компаний до сих пор не имеют плана реагирования на такие атаки, а больше половины сотрудников никогда не проходили обучение по распознаванию подделок.
"Телефонное мошенничество выходит на первый план. По данным Cisco, в первом квартале 2025 года 60% всех фишинговых инцидентов - это голосовые атаки (вишинг). Для создания убедительной копии голоса мошенникам достаточно трех секунд оригинальной записи", - отмечает Волдохин.
Автоматизация атак
Наиболее тревожная тенденция - это переход от отдельных автоматизированных действий к полноценной оркестрации атак. "В ближайшее время ожидается масштабная автоматизация полноценных атак и их оркестрация. Современные технологии достигли точки, когда ИИ-агенты способны выполнять не отдельные действия, а осмысленные последовательности. Это позволяет создавать инструментарий для оркестрации атак", - предупреждает Кузнецов.
Раньше компании могли не подвергаться атакам не только из-за хорошей защиты, а потому что до них "просто не дошли". Теперь один хакер или группировка смогут управлять множеством таргетированных атак одновременно. Это подтверждается отчетами вендоров ИИ-решений: недавний доклад компании Anthropic показал, что продвинутые китайские группировки активно внедряют автоматизацию.
По прогнозам Positive Technologies, в 2026 году число успешных кибератак на Россию может вырасти на 30-35% по сравнению с 2025-м. Это не просто увеличение количества, но и качественное изменение характера атак. Если раньше выявлять массовые атаки удавалось по простым сигнатурам и известным уязвимостям, то современные техники злоумышленников позволяют избегать привычных методов обнаружения, маскировать активность под легитимную и быстро увеличивать площадь атаки.
Кто быстрее: атакующие или защитники
Ответ на этот вопрос зависит от контекста. В разных нишах лидируют разные стороны.
В массовом мошенничестве преступники действуют быстрее. Им не нужны согласования, соответствие регламентам и стопроцентная надежность. Достаточно, чтобы схема работала "в среднем" - даже если часть попыток проваливается, масштаб компенсирует потери.
Злоумышленники используют ИИ-агентов для автоматизации сканирования, генерации кода атак и создания более правдоподобных фишинговых сообщений - порой без глубоких знаний в области информационной безопасности. Это означает, что атакующие зачастую быстрее начинают применять ИИ, потому что у них отсутствуют организационные и процедурные барьеры. Они используют ИИ, чтобы быстрее выполнить кибератаку и заработать деньги.
Атакующие быстрее начинают применять ИИ, потому что у них отсутствуют организационные и процедурные барьеры
В ноябре 2025 года Google зафиксировал появление вредоносных программ, которые используют языковые модели прямо во время работы - например, для автоматического изменения собственного кода, чтобы избежать обнаружения. Это демонстрирует, что злоумышленники не просто используют ИИ как инструмент, но интегрируют его в саму архитектуру своих атак.
"Однако в корпоративной безопасности преимущество у ИБ. У них есть доступ к внутренним данным компании, легальные инструменты и возможность выстроить контролируемые процессы. ИИ-агенты в службах безопасности уже умеют сортировать оповещения и выделять реальные угрозы, собирать информацию об инцидентах из разных источников и помогать аналитикам быстрее принимать решения, - отмечает Волдохин. На рынке ИБ уже появляются решения, которые могут превосходить атакующие, обеспечивая эффективную защиту.
По мнению Бирюкова решения класса AI Security способны решать сложные задачи, но для эффективной эксплуатации требуется высокий уровень интеграции и экспертизы, так как эти решения находятся на стыке DevSecOps, AppSec и API Security: "Рекомендации для CISO: не отставать от атакующих в изучении и применении AI‑методов, внедрять безопасность внутрь DevOps-процессов, создать внутренние плейбуки по ИИ‑угрозам, включая prompt‑injection, jailbreaking и adversarial‑AI сценарии".
Проблема заключается в скорости внедрения: исследование Boston Consulting Group (декабрь 2025) показало, что 88% компаний планируют использовать ИИ для защиты, но реально внедрили такие инструменты только 7%.
Роль человека в эпоху ИИ-агентов
Несмотря на растущую автоматизацию, роль ИБ-специалистов по-прежнему велика. Руководитель группы исследования технологий машинного обучения в "Лаборатории Касперского" Владислав Тушканов говорит: "Мы считаем, что в основании устойчивой киберзащиты все еще находится человек. Именно эксперты разбирают самые сложные атаки, принимают финальные решения, и, что немаловажно, предоставляют экспертное мнение, которое ложится в основу систем на базе ИИ. В "Лаборатории Касперского" активно разрабатываются различные системы автоматизации: ИИ-аналитик Центра обеспечения безопасности, обрабатывающий в автоматическом режиме около четверти событий, системы детектирования сложных атак, таких как DLL Hijacking, на базе машинного обучения, а также разнообразные инструменты на базе генеративного ИИ в рамках нашего ассистента KIRA. Их цель - разгрузить людей от рутины и предоставить им помощь в принятии решений там, где она особенно требуется".
Уязвимости в самих ИИ-системах
Внедрение ИИ-помощников, чат-ботов и автоматизированных агентов создает новые точки входа для атак. Злоумышленник может не взламывать сервер напрямую, а обмануть ИИ-систему, заставив её выдать конфиденциальные данные или выполнить нежелательное действие.
Британский национальный центр кибербезопасности в декабре 2025 года предупредил: атаки на ИИ-системы (инъекции в промпты) принципиально сложнее устранить, чем традиционные уязвимости. Проблема в самой архитектуре языковых моделей - они не различают "команды" и "данные".
"Это привело к появлению специального фреймворка MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), который включает около 56 техник, специфичных именно для атак против ИИ и ML-систем", - рассказывает Бирюков.
К ним относятся доступ к модели, манипуляция данными, data poisoning, model extraction и другие. Это отражает специфическую эволюцию атак в области ИИ, которая формирует отдельную область знаний и вопросов для защиты ИИ-систем.
По мнению Тушканова с повышением уровня агентности таких систем и важности решений, которые мы им передаем, все более актуальным становится обеспечение их устойчивости к злонамеренному воздействию.
Будущее: ожидания и прогнозы
Эксперты ожидают, что в ближайшие годы произойдет значительный рост степени автоматизации ИБ и объединения отдельных навыков на базе генеративного ИИ в мощные агентные системы. Это позволит проактивно выявлять угрозы, в том числе в рамках таких продуктов, как решения по управлению уязвимостями.
Со стороны злоумышленников можно ожидать большего числа атак и их ускорения. Системы на базе больших языковых моделей позволяют оптимизировать некоторые шаги кибератак, а для "начинающих" атакующих - повысить их возможности до среднего уровня.
Очевидно, что ИИ-агенты - это не просто новый инструмент в арсенале защитников и атакующих. Это качественный скачок в том, как осуществляются кибератаки и как строится защита. Злоумышленники получили инструмент, который позволяет им масштабировать свои операции без соответствующего увеличения численности команды. ИБ-специалисты получили возможность автоматизировать рутинные операции и сосредоточиться на сложных, требующих экспертизы задачах.
Вопрос о влиянии ИИ на кибербезопасность не стоит. Это уже происходит. Вопрос лишь в том, смогут ли организации адаптироваться достаточно быстро, чтобы не отстать от темпов развития угроз. Те компании, которые сегодня начнут внедрять ИИ-решения в свои системы безопасности, получат значительное преимущество. Те же, кто будет ждать, рискуют оказаться в уязвимом положении в мире, где один хакер может управлять сотнями целевых атак одновременно.