Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени

Это вторая часть материала о прошедшей конференции «Лаборатории Касперского», начало читайте здесь.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени
© It-world

Эксперты «Лаборатории Касперского» представили сценарии «серых лебедей» — катастроф, которые сложно смоделировать, но вполне реально пережить. Рассказываем, как нейросети меняют наше представление о безопасности и почему в ближайшие годы человечество рискует разделиться на тех, за кого думает алгоритм, и новую интеллектуальную элиту.

После мрачных сценариев кибершпионажа разговор о нейросетях воспринимается почти как глоток воздуха. Хотя, как показывает доклад Владислава Тушканова, руководителя группы исследований технологий машинного обучения в «Лаборатории Касперского», воздух этот отнюдь не стерилен. По его оценке, три главных тренда 2025 года в AI — это «момент DeepSeek» и взрыв открытых моделей, массовое внедрение машинного обучения в кибербезопасность и стремительный рост так называемых ИИ‑агентов. История с DeepSeek (в презентации — DeepSeek moment) хорошо видна по статистике платформы OpenRouter: в топе по использованию доминируют уже не только модели привычных лидеров, но и решения от китайских лабораторий вроде Qwen, GLM, Kimi. Давление оказалось настолько серьезным, что OpenAI впервые с 2019 года выпустила в открытый доступ текстовые модели GPT‑OSS. Параллельно российские компании тоже активизировались: в открытом доступе появились модели YandexGPT‑5, GigaChat‑3 и ряд других, лучше адаптированные под русский язык и контекст.

Второй слой — практический: «Лаборатория Касперского» уже много лет использует ML, но 2025‑й стал годом, когда ИИ окончательно встроился в продукты для бизнеса. В Kaspersky SIEM (KUMA) и XDR появились технологии обнаружения аномалий вроде DLL hijacking и Compromised Account Detection, помогающие поймать атаки, которые сложно описать статическими правилами. В линейке решений для контейнерной безопасности используются большие языковые модели, которые анализируют конфигурации контейнеров и подсвечивают потенциально опасные настройки. На этом же фундаменте построен KIRA — ИИ‑ассистент, который уже работает в Kaspersky EDR, XDR и Kaspersky Container Security. Он позволяет специалистам по безопасности задавать вопросы к данным на обычном русском языке («покажи события по таким‑то хостам за последнюю неделю»), получать сводки по инцидентам и даже генерировать SQL‑запросы без погружения в синтаксис.

Но главный герой доклада — ИИ‑агенты. Если чат‑боты уже стали привычными собеседниками, то агенты идут дальше: они умеют сами ходить по сайтам, работать с файлами на диске, управлять почтой, календарем и даже совершать покупки. В конце 2025 года, по словам Тушканова, такие агенты стали для разработчиков стандартным инструментом: можно отправить боту описание бага, уйти пить кофе и вернуться к почти готовому pull‑request. На рынок вышли и потребительские решения: от браузерных ассистентов, которые обещают «собрать вам корзину продуктов по рецепту», до агентов‑консьержей вроде Moltbot, которому доверяют доступ к почте, таск‑менеджеру и календарю. Появился даже проект, где энтузиаст научил бота управлять всей пользовательской цифровой жизнью по командам из мессенджера. Как нетрудно догадаться, уязвимостей там хватало: от чрезмерных платежей «за курсы личной эффективности» до потенциальной установки вредоносных программ.

Чтобы понять, как к этому относится аудитория, «Лаборатория Касперского» летом 2025 года опросила 1001 жителя крупных российских городов. Оказалось, что люди уже вовсю используют нейросети в сферах, где ошибка может стоить дорого. 27% из тех, кто прибегает к помощи ИИ, консультируются с ним по медицинским вопросам, 24% — по финансовым, 18% — по юридическим. Примерно каждый десятый из этих пользователей готов полностью полагаться на получаемые рекомендации. При этом в целом к безопасности нейросетей отношение настороженное: 67% считают их полностью или частично небезопасными. Больше всего людей пугает перспектива кражи или утечки данных (63%), получение недостоверной или устаревшей информации (60%) и риск того, что ИИ отучит думать своей головой (54%). Половина опрошенных боится получить вредный совет, который навредит здоровью или работе, а 38% тревожатся, что постоянное общение с ботами вытеснит человеческое. Хорошая новость — меры предосторожности хотя бы иногда соблюдают 86% пользователей: 63% не делятся с нейросетями персональными и конфиденциальными данными, 53% перепроверяют ответы, 49% не дают доступ к файлам и фотогалерее, 25% запрещают использовать переписки для обучения моделей, а 21% вообще регулярно чистят историю общения.

Вывод Тушканова одновременно оптимистичный и тревожный. С одной стороны, 2026 год действительно может стать годом ИИ‑агентов, которые снимут с людей массу рутины — от мониторинга инфраструктуры до сбора документов для налоговой. С другой — чем больше задач мы передаем агентам, тем выше ставки. Галлюцинации, промпт‑инъекции, умение злоумышленников подсовывать агентам изощренные инструкции в виде «невинных» сайтов и файлов делают такие системы угрозой не меньшей, чем спасением. Поэтому, помимо обучения пользователей и разработчиков, критичными становятся классические защитные решения: теперь они должны оберегать не только человека от вирусов, но и его цифрового помощника от того, чтобы тот, к примеру, не скачал и не запустил вредонос от имени хозяина. Не случайно компания уже выпустила обучающий курс для разработчиков ИИ‑систем и усиливает свои продукты технологиями поиска уязвимостей в AI‑сервисах.

Серые лебеди кибернастоящего

Финальный аккорд конференции — доклад Александра Гостева о так называемых «серых лебедях» цифрового будущего. В отличие от черных лебедей, это не абсолютно непредсказуемые катастрофы, а сценарии, которые сложно смоделировать, но вполне возможно представить. Первый — атака на время.

Практически все, что мы делаем в цифровом мире — от банковских транзакций до расследований инцидентов — держится на точном и синхронизированном времени, которое обеспечивают серверы NTP и цепочка доверенных источников. Если атаковать не конечные устройства, а первичные источники — атомные часы, GPS‑спутники — и очень аккуратно подмешивать небольшие, нерегулярные искажения, можно получить мир, где у разных систем чуть‑чуть расходятся временные шкалы. Сертификаты внезапно становятся недействительными, клиринг в банках дает сбои, логи теряют связность. Это не «конец времени», а конец единой объективной его версии, без которой сложные инфраструктуры начинают скрипеть.

Второй сценарий — «крах данных», постепенная утрата накопленных с 1970‑х по 2020‑е массивов знаний из‑за устаревания форматов, проприетарных баз, программных сред и банальной физической деградации носителей. Системной миграции исторически почти не было: переносили в будущее только то, что прямо приносило деньги. В результате образуются «цифровые острова», для которых уже нет ни подходящего софта, ни специалистов. Даже ИИ, обученный на современных данных, не всегда поможет: он просто не увидит того, что потеряно. Третий — кризис интеллектуальной собственности в эпоху ИИ: когда несколько крупных AI‑систем, работающих на схожих датасетах, приходят к одним и тем же эффективным методам в фарме или материаловедении, компании спешат запатентовать как можно более широкие классы решений. Возникает хаос перекрывающихся патентных притязаний, и целые области исследований становятся юридически токсичными — университеты и независимые лаборатории уходят из них, опасаясь судебных исков.

Отдельный «лебедь» касается криптографии. Мир давно следит за квантовыми компьютерами и готовится к их возможному влиянию, разрабатывая постквантовые алгоритмы. Но гораздо более болезненным может стать внезапный прорыв в классической математике — открытие алгоритма, который радикально упрощает факторизацию или вычисление дискретных логарифмов на обычных компьютерах. В один момент теряют надежность RSA и криптография на эллиптических кривых, рушится инфраструктура открытых ключей, а весь когда‑либо перехваченный зашифрованный трафик оказывается потенциально читаемым. У индустрии на такой случай нет готового плана, а массовый «переезд» на альтернативные схемы, которые еще не обкатаны, может сам по себе стать источником уязвимостей.

Не менее жестко звучат сценарии «киберКубы» — вынужденной цифровой блокады целой страны через манипуляции с BGP, отзыв критических сертификатов и саботаж подводных кабелей, и «киберэкотерроризма», когда злоумышленники не выводят завод из строя, а едва заметно меняют настройки систем контроля выбросов, годами отравляя окружающую среду. Добавьте к этому возможный солнечный супершторм уровня события Кэррингтона с десятками тысяч спутников на низких орбитах, каскадом столкновений и геомагнитными бурями, выводящими из строя энергосистемы. В сухом остатке — орбита как зона повышенного риска, GPS и спутниковая связь как ненадежная инфраструктура и очень дорогое, сложное «возвращение на Землю» для многих сервисов. Наконец, еще один серый лебедь — «конец сказки об ИИ»: не технический крах, а серия громких разочарований и переоценок, когда выяснится, что многие миллиарды инвестиций в ожидании быстрого наступления AGI не окупаются. Рынок уйдет от грандиозных обещаний к приземленным задачам — рекомендациям, антифроду, узкоспециализированным моделям, а ИИ окончательно превратится в инженерный инструмент, а не в религию.

Если попытаться собрать все эти сюжеты воедино, вырисовывается любопытная картина. На одном полюсе — очень конкретные проблемы сегодняшнего дня: бухгалтер, который по невнимательности открывает «досудебную претензию» в ЭДО; врач, спешащий ответить на жалобу пациента и запускающий архив с бэкдором; пользователь, который по телефону «от налоговой» сам кладет деньги на карту мошенника через «обратный NFC». На другом — системные риски уровня глобальной синхронизации времени, устойчивости криптографии и космической инфраструктуры. Между ними — нейросети и ИИ‑агенты, которые могут одинаково эффективно как помогать закрывать дыры, так и создавать новые. И в центре всего этого — люди: пользователи, разработчики, специалисты по безопасности, руководители, которым приходится принимать решения в мире, где границы между ИТ, бизнесом и повседневной жизнью окончательно стерлись.

Естественный отбор в эпоху ИИ

Уже после завершения официальной части мне удалось получить эксклюзивный комментарий Сергея Голованова, главного эксперта «Лаборатории Касперского» на один из самых неудобных вопросов современности: станем ли мы глупее на фоне стремительно умнеющих алгоритмов?

По мнению эксперта, прогресс ИИ неоспорим. Если еще пару лет назад вероятность того, что сгенерированный нейросетью код окажется рабочим, составляла около 20%, то сегодня этот показатель вырос до 80%. В рутинных задачах — будь то написание кода или базовая медицинская диагностика — ИИ все чаще оказывается точнее и быстрее человека. Но в этом же кроется и новый вызов для рынка труда.

«Проблема деградации навыков в рутине существует, но она порождает своего рода „цифровой естественный отбор“, — считает Сергей Голованов. — Возьмем специалистов SOC (центров мониторинга кибербезопасности). Те, кому инциденты и анализ кода не нужны, кто не хочет разбираться в сути процессов, навсегда останутся на первой линии поддержки. ИИ их не просто заменит, он сделает их уровень компетенций неактуальным».

Однако для тех, у кого сохраняется живой интерес к делу, нейросети станут мощнейшим катализатором роста. По аналогии с тем, как в 90-е и 2000-е произошло обесценивание массового высшего образования, сейчас происходит трансформация понятия «экспертность».

«Истинный рост начинается там, где человеку хочется докопаться до проводов, до математики, до самой сути, а не просто получить ответ от чат-бота, — резюмирует Голованов. — ChatGPT и его аналоги в конечном итоге повысят качество реального образования. Люди, которые будут постоянно перепроверять нейросеть и вникать в детали, станут элитой. Умных людей в абсолютных цифрах, возможно, станет меньше, но они будут на порядок умнее и профессиональнее текущего среднего уровня. Это естественный отбор в действии».

Я вынес с этой пресс‑конференции два практических вывода. Первый: 2026 год потребует от компаний зрелого разговора о кибербезопасности на уровне советов директоров, а не только ИТ‑служб. SOC, XDR, обучение сотрудников, выбор ИИ‑инструментов — это уже не «издержки прогресса», а условие выживания бизнеса. Второй: пользователям придется научиться относиться к своим данным и цифровым помощникам с тем же уважением, с каким мы относимся к деньгам и здоровью. Нейросеть, которая пишет вам гороскоп или диету, завтра может решать, как лечить, во что вкладывать и к какому юристу идти. А звонок «от службы безопасности банка» все так же начинается с простого «алло». В этой смеси старых и новых угроз, кажется, и предстоит жить в 2026‑м — а наша задача, как медиа и как сообщества «киберзнатоков», сделать так, чтобы эта жизнь оставалась по возможности безопасной.