«Он встраивается во все процессы» Почему ИИ стал опасным орудием мировой политики и как его будут использовать Россия, США и Китай?

Искусственный интеллект (ИИ) все чаще называют одним из ключевых рисков мировой политики и международной безопасности. Дипфейки способны провоцировать дипломатические кризисы и засорять информационное пространство, а использование ИИ в военной сфере давно перестало быть фантастикой про войны роботов и стало реальностью. На этом фоне, несмотря на гонку технологий между США и Китаем, многие государства пытаются договориться об общих правилах игры. О том, какие угрозы несет ИИ для политики и дипломатии и почему он усиливает разрыв между странами, «Ленте.ру» рассказала кандидат политических наук, доцент СПбГУ и приглашенный преподаватель НИУ ВШЭ, эксперт дискуссионного клуба «Валдай» и генеральный директор АНО «Колаборатория» Анна Сытник.

Почему ИИ стал опасным орудием мировой политики?
© Lenta.ru

«Лента.ру»: В последнее время слишком много говорят о влиянии дипфейков на политические процессы. Они и впрямь представляют реальную угрозу?

Анна Сытник: И да и нет. Фальшивые фото и видео — не сегодняшнее открытие.

Для дискредитации политических оппонентов этим приемом пользуются очень давно. Но ретушеры и мастера фотошопа почему-то не пугают людей.

ИИ просто дал в руки обывателя гораздо более широкий инструментарий. Теперь условный школьник может за пять минут сделать «компрометирующее» видео со своей ненавистной классной руководительницей. Но, откровенно говоря, большинство людей уже привыкло к подобному контенту и не принимает все за чистую монету.

Наоборот, ИИ внес вклад в повышение критического мышления обычного человека

Тем не менее проблема есть. Ее признают, и для ее решения регуляторные органы разных стран предлагают различные меры — от запрета на генерацию подобных фото- и видеоматериалов до обязательной маркировки контента, созданного ИИ. При этом многие правительства делают ставку и на развитие цифровой грамотности населения.

Но если говорить о международных отношениях, где работают образованные и опытные люди, то как дипфейки могут повлиять на их решения?

Дипфейки создают риск провокаций и ошибочных решений.

Представим, что появляется видео с заявлением лидера некой страны о ракетном ударе, мобилизации или выходе из переговоров. Даже если это фейк, в первые часы он способен запустить панику, обвалить рынки, вынудить к ответным действиям и сорвать дипломатические процессы.

Вторая проблема — размывание доказательств.

Любые реальные записи и документы становится проще оспаривать фразой «это дипфейк», что подрывает расследования, международные разбирательства и саму доказательность в политике

Есть и еще один уровень — ИИ-спам. Массовый поток синтетического контента забивает инфополе и делает управляемым внимание аудитории. В таком шуме проще скрывать правду и навязывать нужную повестку.

А что предлагается делать для борьбы с дипфейками на международном уровне?

На международном уровне бороться предлагается не запретами, а правилами и процедурами.

Во-первых, нужны заранее согласованные протоколы быстрой проверки и опровержения информации в кризисных ситуациях. Страны должны реагировать не на ролики из соцсетей, а действовать по понятной и согласованной процедуре.

Во-вторых, необходимы технические стандарты происхождения контента: маркировка синтетики, сохранение метаданных, «цепочки происхождения» для официальных видео и заявлений.

В-третьих, важно повышать ответственность платформ, чтобы политически опасные вбросы и сетевые кампании не разгонялись алгоритмами без контроля.

Наконец, нужны меры против ИИ-спама: антиспам-стандарты, прозрачность политической рекламы и сетей аккаунтов, ограничения на массовую автоматическую публикацию.

Главная цель — восстановить доверие через понятные процедуры и инфраструктуру проверки, а не надеяться на один детектор или один запрет

А где ИИ может быть полезен в политических процессах?

ИИ в политике — это «сквозная технология». Он похож на электричество: его не всегда видно, но он встраивается почти во все процессы.

Прежде всего ИИ используют в государственном управлении. Он помогает быстрее обрабатывать документы и обращения граждан, выявлять ошибки и нарушения, прогнозировать нагрузку на социальные системы, поддерживать работу налоговых и контрольных органов, управлять городскими сервисами.

Это делает государство более производительным, но одновременно поднимает вопросы прозрачности: кто и как проверяет решения алгоритма

Второе ключевое направление — безопасность. ИИ анализирует большие массивы данных, помогает разведке и аналитическим центрам, используется в киберзащите, раннем выявлении угроз и мониторинге рисков. Его ценность — в скорости обработки информации, но ошибки здесь могут стоить очень дорого.

Третье направление — экономика и инфраструктура вокруг политики.

ИИ стал двигателем конкуренции: где есть вычисления, дата-центры, энергия и кадры, там больше возможностей и влияния

Именно поэтому правительства все чаще говорят об ИИ как о вопросе суверенитета. Это не просто модная тема. Без доступа к вычислениям и технологиям страна начинает зависеть от чужих правил. Этому, кстати, посвящен наш недавний доклад.

ИИ стал важным фактором международной безопасности. Как он используется военными?

ИИ — это классическая технология dual use, то есть технология двойного назначения. В современных конфликтах он активно применяется прежде всего для разведанализа, управления беспилотниками, киберопераций и ускорения принятия решений.

Это не «роботы, которые воюют сами», а усилитель скорости и точности

Но чем выше скорость, тем выше риск ошибки и эскалации. Это может приводить к ложным тревогам, неверной атрибуции и решениям «на автомате». Поэтому необходим международный диалог — согласование минимальных правил применения dual use и каналов предотвращения инцидентов даже между конкурентами.

Как технологии ИИ меняют характер военных конфликтов?

Главное изменение связано с ролью человека. Он все чаще уходит от прямого столкновения и переходит к управлению дистанционной техникой.

Теперь военный — оператор и аналитик, а не солдат в классическом смысле

Дискуссия о допустимости применения ИИ в летальных системах вооружений идет уже давно. Передача машине права самостоятельно принимать решение о нанесении удара — крайне серьезный шаг. Помимо этических вопросов возникает проблема распределения ответственности в случае фатальных ошибок.

Сейчас активно развиваются проекты по внедрению ИИ в системы противоракетной и противовоздушной обороны. Это ответ на появление гиперзвукового оружия, где скорости реакции человека уже недостаточно. И это опасное направление.

Никому не хочется, чтобы сценарий фильма «Терминатор», где система «Скайнет» решила уничтожить человечество, стал реальностью

Именно поэтому внедрение ИИ в стратегические системы вооружений будет максимально осторожным.

Использование ИИ ведет к росту вооруженных конфликтов или, наоборот, сдерживает стороны?

Сама по себе технология ИИ вряд ли приведет к росту числа конфликтов. Это скорее следствие обострения противоречий между ведущими державами за ресурсы и рынки. Но характер боевых действий, безусловно, изменится.

Есть надежда, что со временем появятся соглашения по логике контроля над ядерным вооружением: прозрачность, красные линии, каналы предотвращения инцидентов, запреты на наиболее опасные практики.

Однако реалистичный сценарий предполагает сначала фазу обострения.

Новые технологии обычно проходят этап гонки и испытаний «на практике». Лишь накопив страх ошибок и опыт, стороны готовы договариваться

Но диалог уже идет.

Усиливается ли разрыв между лидерами в сфере ИИ и отстающими странами?

Сейчас идет настоящая гонка ИИ — прежде всего между США и Китаем. Это своего рода трасса без карты, поскольку четких правил пока нет.

Разрыв между лидерами и отстающими растет, потому что это гонка не только моделей, но и вычислений, энергии и инфраструктуры

У лидеров значительно больше ресурсов и денег. Размеры ВВП несопоставимы, и это напрямую влияет на возможности.

К чему приводит этот разрыв?

Он ведет к новой форме технологической зависимости. Страны начинают покупать у IT-гигантов не просто софт, а экосистемы «под ключ» вместе со стандартами и условиями доступа — фактически суверенитет как сервис.

Этому противостоят отдельные государства, в том числе Китай и Россия, а также международные форматы — ООН, БРИКС и региональные объединения.

Китай продвигает идею создания глобальной организации по ИИ, Россия эту линию поддерживает. Цель — не замедлить технологии, а выработать правила и обеспечить более справедливый доступ к инфраструктуре и данным, не допуская цифрового колониализма.

Насколько единым в развитии ИИ выступает Европейский союз (ЕС)?

ЕС не полностью един. В регулировании он достаточно монолитен: есть общий подход к стандартам, рискам и ответственности.

Но внутри ЕС идет конкуренция за реальную мощь: вычисления, дата-центры, энергию, деньги программ и таланты

У стран разные приоритеты: промышленный ИИ, сервисы, финтех, привлечение глобальных облаков или развитие суверенных решений. Поэтому ЕС говорит одним голосом о правилах, но развивается как Европа разных скоростей.

Недавно по этой теме главный аналитик нашего центра Дарья Моисеева подготовила рабочую тетрадь о цифровом управлении в ЕС и заметку о втягивании Европейского союза в глобальную гонку ИИ.

Какова стратегия России в сфере развития ИИ?

Стратегия России должна быть не про гонку с США и Китаем, а про суверенный контур и качество внедрения.

Нужен прагматичный путь: суверенность в критических технологиях и инфраструктуре сейчас и прорывные направления на завтра

Гонка за самыми мощными моделями на текущем этапе — заведомо проигрышная стратегия. Гораздо важнее развивать международное сотрудничество, предпосылки для которого уже есть.

Национальная стратегия развития ИИ до 2030 года делает акцент на прикладном эффекте: типовые решения для отраслей, рост производительности, развитие отечественных платформ, подготовку специалистов и доверенные режимы работы с данными.

Параллельно укрепляется вычислительная и энергетическая база и выстраивается государственная координация.

Россия может показать, как сделать рывок за счет эффективного внедрения генеративного ИИ в экономику, и тем самым усилить свои позиции в гонке

С какими проблемами связано дальнейшее развитие ИИ?

Есть несколько ключевых вызовов.

Во-первых, ИИ-пузырь. Ожидания и инвестиции перегреты, особенно в США.

В 2026 году рынок будет требовать доказуемой отдачи — не демонстраций, а реального экономического эффекта

Во-вторых, нейротех и биотех. ИИ все глубже проникает в медицину, работу с биоданными и генной инженерией, что резко повышает ставки по этике и безопасности.

Третья проблема — милитаризация. Появление tech force в США это наглядно демонстрирует.

Наконец, существуют эксперименты с использованием ИИ в сомнительных политических целях, включая создание националистических языковых моделей.

Отдельный вызов — энергетический голод и уязвимость инфраструктуры: дата-центры становятся критическими объектами и трансформируются в «ИИ-бункеры»

В ближайшее время мы увидим и новый виток «повседневного ИИ»: встроенные в телефоны и операционные системы решения, массовое распространение ИИ-агентов. Меняется и образование — речь уже не о запрете, а о том, как встроить ИИ так, чтобы он усиливал мышление.

ИИ будет активно использоваться и в космической отрасли. Уже сегодня это автоматическое управление спутниковыми группировками. SpaceX применяет ИИ для эксплуатации Starlink, а компании Planet и Maxar — для анализа спутниковых снимков. Параллельно обсуждаются проекты орбитальных дата-центров.

Что будет с гонкой в сфере ИИ?

Гонка США и Китая за создание «сверхинтеллекта» продолжится, а технологический протекционизм усилится. Но параллельно развивается и сотрудничество.

Коллективные усилия мирового большинства по глобальному регулированию и балансированию этого процесса выйдут на новый уровень