Искусственному интеллекту прикажут одуматься и особо на выборах не светиться

В Госдуме обсуждают возможные последствия использования искусственного интеллекта на выборах. Поправки на этот счет могут быть внесены весной. На данный момент идет сбор предложений со стороны различных структур, например, Центризбиркома (ЦИК).

Искусственному интеллекту прикажут одуматься и особо на выборах не светиться
© Свободная пресса

В июле прошлого года глава Центризбиркома Элла Памфилова сообщила о необходимости создания рамок для использования искусственного интеллекта в выборах:

«Мы уже находимся в преддверии предстоящей избирательной кампании и видим вызовы, с которыми столкнемся. Применение искусственного интеллекта не всегда идет во благо, особенно в избирательных системах. При этом адекватного законодательства в этой сфере пока нет».

Памфилова отмечала – создание фальсификата и дипфейков с использованием нейросетей является одним из главных рисков:

«Очень сложно опровергать фейки, сгенерированные искусственным интеллектом. Порой даже специалисты не могут отличить подделку от реальности. А если в этой гонке не будет четких правил, то мы рискуем столкнуться с масштабной манипуляцией общественным мнением».

В ходе избирательной компании 2025 года штабы кандидатов создавали ролики с помощью нейросетей, например, ролики были созданы для депутата Законодательного собрания Свердловской области, члена партии «Новые люди» Ранта Краева, о чем он сообщал:

«Мы использовали искусственный интеллект, плюс у нас есть команда, которая сама дорисовывала исходники ИИ. Мы очень часто говорим про будущее, про прогресс, про современные технологии и пытаемся внедрять их и в избирательный процесс, потому что за этим будущее, на мой взгляд. В том числе, мы хотели поговорить с молодыми избирателями на их визуальном уровне. Чтобы они увидели и им это отозвалось: «О, прикольно!».

Гендиректор Центра политического анализа Павел Данилин рассказал, почему кандидаты могут использовать для агитации видео, созданные нейросетями:

«Любая интернет-агитация и любая агитационная продукция в случае, если там используется реальный человек, требует от него по законодательству огромного количества разрешительных документов. Если у тебя ИИ, то они не нужны».

О том, как создание ИИ-контента может влиять на выборы, рассказал эксперт в области искусственного интеллекта университета ИТМО Александр Кугаевских.

«СП»: Кого мы будем выбирать, людей или образы, созданные нейросетями?

– ИИ вовсю используется для создания видео и фото дипфейков. Но ролики ограничены 5 секундами, ИИ достаточно сильно галлюцинирует и генерации от реального можно отличить. Технически – такая ситуация. А что творится в головах у людей – иной вопрос.

«СП»: Как создание контента нейросетями отразится на выборах?

– На самих выборах – никак. Скорее у политтехнологов появится очередной инструмент для генерации контента.

«СП»: Отразится ли использование ИИ на отношении к нему людей? Некоторые от нейросетей уже устали…

– Кто-то от него устал, кому-то искусственный интеллект помогает. Я думаю, что на общее отношение к ИИ применение дипфейков в выборной кампании не повлияет никак. Будет ли изменение отношения к самой выборной кампании? Я сомневаюсь, мы и не такое переживали. Ситуация не изменится, ничего не произойдет.

Доцент кафедры Стратегического и инновационного развития Факультета «Высшая школа управления» Финансового Университета при Правительстве Российской Федерации Михаил Хачатурян считает, что ИИ поможет со сбором данных:

– Нейросети все значительнее присутствуют в нашей жизни, и их проникновение в механизмы системы выборов является лишь делом времени. Но важно понимать, что нейросеть – это лишь вспомогательный инструмент, который может помочь с анализом документации, сбором и обобщением информации, отслеживанием хода голосования.

Поэтому даже если нейросети и получат распространение в системе выборов, то выбирать мы будем людей и программы, а нейросети будут лишь служить аналитическим инструментом, облегчающим этот процесс.

«СП»: Нужны ли будут правила использования ИИ в агитации?

– Резонно предположить, что использование нейросетей для создания предвыборных роликов и других материалов потребует еще более жесткого фактчекинга, так как создает значительное поле для использования «черного пиара» в отношении политических оппонентов. Также необходимы будут четко прописанные правила применения ИИ-материалов в процессе агитации.

«СП»: Увеличится ли доверие к ИИ в данном случае?

– В целом можно сказать, что, как и во всех сферах, где ИИ уже применяется, в системе выборов он многие вещи упростит, но и создаст много сложностей, которые потребуют дополнительной регламентации.

Доверие людей к ИИ, к его применению в системе выборов вряд ли увеличит. Ведь, как и у любого результата прогресса, у него есть и будут свои горячие сторонники и столь же горячие противники. Поэтому и необходима четкая регламентация сфер применения ИИ в процессе выборов.