Как искусственный интеллект влияет на наши политические решения

Способность убеждать долгое время воспринималась как исключительно человеческий навык. Но с появлением языковых моделей ситуация изменилась. Искусственный интеллект сегодня умеет не только поддерживать диалог, но и выстраивать аргументацию по сложным темам, в том числе политическим. В новом материале «Рамблера» — о том, как ИИ участвует в процессе убеждения и что показывают исследования.

Как ИИ влияет на наши политические решения
© yucelyilmaz/iStock.com

Сила убеждения ИИ

Одно из самых известных исследований в этой области провели ученые из Стэнфордской высшей школы бизнеса и Стэнфордского института искусственного интеллекта, ориентированного на человека. Они проверяли, насколько ИИ способен убедить реального человека в поддержке политической инициативы.

В эксперименте участникам предлагали прочитать аргументированные сообщения по спорным вопросам — контролю над оружием, налогу на углерод, оплачиваемому отпуску по уходу за ребенком и так далее — без указания источника текста. Результат оказался неожиданным: ИИ-тексты в целом были не менее убедительными, чем тексты, написанные людьми. Это показывает, что в контролируемых условиях тексты, созданные ИИ, способны оказывать сопоставимое влияние на восприятие политических аргументов.

Исследование включало три предварительно зарегистрированных эксперимента с участием почти пяти тысяч американцев (общая выборка порядка 4 836 человек). Результаты показали, что LLM-сообщения могли вызывать измеримое изменение отношения участников к политическим вопросам, и эффект был сопоставим с тем, который достигается текстами, созданными людьми-непрофессионалами. Отдельно исследователи подчеркнули, что тексты людей респонденты чаще называли убедительными из-за историй и личного опыта, а тексты ИИ — из-за логичности и четкой структуры.

Может ли искусственный интеллект предсказывать будущее

Реакция на источник

Другое исследование, опубликованное в Scientific Reports, сфокусировано на том, как люди воспринимают источник сообщения. Ученые заметили важную закономерность: то, как люди реагируют на текст, зависит от того, считают они его написанным человеком или ИИ. Когда участникам сообщали, что текст был создан искусственным интеллектом, а не человеком, люди чаще проявляли большую открытость к аргументам, даже если они представляли контраргумент к собственным убеждениям.

Это наблюдение коррелирует с психологическими теориями: люди склонны оказывать сопротивление, когда чувствуют, что ими пытаются манипулировать, а ИИ как источник воспринимается как более нейтральный участник беседы. Таким образом, пометка об авторстве может усиливать или, наоборот, ослаблять эмоциональные барьеры восприятия.

Личное общение с ИИ

В другом крупном исследовании, о котором сообщалось на платформе EurekAlert!, анализировали реальное взаимодействие людей с AI-чатботами. В трех масштабных контролируемых экспериментах участвовали почти 77 000 человек, которые вели диалоги с 19 разными языковыми моделями, включая как небольшие открытые модели, так и самые мощные системы.

Ученые хотели понять, как различные факторы — размер модели, методы пост-обучения и способы подготовки команд — влияют на убедительность ИИ. Выяснилось, что целенаправленные методы обучения и подстройки под задачу повышали убедительность порой на десятки процентов. При этом более агрессивное обучение для повышения влияния часто снижало фактическую точность высказываний, что поставило перед исследователями этическую дилемму: чем более убедителен ИИ, тем чаще он может использовать некорректные данные.

В чем опасность ИИ в контексте политической повестки?

Если искусственный интеллект может создавать убедительные аргументы о социально значимых темах и восприниматься как источник, которому доверяют, это открывает путь для масштабной автоматизации политических воздействий. С одной стороны, такие технологии могут использоваться для распространения объективной информации, повышения политической грамотности и борьбы с манипуляциями. С другой — они создают условия для того, чтобы генерировать миллионы политических сообщений быстро и дешево, что усиливает риск дезинформации и манипуляций массовым сознанием.

Вопрос регулирования подобных технологий остается предметом дискуссий. Исследователи подчеркивают, что пока не существует универсальных механизмов, способных одновременно ограничить потенциальные злоупотребления и сохранить возможности для легитимного использования ИИ.

Ранее мы рассказывали, какие технологии используются для предотвращения кибератак.