Как выявило исследование Social Networks Analysis Center, 68% пользователей социальных сетей сталкиваются с контентом, подтверждающим их взгляды. А по данным Statista, показ персонализированного контента и ленты новостей, сформированных на основе пользовательских предпочтений, увеличивает частоту и продолжительность сессий на медиаплатформах на 35%. Но сегодня ИИ знает о наших предпочтениях чересчур много, и это приводит к неприятным и даже угрожающим эффектам. В цифровой среде гораздо легче найти сторонников общих убеждений и отсеять противников, а алгоритмы ИИ не только найдут нужную информацию, но и подкрепят ее непроверенными фактами, ложными утверждениями и фейковыми видео. Но, отдавая предпочтение информации, близкой по духу, идеологии или уровню знаний, социум сам себя загоняет в страшную ловушку «эхо-камер». И, кажется, что исхода не будет.
С октября 2023 года в России действует закон, обязывающий онлайн-сервисы раскрывать работу рекомендательных технологий. Цель — сделать их более прозрачными и снизить риски манипулятивного воздействия на пользователя.
Результаты показывают: соцсети анализируют поведение, включая лайки, подписки, историю запросов и геолокацию. Маркетплейсы идут еще дальше — в расчет берется даже глубина цветности экрана. Эти данные используются не только для сортировки товаров или видео, но и для подстройки новостной ленты, поисковой выдачи, музыкальных рекомендаций. Искусственный интеллект учится в режиме реального времени и всё точнее «угадывает», что может понравиться пользователю. Но за удобством и точностью кроется технологический и социальный парадокс. ИИ-алгоритмы имеют серьезный побочный эффект — они ограничивают кругозор. Чем больше нейросеть знает о предпочтениях пользователя, тем уже становится спектр контента, который она предлагает. Так появляются «эхо-камеры» и «информационные пузыри».
Пользователя окружает ограниченный набор информации. Это может происходить из-за личных предпочтений, круга общения или рекомендаций, основанных на искусственном интеллекте. Если он читает статьи исключительно о моде или искусстве, но не интересуется политикой, то алгоритмы будут подкидывать ему материалы о том, как, например, Сальвадор Дали сотрудничал с Эльзой Скиапарелли, а подборка новостей в ленте будет игнорировать финансовые, политические и технологические новости, все больше сужая круг рекомендованного контента.
Еще в далеком 2001 году американский ученый и политический активист Касс Роберт Санстейн (Cass R. Sunstein) в своей работе «Демократия и Интернет» предупреждал, что Интернет может негативно влиять на совещательную демократию из-за фильтрации информации, сужающей кругозор пользователей и усиливающей групповую поляризацию. В качестве примера он приводит дебаты Буша и Гора во время выборов в США в 2000 году, а также импичмент Клинтона. Именно он первым ввел термин «эхо-камеры» применительно к медиа.
Системы рекомендаций и модерация контента не только снижают разнообразие информации, но и способствуют усилению когнитивных искажений и поляризации общества. В социальной сети X* (ранее Twitter) (*официально запрещена в РФ) или на YouTube вы легко можете попасть в замкнутый круг контента, подтверждающего только вашу позицию, от выбора ОС до политических убеждений. В итоге пользователь всё реже сталкивается с альтернативными точками зрения.
Проведенное в 2023 году исследование Science Advances (2023) показало, что алгоритм YouTube продвигал теории заговора, включая идею «плоской Земли», пользователям, проявлявшим интерес к псевдонауке. Еще раньше, в 2019 году, к таким же выводам пришли А. Лэндрам, А. Ольшанский и О. Ричардс, авторы научной статьи «Дифференциальная восприимчивость к вводящим в заблуждение аргументам о плоской Земле на YouTube». В ходе эксперимента, в котором участвовали только постоянные пользователи YouTube, ученые обнаружили, что восприимчивость людей к аргументам в пользу плоской Земли, которые продвигал YouTube, повышали низкий уровень научного интеллекта и склонность к конспирологии.
Во время пандемии COVID-19 стало очевидно, что ИИ-алгоритмы могут усиливать распространение ложных данных. Эмоционально заряженные, противоречивые или сенсационные материалы получают приоритет, поскольку вызывают больше откликов — лайков, репостов, просмотров.
В июле 2024 года NewsGuard обнародовал итоги своего исследования, в котором анализировал TikTok-аккаунты, использующие сгенерированное ИИ озвучивание для массового распространения политической дезинформации. 41 TikTok-аккаунт опубликовал 9 784 таких видео. За 458 дней они набрали более 380 млн просмотров. Большинство видео содержали ложные или вводящие в заблуждение утверждения, включая теории заговора и пропаганду. Но рекомендательные алгоритмы платформы активно продвигали эти видео, несмотря на их сомнительный характер.
Где проходит грань между полезной персонализацией и вредной изоляцией? Можно ли бороться с распространением дезинформации? И как отличить фейк, созданный искусственным интеллектом, от реальности? Эти вопросы все чаще звучат в информационном пространстве.
Алгоритмическое подавление дезинформации всё чаще зависит не столько от технологий, сколько от этических и управленческих решений тех, кто контролирует цифровые пространства. Алгоритмы не понимают, что такое «истина» — они оптимизируют вовлечённость.
Илон Маск, к примеру, после покупки Twitter изменил систему верификации, позволив практически любому желающему приобрести заветную голубую галочку за деньги, в надежде, что это повысит ответственность пользователей за публикуемую информацию.
«В настоящее время существует большая опасность того, что социальные сети расколются на крайне правые и крайне левые эхо-камеры, которые будут порождать ещё больше ненависти и разделять наше общество», — писал Маск в 2022 году.
Как искусственный интеллект стал отягчающим обстоятельством
Однако на практике это решение вызвало неоднозначные последствия: система верификации перестала быть маркером достоверности, а фейковые аккаунты получили больше возможностей для распространения дезинформации.
Маск продолжает экспериментировать с алгоритмами рекомендаций в соцсети X* (*официально запрещена в РФ), постоянно анонсируя внедрение новых изменений. В дополнение к изменениям в системе продвижения контента, он интегрирует в платформу собственный искусственный интеллект Grok, который анализирует поведение пользователей, чтобы предлагать релевантные темы, новости и посты в режиме реального времени. Однако исследования показали, что Grok склонен поддерживать эмоционально заряженные и популярные темы, что усиливает эффект вовлечённости. А тот факт, что Grok использует данные из X* (*официально запрещена в РФ) в качестве основного источника для обучения, по мнению экспертов, может еще больше усиливать эффект эхо-камер.
Meta* (*признана экстремистской и официально запрещена в РФ) тоже проводит эксперименты с выдачей контента пользователям. С 2020 года компания сотрудничает с независимыми фактчекерами, такими как Reuters, AFP, PolitiFact. В результате страницы и аккаунты, регулярно распространяющие фейки, получают ограничение охвата.
Поиск ИТ-решений для противодействия дезинформации невозможен без понимания принципов машинного обучения. В 2019 году DeepMind, дочерняя компания Google по искусственному интеллекту, провела моделирование пяти различных алгоритмов рекомендаций, которые в разной степени отдавали приоритет точному прогнозированию того, что именно интересует пользователя, по сравнению со случайным продвижением нового контента. Они обнаружили, что алгоритмы, которые в большей степени отдавали приоритет точности, приводили к гораздо более быстрому вырождению системы. Другими словами, лучший способ борьбы с «пузырями фильтров» или «эхо-камерами» — сделать алгоритмы более исследовательскими, показывающими пользователю то, что с меньшей вероятностью вызовет его интерес. Также может помочь расширение общего набора информации, на основе которой составляются рекомендации.
Исследователи уже давно осознали противоречие между точным прогнозированием и эффективным исследованием в рекомендательных системах.
Несмотря на то, что некоторые пользователи готовы мириться с более низким уровнем точности, чтобы получать разнообразные рекомендации, у создателей по-прежнему отсутствует стимул разрабатывать алгоритмы таким образом. Почему так происходит?
Во-первых, большинство платформ заточены под метрики: время, проведенное пользователем на сайте или в приложении, клики и просмотры, лайки, комменты и репосты. А исследовательский контент выводит пользователя из его привычек, он непредсказуем, рискован. Меньше точности – больше промахов. Для бизнеса это финансово невыгодно: каждая потерянная минута внимания оборачивается потерей денег.
Во-вторых, диверсификация контента сложна технически, она требует новых архитектур моделей. Это увеличивает затраты на обучение, тестирование и т.д.
В-третьих, нет особых требований государства или внешнего давления со стороны инвесторов, строгие нормы «алгоритмического регулирования» отсутствуют.
В мае этого года исследователи Яндекс открыли доступ к одному из крупнейших рекомендательных датасетов — Yambda. Он содержит 4,79 млрд обезличенных пользовательских действий, собранных за 10 месяцев использования сервиса Яндекс Музыка. Эксперты считают это действительно важным событием для всей индустрии рекомендательных систем, и важным шагом в сторону большей открытости и подотчётности ИИ-систем. Ранее доступ к таким масштабным данным имели только крупные платформы — Яндекс, VK, Spotify, Netflix. Теперь же академические исследователи, независимые разработчики и студенты смогут обучать модели на настоящих, масштабных данных. Это поможет создавать новые алгоритмы, улучшать старые и тестировать идеи, которые иначе были бы невозможны, бороться с замкнутыми алгоритмическими циклами. Для других компаний это мощный стимул раскрыть метрики, делиться данными для открытой науки, тестировать «менее предвзятые» алгоритмы.
Несмотря на очевидные недостатки рекомендательных алгоритмов, они действительно спасают пользователей от информационной перегрузки. Без персонализации люди тонули бы в море нерелевантных данных. ИИ помогает находить то, что действительно важно. Исследование MIT Sloan Management Review (2021) показало, что персонализированные алгоритмы снижают когнитивную нагрузку, экономя, в среднем, до 13 минут на потребление контента в день благодаря отбору релевантной информации.
Существующие исследования подтверждают, что персонализированные новостные рекомендации могут эффективно повышать вовлечённость пользователей и способствовать более глубокому интересу к важным темам.
Если алгоритмы показывают контент по интересам, люди чаще читают новости и глубже погружаются в темы. В 2023 году Meta* (*признана экстремистской и официально запрещена в РФ) провела исследование, в рамках которого пользователям Facebook* и Instagram* (принадлежат компании Meta, признана экстремистской и официально запрещена в РФ) предоставлялась возможность использовать хронологическую ленту вместо алгоритмической. Аналитики намеревались оценить влияние такого изменения на распространение дезинформации и политическую поляризацию. Результаты показали, что, хотя пользователи стали видеть больше политического и недостоверного контента, это не привело к значительным изменениям в их политических взглядах или уровне поляризации.
Кроме того, есть сферы, где польза персонализации весьма заметна. Например, в образовании: адаптивные обучающие платформы (например, Duolingo, Khan Academy) с помощью ИИ подстраивают сложность материала под уровень ученика, что делает обучение эффективнее. Duolingo использует ИИ-модель Birdbrain, которая отслеживает ошибки и поведение пользователя, чтобы адаптировать упражнения и повысить эффективность обучения.
В сфере медицины персонализированные медицинские рекомендации спасают жизни: алгоритмы анализируют историю болезней и предлагают индивидуальные методы профилактики.
Исследования алгоритмов рекомендательных систем не должны ограничиваться симуляциями или офлайн-анализом данных. Человеческое поведение отличается высокой степенью сложности и контекстной чувствительности. С одной стороны, существует эмпирическая база, подтверждающая ценность разнообразия в рекомендациях. С другой — чрезмерное отклонение от ожидаемого или релевантного контента может восприниматься пользователями как потеря доверия к системе, что, в конечном итоге, ведёт к снижению их вовлеченности и отказу от использования платформы.
Такие решения, как предоставление пользователям большего контроля над их лентами или изменение алгоритмов платформы для намеренного включения контента с различными точками зрения, дадут пользователям возможность изучать более широкий спектр тем и точек зрения.
Будущее рекомендательных систем может пойти по двум сценариям: либо они станут более замкнутыми и манипулятивными, либо, напротив, начнут развиваться в сторону большей открытости, разнообразия и подотчётности. Чтобы реализовать второй путь, необходима совместная работа исследователей, разработчиков, платформ, пользователей и регуляторов. Публикация крупных датасетов, этичные экспериментальные алгоритмы и осознанное отношение к архитектуре ИИ — шаги в верном направлении. Рекомендательные системы могут быть не только удобным интерфейсом для потребления, но и инструментом расширения кругозора — если их проектировать с учётом этого. Вопрос не в том, стоит ли их использовать, а в том, какими мы хотим их видеть.