В АБА оценили разницу в подходах к модерации соцсетей в России и на Западе

Российские площадки удаляют вредоносный контент в 2 раза быстрее, чем зарубежные. Если в странах Запада на это может потребоваться несколько дней или недель, то в России для этого достаточно одного дня, отмечается в исследовании Ассоциации блогеров и агентств (АБА), с которым ознакомилась "РГ". Эксперты отмечают, что работа проделана действительно большая, однако количество не всегда означает качество.

В АБА оценили разницу в подходах к модерации соцсетей в России и на Западе
© Российская Газета

Как показывает изученный экспертами АБА мировой опыт, во многих западных странах за последние годы де-факто было принято решение о том, что ни платформы, ни государство не способны обеспечить достаточную безопасность пользователей от вредоносного контента, проще просто запретить. В частности, в Австралии в 2024 году принят закон о запрете детям до 16 лет заводить аккаунты в социальных сетях, в Германии дети до 16 лет могут пользоваться социальными сетями только с разрешения родителей. В Бельгии детям до 13 запрещено создавать аккаунты без разрешения старших, в Италии - с 14, во Франции - с 15. Аналогичные проекты рассматриваются в Норвегии, Великобритании, США.

Несмотря на то, что в России также ведется широкая общественная дискуссия на тему того, не стоит ли ввести общие ограничения доступа несовершеннолетних к социальным сетям, сегодня акцент делается на более качественной модерации, реализованной через сотрудничество государства и онлайн-платформ.

Ключевой участник процесса на этом направлении - это Роскомнадзор. Только за январь - май 2025 года из социальных сетей по требованиям РКН удалено более 20 млн противоправных материалов. В их числе - детская порнография, суицидальный контент, материалы, направленные на вовлечение несовершеннолетних в противоправную деятельность, и еще десятки аналогичных тем.

"На мой взгляд, сейчас работа по профилактике противоправного контента выстроена достаточно эффективно. Во многом это результат принятого несколько лет назад закона о самоконтроле соцсетей, но и в целом российские платформы привыкли чутко реагировать на требования Роскомнадзора". - говорит Антон Горелкин, первый зампред Комитета Госдумы по информполитике, председатель РОЦИТ.

Необходимо не только удалять вредоносный контент, но и выявлять его авторов

Он отмечает, что сверхзадача для нашей интернет-отрасли - сделать так, чтобы у пользователя не было необходимости посещать иностранные ресурсы. "Наполнять платформы полезным и разнообразным контентом, успешно конкурировать в части удобства и полезности сервисов", - подчеркнул Горелкин.

Количество не означает качество, отмечает глава Лиги безопасного интернета Екатерина Мизулина. "Важнее смотреть на то, как к опасному контенту относятся разные платформы и какие меры предпринимают. В этом плане западные платформы в разы менее оперативны в отличие от наших, а некоторые из них бездействуют вовсе (и это подтверждает число штрафов и взысканий по судебным решениям)", - рассказала Мизулина "РГ".

По ее словам, существенно различаются подходы платформ к контенту: некоторые оперативнее удаляют одни виды контента, некоторые другие. "Хотя правила сообщества в целом похожи. Например, тот же Telegram быстрее всего блокирует живодерский контент (от двух часов до 8 часов). Но медленно реагирует на сообщества, где публикуют кадры убийства наших военнослужащих, а также различные боты и ресурсы по продаже наркотических веществ, которых на платформе много, и ситуация здесь не меняется вовсе уже несколько лет", - сообщила Мизулина.

Она добавила, что важно не только очищаться от такого контента, но и устанавливать тех лиц, которые создают сообщества и группы, в первую очередь, связанные с насилием, терроризмом, продажей наркотических веществ, и распространяют соответствующие видео и фотографии. А также вовлекают подростков в совершение преступлений. "В этом плане все еще очень далеко от идеальной ситуации. Во многом здесь прогресс зависит от навыков сотрудников правоохранительных органов и оперативности их работы", - заявила глава Лиги безопасного интернета.

Принципиальную важность эффективного взаимодействия платформ и регуляторов отмечает и Елизавета Белякова, председатель Альянса по защите детей в цифровой среде. Но, по ее словам, не менее важно и развитие технических инструментов."Например, база хэшей, которая позволяет автоматически выявлять уже идентифицированный вредоносный контент и блокировать его появление повторно. В рамках работы в базу хэшей было добавлено более 900 000 единиц деструктивного контента", - отмечает Белякова.

В то же время отдельные направления нуждаются в доработке. "В частности, важно улучшать алгоритмы применения базы хэшей, усиливать прозрачность процедур модерации для пользователей и партнеров, а также развивать межплатформенный обмен данными, чтобы ускорять удаление контента, распространяющегося сразу на нескольких площадках. Эти шаги позволят дополнительно повысить устойчивость системы и снизить нагрузку на ручную модерацию", - рассказала глава Альянса.