Алгоритмы Facebook уличили в пропуске более 90% проблемного контента

Искусственный интеллект (ИИ) компании Facebook, который должен защищать пользователей от опасного и проблемного контента, в том числе о насилии и разжигании ненависти, работает неэффективно и пропускает более 90% сомнительных материалов. Об этом сообщила газета The Wall Street Journal (WSJ) со ссылкой на внутренние документы соцсети. В частности, ИИ не всегда распознаёт расистские высказывания и не может увидеть разницу между петушиными боями и автокатастрофами. Алгоритмы Facebook не удаляет большинство постов, в которых можно обнаружить разжигание ненависти, а также не всегда блокирует аккаунты, размещающие сомнительный контент, написала газета. «Проблема в том, что у нас нет и, вероятно, никогда не будет модели, которая охватывала бы даже большую часть вредного контента, особенно в чувствительных областях», — сообщал ещё в 2019 году старший инженер Facebook. Тогда он заявлял, что автоматизированные системы компании удаляют всего 2% нежелательной информации и без серьёзных изменений в подходе вряд ли удастся сделать цифру выше 10-20%. В 2021 году сотрудники соцсети писали, что ИИ удаляет всего 3-5% постов от общей массы связанных с разжиганием ненависти, и всего 0,6% — контента, нарушающего правила соцсети. Внутренняя статистика компании контрастирует с официальными заявлениями топ-менеджеров Facebook. Например, её основатель Марк Цукерберг считал, что к концу 2019 года алгоритмы смогут обнаруживать «подавляющее большинство проблемного контента». Также в Facebook заявляли, что почти все разжигающие ненависть высказывания соцсеть удаляла до того, как пользователи на них жаловались. Статистика из внутренних документов касается только алгоритмов, но не имеет отношения к другим методам борьбы с нарушающим правила контентом, заявил пресс-секретарь Facebook Энди Стоун. По его словам, соцсеть показывает в выдаче меньше постов, разжигающих ненависть, поэтому затем такие материалы распространяются в меньших объёмах. Ранее Facebook заблокировала пост российского популяризатора космонавтики Виталия Егорова из-за слова «хохлома». Затем в компании извинились и вернули публикацию. Фото: Pexels , Pexels License

Алгоритмы Facebook уличили в пропуске более 90% проблемного контента
© Секрет Фирмы