Facebook переоценила роль алгоритмов в модерации жестокого контента

Технологии искусственного интеллекта (ИИ), которые Facebook применяет для модерации в соцсети, не могут эффективно распознавать и удалять жестокий контент, а также контент с проявлениями ненависти, пишет The Wall Street Journal со ссылкой на позицию инженеров компании. При этом в 2019 году живые модераторы стали тратить меньше времени на рассмотрение жалоб на жестокий контент — из-за этого роль ИИ в публичной статистике завышена.