Алгоритмы Instagram* стали причиной смерти подростка
На этой неделе в лондонском суде коронеру Эндрю Уокеру предстояло ответить на вопрос: насколько ответственны социальные сети за контент, который алгоритмы передают несовершеннолетним? Дело касалось 14-летней Молли Рассел, которая покончила с собой в 2017 году после того, как просмотрела тысячи постов в Instagram* и Pinterest, где пропагандировалось членовредительство.
В какой-то момент во время дознания Уокер описал контент, который Рассел нравился или сохраняла в течение нескольких дней перед смертью, как настолько тревожный, что его "почти невозможно было просматривать".
Уокер пришел к выводу, что смерть Рассел не может быть признана самоубийством, сообщает Bloomberg. Вместо этого он описал причину ее смерти как "акт членовредительства, вследствие страдания от депрессии и негативного влияния онлайн-контента".
Bloomberg сообщает, что Уокер пришел к такому решению на основании "плодотворного" использования Рассел Instagram*(принадлежит Meta*) - она лайкнула, поделилась или сохранила 16 300 сообщений за шесть месяцев до своей смерти - и Pinterest - 5 793 пинов за тот же период времени - при этом эти платформы подбирали контент, который лишь способствовал депрессивному состоянию Рассел.
"Платформы работали таким образом, используя алгоритмы, что в некоторых обстоятельствах приводили к периодам наплыва изображений, видеоклипов и текста", которые "романтизировали акты членовредительства" и "стремились изолировать и препятствовать обсуждению с теми, кто мог бы помочь", - сказал Уокер.
После решения Уокера семья Рассела опубликовала заявление, в котором назвала это решение знаковым, а также призвала регулирующие органы Великобритании быстро принять и ввести в действие законопроект о безопасности в Интернете.
* организация признана экстремистской, её деятельность запрещена на территории России