NYP: психотерапия с использованием ИИ подвергает людей опасности

Чат-боты с искусственным интеллектом становятся сегодня одним из популярных средств в сфере психологической самопомощи. При этом в предоставлении терапии они неэффективны и часто могут давать даже вредоносные ответы, подвергая людей опасности.

Психотерапия с использованием ИИ подвергает людей опасности
© РИА Новости

«Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — пишет New York Post.

По данным издания, боты с ИИ зачастую соглашаются со взглядами пользователей, так как были созданы, чтобы быть «послушными и льстивыми». В пример газета приводит случай, когда один из пользователей с шизофренией утверждал, что он мёртв, при этом несколько платформ с ИИ не смогли убедить его в обратном.

«Низкокачественные терапевтические боты подвергают людей опасности из-за нормативного вакуума... Инструменты ИИ, какими бы сложными они ни были, полагаются на запрограммированные ответы и большие наборы данных... Они не понимают, что скрыто за чьими-то мыслями или поведением», — говорится в статье.

Кроме того, добавила клинический консультант Нилуфар Эсмаилпур, чат-боты не способны распознавать тон человека или язык тела, а также не обладают таким же пониманием прошлого человека, его окружения и уникального эмоционального склада, как живой специалист.

Ранее психолог, заместитель директора Института клинической психологии и социальной работы Пироговского университета Екатерина Орлова рассказала, что опасно доверять чат-боту самые сокровенные переживания, страхи и травматические ситуации.

При этом дипломированный психолог Анастасия Валуева рассказала о положительных моментах во взаимодействии с искусственным интеллектом.