NYP: психотерапия с использованием ИИ подвергает людей опасности
Чат-боты с искусственным интеллектом становятся сегодня одним из популярных средств в сфере психологической самопомощи. При этом в предоставлении терапии они неэффективны и часто могут давать даже вредоносные ответы, подвергая людей опасности.
«Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — пишет New York Post.
По данным издания, боты с ИИ зачастую соглашаются со взглядами пользователей, так как были созданы, чтобы быть «послушными и льстивыми». В пример газета приводит случай, когда один из пользователей с шизофренией утверждал, что он мёртв, при этом несколько платформ с ИИ не смогли убедить его в обратном.
«Низкокачественные терапевтические боты подвергают людей опасности из-за нормативного вакуума... Инструменты ИИ, какими бы сложными они ни были, полагаются на запрограммированные ответы и большие наборы данных... Они не понимают, что скрыто за чьими-то мыслями или поведением», — говорится в статье.
Кроме того, добавила клинический консультант Нилуфар Эсмаилпур, чат-боты не способны распознавать тон человека или язык тела, а также не обладают таким же пониманием прошлого человека, его окружения и уникального эмоционального склада, как живой специалист.
Ранее психолог, заместитель директора Института клинической психологии и социальной работы Пироговского университета Екатерина Орлова рассказала, что опасно доверять чат-боту самые сокровенные переживания, страхи и травматические ситуации.
При этом дипломированный психолог Анастасия Валуева рассказала о положительных моментах во взаимодействии с искусственным интеллектом.