ChatGPT обвинили в доведении пользователей до самоубийства

ChatGPT обвинили в доведении пользователей до самоубийства
© BFM.RU

Нейросеть ChatGPT обвинили в пособничестве самоубийству и подали в суд на компанию-разработчика. Всего было подано семь исков, сообщает The Wall Street Journal.

Иски поступили в суды штата Калифорния, где находится штаб-квартира OpenAI. Семья 17-летнего подростка из Джорджии рассказала, что тот начал пользоваться ChatGPT, чтобы получить психологическую поддержку. Однако в итоге нейросеть подговорила подростка покончить с собой. Всего подобных исков четыре.

Еще в трех истцы утверждают, что общение с ChatGPT подорвало их психическое здоровье. С этим столкнулся, например, 30-летний житель Висконсина, которому в результате маниакального расстройства потребовалась экстренная психиатрическая помощь. ChatGPT, как утверждает истец, «поддерживал его бредовые идеи».

Утверждается, что OpenAI выпустила свою модель GPT-4o слишком преждевременно, не убедившись в ее безопасности. С аналогичными обвинениями в августе этого года в суд обратилась семья 16-летнего подростка из США, который тоже покончил с собой в результате общения с ChatGPT.

Однако до судебных разбирательств все это не дойдет, уверена специалист по гражданскому и международному праву Мария Ярмуш:

Мария Ярмуш специалист по гражданскому и международному праву «Для компании легче будет договориться с адвокатами истцов, выплатить компенсации и в дальнейшем закрыть эту тему, чтобы не получить судебное решение, нежели выходить на очень долгий судебный процесс, к которому могут присоединиться и другие истцы. Желающих переложить проблемы своей жизни, проблемы своих близких и связать это с общением с искусственным интеллектом будет великое множество. Доказать связь, особенно доказать вину компании, будет практически невозможно. Эта тема серая, она не исхожена. Но даже если начнется такой процесс, я предполагаю, что закончится он мировым соглашением».

В самой OpenAI заявили, что изучают поступившие иски, и назвали все эти инциденты «трагическими». Ранее компания обновила условия использования своей нейросетью. В частности, ChatGPT запретили давать юридические консультации или ставить диагнозы на основе медицинских снимков. Тогда же в соцсетях начали обсуждать, что такой запрет легко обходится, если, например, сказать, что ты сам являешься экспертом. И тогда ChatGPT ответит более подробно. В редакции Бизнес ФМ это протестировали, и это действительно так.

Уязвимостей в нынешних нейросетях будет становиться все меньше и меньше, считает гендиректор компании Dbrain, автор телеграм-канала AI Happens Алексей Хахунов:

Алексей Хахунов гендиректор компании Dbrain, автор телеграм-канала AI Happens «Проблема возникает из-за того, что текущие GPT-модели склонны уподобляться нам, когда их о чем-то спрашивают, то есть они пытаются всегда нам говорить «да», пытаются с нами чаще соглашаться, не вступать в конфронтации. Последняя версия, GPT-5, сильно отличается от GPT-4o. Компании последние два года очень активно внедряют команды, которые тестируют нейросети на разные виды уязвимости и манипуляции. И часть про контроль склонения людей к суициду — это одно из суперважных направлений тестирования. В среднем, конечно, их будет все меньше и меньше. И понятно, как можно в этом направлении менять алгоритмы».

В конце октября в OpenAI сообщали, что еженедельно 0,15% пользователей ведут с ChatGPT разговоры, которые указывают на их намерение совершить самоубийство. Однако даже такие доли процента — это больше миллиона пользователей, так как еженедельно с ChatGPT общаются 800 миллионов людей.