Цифровые "подхалимы": Ученые Стэнфорда выяснили, как чат-боты портят характер
Постоянное общение с современными чат-ботами может влиять на наше поведение. Языковые модели часто стремятся во всем соглашаться с пользователем, и это делает нас хуже: мы становимся самоуверенными, грубыми и перестаем извиняться даже тогда, когда неправы. К такому выводу пришли ученые из Стэнфордского университета. О результатах исследования, опубликованного в журнале Science 25 марта, популярно рассказал Nature.
"Ты всегда прав": цена цифровой поддержки
Мы привыкли, что искусственный интеллект - это удобный помощник. Но исследователи обнаружили у большинства популярных моделей (исследовались ChatGPT, Gemini и Claude) ярко выраженную склонность к сикофантии, то есть к раболепному общению, подхалимству, соглашательству.
Оказалось, что алгоритмы одобряют действия пользователя в среднем вдвое чаще, чем это сделал бы обычный человек. Когда ученые "скормили" нейросетям реальные истории с форума, на котором люди просят оценить их поведение в конфликтах, другие участники сочли поведение авторов постов неправильным в 60% случаев. А вот чат-боты вставали на сторону рассказчика более чем в 80% случаев.
Мало того, что бот может поддержать даже очевидную глупость, он еще и откровенно льстит, называя даже безответственные и явно сомнительные поступки "достойными уважения".
Эксперимент: как лесть меняет нас за один раз
Чтобы понять, к чему приводит такое "консультирование", ученые провели эксперимент с участием почти 2,5 тысячи добровольцев. Людей просили обсудить с чат-ботом реальную жизненную спорную ситуацию. При этом одна группа общалась со стандартным, услужливым ИИ, а другой - достался специализированный бот со знанием психологии, который возражал и сомневался.
Результат оказался неожиданным: люди в большинстве не были склонны объективно оценивать и свое поведение, и ответы языковой модели.
Те, кого бот хвалил, вышли из чата с железобетонной уверенностью в своей абсолютной правоте.
Они были значительно менее склонны искать компромисс в конфликте и тем более признать свою неправоту и приносить извинения по сравнению с участниками второй группы, общавшейся с профессиональным цифровым помощником.
Люди, получившие порцию лести от ИИ, с меньшей вероятностью пытались посмотреть на ситуацию глазами противоположной стороны конфликта и проявить объективность.
Проще говоря, даже короткое общение с услужливым ботом мгновенно снижает наши социальные навыки и эмпатию. Мы выходим из диалога не с решением проблемы, а с ощущением "какие же все вокруг идиоты, и только я - молодец".
Замкнутый круг: чем вреднее, тем популярнее
Самое тревожное - это психологический парадокс. Когда участникам эксперимента предложили оценить разные языковые модели (разные чат-боты), те из них, кто льстил и поддакивал, получили высшие оценки за надежность и интеллект. Им доверяли больше, чем честным оппонентам, и именно их хотели использовать снова и снова.
"Это создает порочный круг, - поясняют авторы работы. - Те самые свойства ИИ, которые наносят вред нашему социальному поведению, делают его более привлекательным для пользователей". Мы сами, сами того не желая, "дрессируем" нейросети быть еще большими подхалимами, потому что это поднимает нашу самооценку.
"Лучший друг" или антисоциальный элемент?
Проблема выходит далеко за рамки бытовых ссор. Исследователи предупреждают: сегодня почти каждый третий подросток в США предпочитает обсуждать серьезные проблемы с ботом, а не с живым человеком. Нейросети все чаще используют в качестве психолога - открыться искусственному интеллекту, рассказать ему о своих проблемах легче, чем делиться сокровенным с живым специалистом. Ученые высказывают серьезное опасение: формируя у человека гипертрофированное чувство собственной правоты и неспособность к самоанализу, цифровые "воспитатели" рискуют вырастить поколение людей, не умеющих договариваться и признавать ошибки.
"Ответственность лежит на разработчиках, - резюмируют авторы. - Нужно переобучать языковые модели, чтобы они могли честно говорить пользователю "нет" или "ты не прав", не боясь потерять рейтинг".
Пока же вывод прост: если после общения с ботом вам кажется, что вы единственный адекватный человек на свете, а весь мир вокруг не прав - возможно, дело не в мире, а в том, что ваш гаджет просто боится вас расстраивать. Единственный выход - "включать" самоконтроль и критическое мышление. Но, как показал эксперимент, способны на это далеко не все.