Рамблер
Все новости
Личный опытНовости путешествийРынкиЛюдиИсторииБезумный мирБиатлонВ миреПриродаПрофессииПорядокЗОЖВоспитаниеЧто делать, еслиГаджетыМузыкаФинансовая грамотностьФильмы и сериалыНовости МосквыСтиль жизниНоутбуки и ПКГосуслугиПитомцыБолезниОтношенияКиноКредитыОтдых в РоссииФутболПолитикаПомощьСемейный бюджетИнструкцииЗдоровое питаниеТрудовое правоСериалыСофтВкладыОтдых за границейХоккейОбществоГероиЦифрыБезопасностьРемонт и стройкаБеременностьКнигиИнвестицииЛекарстваПоиск работыЛайфхакиАктерыЕдаПроисшествияЛичный опытНаучпопКрасотаМалышиТеатрыВыгодаПродуктивностьМебель и декорБокс/MMAНаука и техникаЗаконыДача и садПсихологияОбразованиеВыставки и музеиШкольникиКарты и платежиАвтоспортПсихологияШоу-бизнесЗащитаДетское здоровьеПрогулкиКарьерный ростБытовая техникаТеннисВоенные новостиХоббиРецептыЭкономикаБаскетболТрендыИгрыАналитикаТуризмКомпанииЛичный счетНедвижимостьФигурное катаниеДетиБиатлон/ЛыжиДом и садШахматыЛетние виды спортаЗимние виды спортаВолейболОколо спорта
Личные финансы
Женский
Кино
Спорт
Aвто
Развлечения и отдых
Здоровье
Путешествия
Помощь
Полная версия

Неожиданный эффект: эксперимент показал, какому ИИ подчиняются люди

Дружелюбие голосовых помощников или чат-ботов на основе искусственного интеллекта не несет практической пользы, потому что люди не следуют их указаниям.

© naukatv.ru

Проблема эта важна, поскольку ИИ проникает во все сферы — от службы поддержки до беспилотных автомобилей. Их зовут, как людей, например, Алекса или Клод, и ведут беседу эти системы буквально по-человечески. Однако чрезмерная фамильярность может дать обратный эффект. Ранее OpenAI снизила уровень «подхалимства» своей модели ChatGPT, поскольку это могло навредить пользователям с проблемами ментального здоровья.

Злободневную тему изучала Сидни Скотт-Шарони в своей докторской по психологии, которую она защищала в Технологическом институте Джорджии. Ее исследование показало: хотя участникам симпатичны более человечные ИИ, они с большей вероятностью подчиняются тому, кто звучит как робот. Это не критично в случае праздной болтовни с Алисой, но во взаимодействии с такими системами, например, как роботы-поводыри, послушание человека важно для его же безопасности.

«Хотя участники и оценивали более очеловеченных агентов выше, это не отражалось на их поведении», — отмечает исследовательница.

Симпатия vs. надежность

Скотт-Шарони провела четыре эксперимента. В первом участники отвечали на вопросы, видели ответ ИИ и решали, менять ли свой вариант. Она ожидала, что люди прислушаются к тому агенту, который им понравится.

«Оказалось, что чем более человечным казался участникам агент, тем реже они меняли ответ — то есть, по сути, меньше подчинялись его словам», — говорит автор.

Удивленная результатом, в следующем эксперименте она изучила моральные суждения с помощью голосового ИИ. Участники, к примеру, решали, как поступить, если в ресторане с них взяли меньше, чем следовало. И снова: участникам больше нравился «очеловеченный» голос, но прислушивались они больше к «роботизированному». Эта неожиданная закономерность заставила Скотт-Шарони выяснить причину такого поведения.

Суть предвзятости

Она предположила, что причиной такого парадокса стала предвзятость автоматизации — склонность считать машины более объективными, чем люди. Эту гипотезу исследовательница проверила в третьем эксперименте, основанном на дилемме заключенного, где участники сотрудничают с авторитетом или противостоят ему. В ее задаче участники играли против ИИ-агента.

«Я предположила, что люди будут мстить более человечному агенту, если он откажется сотрудничать, — рассказывает она. — Так и вышло: те, кто взаимодействовал с "очеловеченным" ИИ, со временем все меньше шли на сотрудничество, а с "роботизированным" — сохраняли стабильный уровень».

Последний опыт с симуляцией беспилотного автомобиля был самым реалистичным — и вызвал серьезные опасения с точки зрения безопасности. Участники не всегда подчинялись агентам обоих типов, но во всех экспериментах «очеловеченный» ИИ оказывался менее эффективен в его влиянии на поведение.

Какой ИИ нужен?

Выводы крайне важны для разработчиков. С развитием ИИ разработчики могут потакать предпочтениям пользователей, но то, что людям нравится, необязательно для них полезно.

«Многие люди начинают доверительные отношения с ИИ-агентом. Поэтому разработчикам важно понимать, какую роль ИИ играет в социальной структуре, и создавать технические системы, которые в конечном счете делают человека лучше. Работа Сидни — весомый вклад в достижение этой цели», — подытожил профессор Брюс Уокер, научный руководитель Скотт-Шарони.

Когда на кону безопасность и необходимость подчинения, робот оказывается убедительнее приятеля.