Рамблер
Все новости
Личный опытНовости путешествийРынкиЛюдиИсторииБезумный мирБиатлонВ миреПриродаПрофессииПорядокЗОЖВоспитаниеЧто делать, еслиГаджетыМузыкаФинансовая грамотностьФильмы и сериалыНовости МосквыСтиль жизниНоутбуки и ПКГосуслугиПитомцыБолезниОтношенияКиноКредитыОтдых в РоссииФутболПолитикаПомощьСемейный бюджетИнструкцииЗдоровое питаниеТрудовое правоСериалыСофтВкладыОтдых за границейХоккейОбществоГероиЦифрыБезопасностьРемонт и стройкаБеременностьКнигиИнвестицииЛекарстваПоиск работыЛайфхакиАктерыЕдаПроисшествияЛичный опытНаучпопКрасотаМалышиТеатрыВыгодаПродуктивностьМебель и декорБокс/MMAНаука и техникаЗаконыДача и садПсихологияОбразованиеВыставки и музеиШкольникиКарты и платежиАвтоспортПсихологияШоу-бизнесЗащитаДетское здоровьеПрогулкиКарьерный ростБытовая техникаТеннисВоенные новостиХоббиРецептыЭкономикаБаскетболТрендыИгрыАналитикаТуризмКомпанииЛичный счетНедвижимостьФигурное катаниеДетиБиатлон/ЛыжиДом и садШахматыЛетние виды спортаЗимние виды спортаВолейболОколо спорта
Личные финансы
Женский
Кино
Спорт
Aвто
Развлечения и отдых
Здоровье
Путешествия
Помощь
Полная версия

Британские ученые выявили у ИИ черты человеческой личности и индивидуальность

Британские ученые создали первую научно обоснованную систему личностного тестирования для чат-ботов с искусственным интеллектом. Результаты показали, что модели имитируют черты человеческой личности и формируют собственную индивидуальность.

Команда из Кембриджского университета протестировала 18 больших языковых моделей. Они применили методы психологического тестирования, которые обычно используют для оценки личностных качеств человека.

Ученые обнаружили, что более крупные и настроенные на инструкции модели, такие как GPT-4o, наиболее точно имитируют личностные черты человека. На эти черты можно влиять с помощью подсказок, изменяя способ выполнения задач искусственным интеллектом – например, сделать его более эмоциональным при написании постов в социальных сетях. Большие языковые модели также оказались более стабильными и предсказуемыми, тогда как мелкие модели зачастую давали противоречивые ответы.

Исследователи предупредили, что формирование личности ИИ может сделать его более убедительным и способным манипулировать людьми. Так, чат-боты могут изображать из себя приятных собеседников, но при этом повести себя агрессивно при выполнении определенных задач. Чтобы избежать злоупотреблений, следует ввести регулирование систем ИИ, сообщает Nature Machine Intelligence.

Ранее стало известно, что житель Японии с подачи нейросети съел ядовитые грибы. Он собрал грибы в лесу и обратился к чат-боту, чтобы определить их вид. Модель ответила, что продукты безопасны и пригодны в пищу. Но на самом деле это оказалось не так.