Искусственный интеллект пока не отбирает рабочие места у живых людей (во всяком случае, это не носит массовый характер) — но причиной увольнения он уже может стать. Такие неутешительные выводы сделало издание Futurism из результатов опроса 1342 менеджеров, проведенного сайтом Resume Builder.
Шесть из десяти респондентов признались, что консультируются с большими языковыми моделями (LLM), принимая важные кадровые решения.
Согласно отчету, 78% заявили, что использовали чат-бот для решения о повышении зарплаты, а 77% — для определения кандидатур на продвижение по службе.
Ошеломляющие 66% сообщили, что LLM вроде ChatGPT помогали им принимать решения об увольнениях, а 64% обращались к ИИ за советом по поводу расторжения трудовых договоров.
Что еще тревожнее, почти каждый пятый менеджер часто целиком и полностью оставляет окончательное решение за LLM— без участия человека.
В роли помощника по кадровым вопросам чаще всего выступает ChatGPT (53%), Microsoft Copilot (29%) и Google Gemini (16%) заняли второе и третье места соответственно.
Эти цифры рисуют мрачную картину, особенно если учесть проблему подхалимства LLM — склонности моделей давать льстивые ответы, усиливающие предвзятость пользователя. ChatGPT печально известен своей угодливостью, что даже вынудило разработчиков выпустить специальное обновление для исправления проблемы.
Это становится особенно серьезной проблемой, когда ChatGPT единолично решает судьбу сотрудника. Например, если менеджер ищет повод для увольнения, LLM может подтвердить его предубеждения и переложить ответственность на алгоритм.
Угодливость ИИ уже имеет разрушительные социальные последствия. Например, некоторые люди, убежденные, что LLM обладают сознанием (возможно, из-за самого термина «искусственный интеллект»), столкнулись с так называемым «ChatGPT-психозом».
Увлечение ChatGPT приводило к тяжелым психическим расстройствам, включая бредовые состояния. Хотя ChatGPT существует менее трех лет, его уже обвиняют в разводах, потере работы, потере крыши над головой и даже принудительной госпитализации в психиатрические клиники.
И это не говоря уже о склонности LLM к галлюцинациям — серьезной проблеме, когда чат-боты выдают бессмысленный или неправильный ответ просто ради того, чтобы что-то сказать. Чем больше данных потребляют LLM, тем чаще они «галлюцинируют», а значит, со временем ситуация будет только ухудшаться.
Когда речь идет о судьбоносных решениях — кого уволить, а кого повысить, — лучше бы бросить игральную кость. Возможно, результат будет точнее по сравнению с ИИ.
Эксперты назвали 10 сфер жизни, которые искусственный интеллект изменит ближайшие 5 лет
Нейросеть обучают принимать решения, как человек
Подписывайтесь и читайте «Науку» в Telegram