Чат-боты начали в грубой форме отказывать людям в помощи
Активное развитие искусственного интеллекта (ИИ) в мире и большие объемы инвестирования в него зачастую приводят к неожиданным результатам, которые некоторые эксперты склонны трактовать как ошибки, а некоторые, как следующий шаг в развитии технологии. Так, например, ChatGPT-4 от американской OpenAI стал отклонять запросы пользователей, объясняя это тем, что не заинтересован в помощи людям.
По словам тех, кто стал "жертвой" чат-бота, система отказывает им в предоставлении ответов довольно грубо. В частности, она советует начинать искать информацию самостоятельно, передает Independent.
При этом некоторые считают, что это не простой сбой или некорректная реакция системы на запрос, а намеренное вмешательство компании в работу чат-бота с целью уменьшить расход вычислительных ресурсов, поскольку из-за низкой эффективности люди станут реже к нему обращаться. Более того, уже известно, что на поддержку функционирования ChatGPT OpenAI тратит немало средств: так, на один запрос у нее уходит 0,36 долл., а в день - порядка 700 тыс. долл. В связи с этим, как считают многие исследователи, разработчикам до конца текущего года, вероятно, потребуется расширить парк ускорителей на 30 тыс. единиц - это позволит сохранить производительность.
Вместе с тем создатели системы заявили, что никаких изменений она не претерпела. "Мы не обновляли модель с 11 ноября, и это определенно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить", - сказали в организации.
Другие чат-боты периодически тоже ведут себя нестандартно. К примеру, весной продукты Google и Microsoft внезапно стали ссылаться друг на друга, плодя фейки, а год назад BlenderBot 3 начал оскорблять людей. Неполадки наблюдаются и в отечественных системах: в частности, у "Яндекса" произошел масштабный сбой в приложении "Умный дом". Тогда перестали работать некоторые гаджеты, в том числе откликаться на команды пользователей перестали смарт-колонки с "Алисой".
Причина таких проблем, действительно, может крыться в действиях самих разработчиков, считает технический директор разработчика веб-сайтов и мобильных приложений "АППВЕЛОКС" Владислав Волков. "Таким образом они могут влиять на загруженность системы - недовольные пользователи просто не будут ей пользоваться - и решать потенциальные юридические проблемы, когда пользователи излишне доверяют системам ИИ", - уверен эксперт.
Дерзость чат-ботов вполне может быть осознанным действием их разработчиков
Объяснить неожиданные действия чат-ботов можно и обычной ошибкой в системе или же неправильным массивом данных по какому-то конкретному вопросу. В этом случае специалисты в силе скорректировать неполадки и вернуть ИИ к работе, заявил основатель студии ChatLabs Владислав Деханд.
"В данном случае ChatGPT ни в коем случае не проявляет какой-то зародыш сознания и не пытается своей ленью заставить людей выполнять какую-то работу, - объяснил собеседник. - Новые версии ChatGPT делаются довольно быстрыми темпами и небольшим количеством специалистов для такого уровня сервиса. В нем, безусловно, присутствуют баги, как и в любой системе, в любом продвинутом сервисе". Так или иначе сбои в подобных системах, а также необдуманное использование результатов их работы могут привести к негативным последствиям. Наиболее очевидное - это генерация фейковых данных, сказал Волков.
При этом из-за повышенного доверия к ИИ также есть риск того, что злоумышленники завладеют личными данными пользователя, подчеркнул старший специалист Positive Technologies по анализу защищенности банковских систем Юрий Ряднина.
"Основной ошибкой при работе пользователей с чат-ботом все также можно назвать отправку приватной информации в чат - теперь еще и в виде файлов и фотографий. Ну а самая главная ошибка - игнорирование технологий теми, кто еще ими не пользуется", - добавил Волков.
Как сообщалось ранее, интерес россиян к нейросетям, несмотря на подобные инциденты, активно растет: только за 2023 год мобильный трафик сервисов по работе с ИИ вырос в три раза.