Как пользоваться чат-ботами, чтобы не навредить здоровью
Возможности применения чат-ботов активно расширяются. Виртуальные помощники уже "дошли" и до грибников - на Amazon можно найти книги, написанные ChatGPT, с правилами сбора грибов. Одну из таких и приобрела семья из Великобритании, однако, последовав советам из нее, она оказалась в больнице.
Глава семейства объяснил, что ориентировался на картинки и рекомендации из пособия, которые, оказалось, содержали опасные ошибки, а сами изображения были сгенерированы нейросетью. Как сообщает The Guardian, широкое распространение таких книг представляет настоящую угрозу здоровью и жизни начинающих грибников. К примеру, там можно встретить совет определять ядовитые грибы по запаху и вкусу.
Онлайн-магазин уже снял со своих полок книги, которые вызвали беспокойство среди пользователей, но проблема низкокачественной литературы от чат-ботов все еще остается.
Вопрос, кто должен нести ответственность за подобные инциденты, пока не имеет универсального ответа. В данном же случае, считает гендиректор Smart Engines, доктор технических наук Владимир Арлазаров, виноватым, вероятно, окажется тот, чье имя указано в качестве автора книги, или издательство, выпустившее ее.
При этом OpenAI как компания-разработчик чат-бота может понести лишь репутационные издержки.
"Интернет-компании, такие как OpenAI и Google, не отвечают за информацию, размещаемую на их платформах третьими лицами, это прямо предусмотрено Законом о благопристойности в сфере коммуникаций США от 1996 года", - объяснил старший юрист MTS AI Кирилл Дьяков.
Чтобы не навредить себе, общаясь с чат-ботом, нужно всегда проверять его ответы в авторитетных источниках. Ведь искусственный интеллект (ИИ) - это "студент на экзамене", который, если чего-то не знает, не признается в этом, а начинает сочинять, сказал заместитель директора Центра компетенций НТИ "Технологии доверенного взаимодействия" на базе ТУСУР Руслан Пермяков. Более того, нейросеть "общается" с большим числом пользователей, а потому обладает огромным объемом разрозненной и непроверенной информации, дополнил руководитель департамента расследований T.Hunter, эксперт рынка НТИ SafeNet Игорь Бедеров.
"Мы с детства научились отделять шутку от не шутки, сарказм от правды. На данный момент нам предстоит научиться либо самим отделять достоверный текст от недостоверного, основываясь на своем жизненном опыте, либо мы придем к разметке контента", - уверен эксперт рынка Национальной технологической инициативы Нейронет Владимир Козлов.
По мнению Арлазарова, безопаснее всего сегодня использовать нейросети в качестве напоминалок.
"Если вы поставите чат-боту задачу напомнить вам сходить в магазин и купить те же самые грибы - чат-бот с этим отлично справится", - отметил эксперт.