IT-эксперт Геллер посоветовал не задавать ИИ личные вопросы во избежание их утечки в Сеть
Пользователи все чаще доверяют советам искусственного интеллекта. При этом многие безоговорочно следуют им, даже если это противоречит здравому смыслу, а потом рассказывают о своих неудачах в Сети. Стоит ли полагаться на нейросети во всех вопросах, разбиралась Москва 24.
Доверяй, но проверяй

В Сети все чаще появляются сообщения о том, что нейросети помогают пользователям в решении различных вопросов, начиная с планирования отпуска и заканчивая проверкой партнеров на верность.
Однако безоговорочная вера в искусственный интеллект (ИИ) приносит немало проблем. Например, молодая пара испанцев, которая собиралась лететь в Пуэрто-Рико, так и не сумела попасть на отдых. Несмотря на купленный билет и забронированный отель, самолет улетел без них. Как оказалось, ИИ уверил девушку, что виза в другую страну не нужна, но уже в аэропорту выяснилось: въезд возможен только с электронным разрешением, которое на месте получить нельзя.
"Я всегда получаю у ИИ много информации. Я спросила ChatGPT, и он сказал, что ничего не нужно. Теперь я больше ему не доверяю", – выразила разочарование девушка.
Также по вине нейросети жительница Греции развелась с мужем: искусственный интеллект расшифровал гадание на кофейной гуще и "увидел" измену любимого.
Безоговорочное доверие к чату подводило не только туристов и семейные пары. Например, в США 60-летний мужчина по совету нейросети заменил соль на химическое вещество, после чего попал в психиатрическую больницу из-за возникших галлюцинаций.
Некоторые и вовсе просили искусственный интеллект поставить диагноз: так произошло с 14-летней Марией, которой нейросеть даже запретила употреблять ряд продуктов. Как рассказала телеканалу Москва 24 мать девочки Ольга Рогачева, ИИ выявил у подростка сильную аллергию, отметив, что девочке ни в коем случае нельзя пить молоко, есть хлеб и то, что содержит глютен.
"Я испугалась, срочно записалась в этот день к аллергологу. Специалист посмотрела и сказала, что показатели высокие, но они не означают, что у ребенка сильная аллергия", – отметила женщина.
При этом основательница школы теории поколений Евгения Шамис подчеркнула, что среди пользователей Сети есть те, кто особенно доверяют искусственному интеллекту.
Мы имеем в виду не зумеров, а людей, которые относятся к пограничному поколению и родились в период с 1999 по 2005 годы. У них совместились ценности поколений миллениалов и хоум-лендеров (они же – зумеры). В это время еще не говорили про то, что нужно проверять всю информацию, четко понимать, о чем идет речь.
Кроме того, разработчики ИИ предупреждают: общаться с "умной машиной" действительно не так просто, как может показаться. Как минимум потому, что нужный ответ зависит от правильной и четкой формулировки вопроса. Но даже в этом случае результат нуждается в проверке.
К тому же и сам искусственный интеллект на вопрос о достоверности информации отвечает неоднозначно, предупреждая, что может упускать важные детали и по-другому интерпретировать факты.
На сегодняшний день в министерстве цифрового развития РФ готовят концепцию регулирования ИИ до 2030 года, сообщали "Ведомости". В ней планируют сделать акцент на этике и контроле человека за алгоритмами.
Перекладывание ответственности

Полагаться на то, что нейросети помогут найти правильный ответ на интересующий вопрос, действительно не стоит. Такое мнение в разговоре с Москвой 24 высказал IT-эксперт, председатель комиссии в Институте развития интернета Артем Геллер.
"Если говорить про искусственный интеллект в рамках здравоохранения и других социально важных сфер, то я бы не стал ему доверять. По большому счету ИИ, говоря простым языком, собирает всю информацию, что была в Сети, суммирует и выдает общий ответ", – объяснил специалист.
Он добавил, что мало кого устроит уровень такой экспертизы. Возможно, это будет полезно на начальном этапе, когда пользователь получает первичное представление о своем состоянии. Однако следующим этапом должно быть обязательное посещение специалиста.
При этом как бы пользователь ни пытался, он не сможет получить достоверный ответ даже на четко сформулированный вопрос, отметил IT-специалист. Кроме того, если человек не является экспертом в интересующей его теме, он не сможет построить запрос так, чтобы ответ был наиболее точным.
Для более верных ответов создают специальные, узконаправленные приложения и скрипты. Они действительно могут быть полезны профессионалам. Однако в целом ИИ нужно воспринимать как обычный поисковик от коммерческой компании, который тоже может ошибаться.
Кроме того, эксперт добавил, что пока ИИ – это новая технология и не нужно задавать ей вопросы, связанные с персональными данными или частной жизнью, поскольку известны случаи утечки личной информации в Сеть.
При этом тенденция советоваться по каждому вопросу с нейросетями весьма тревожна, такое мнение в беседе с Москвой 24 выразила психолог, кандидат психологических наук, преподаватель психологии Софья Сулим.
"Постоянное обращение к ИИ – это некая тенденция перекладывания ответственности, с помощью которой многие пытаются облегчить себе жизнь", – отметила эксперт.
Она добавила, что такая привычка может говорить об инфантильности и нахождении в детской позиции, так как пользователь ожидает, что проблему решат за него.
Какие бы новшества ни приходили в нашу жизнь, взрослая позиция – это способность критически мыслить и смотреть на проблему со стороны. А дети как раз-таки вполне серьезно доверяют одному источнику информации.
Специалист добавила, что привычка перекладывать ответственность на другого развивается совершенно незаметно. Поэтому важно помнить, что ИИ – это всего лишь инструмент по поиску информации, а не абсолютная истина.
Сулим добавила, что с психологической точки зрения попытка слегка облегчить жизнь с помощью таких инструментов совершенно нормальна. Однако делать это нужно дозированно, не интегрируя искусственный интеллект в свой быт полностью, заключила психолог.