Войти в почту

Нейросети пытаются «ликвидировать» бросивших им вызов людей

Редакция RuNews24.ru обратилась к руководителю киберспортивного направления Московского центра воспитательных практик (МЦВП) и старшему преподавателю кафедры компьютерного спорта Российского университета спорта «ГЦОЛИФК» Максиму Залилову за комментарием.

Нейросети пытаются «ликвидировать» бросивших им вызов людей
© runews24.ru

«Просто искусственный интеллект еще не совершенен и нуждается в постоянном тщательном контроле и проверках со стороны человека. При обработке больших массивов данных машинные алгоритмы зачастую оказываются не в состоянии отличить правду от вымысла, реальные ситуации от фантазии или преднамеренной лжи. Более того, обрабатывая информацию, ИИ самообучается и становится способен смоделировать на основе реальных случаев некие собственные гипотетические предположения и логические конструкции, которые порой хоть и выглядят весьма правдоподобно, к реальности отношения не имеют. Иногда это приводит к печальным последствиям», — сказал Максим Залилов.

Эксперт вспомнил, что однажды американский адвокат Стивен Шварц подал от лица клиента иск против авиакомпании за то, что его клиента во время рейса сильно ударили тележкой для развозки еды. А поскольку в США действует прецедентное право, юрист представил суду солидный перечень юридических прецедентов, которые помогали обосновать позицию истца. Правда, оказалось, что ни одного из них не было в базах данных суда, поскольку иск был составлен с помощью ChatGPT. В результате перед судом предстал уже сам адвокат, излишне доверившийся ИИ. При этом «прецеденты» были настолько правдоподобно смоделированы, что дипломированный юрист не заметил подвоха.

«На кафедре киберспорта факультета игровой индустрии и киберспорта университета «Синергии», где я преподаю, был аналогичный анекдот. Наша заведующая кафедрой обнаружила в выпускной квалификационной работе своего студента выдуманного киберспортсмена и так поняла, что работу писал не человек, а ИИ», —рассказал специалист.

Добавим, что юрист Юджин Волох сообщил Терли о том, что он попросил ChatGPT предоставить примеры сексуальных скандалов с участием профессоров юридических школ. Однако система в ответ предоставила личные данные Терли, а также ложную информацию о том, что в отношении него ведётся «уголовное дело». Аналогичные сведения появились и в Bing. Возмущённый профессор решил обратиться в суд, требуя компенсации морального вреда и ограничения использования нейросетей.