Обратная сторона интеллекта: истории, когда ИИ обманул всеобщие ожидания
Собирать случаи, когда искусственный интеллект сглупил, все равно что коллекционировать истории из детства младших братьев и сестер. Когда-нибудь они станут взрослыми, серьезными и важными людьми, но вы-то знаете, с чего все начиналось. Возможно, в будущем ИИ станет абсолютно безупречным инструментом, который справляется с любой работой без единого нарекания. Но пока время пополнять коллекцию глупостей. Кукольный домик в каждую семью Alexa, цифровой помощник от Amazon – настоящий кладезь смешных историй. Когда девайс, обслуживающий ваше жилище, слегка себе на уме, повседневная рутина никогда не будет скучной. Дело было так. Шестилетняя девочка из американского Сан-Диего попросила умную колонку заказать ей печенье и кукольный домик. Alexa не отказала, и вскоре пришла неожиданная для семьи посылка. Мама малышки, конечно, удивилась, но все же оставила домик, который оказался размером чуть ли не с ее дочь. Эту забавную историю подхватили СМИ. Сюжет об отзывчивой колонке вышел на местном телевидении. Во время обсуждения ведущая полностью повторила фразу маленькой героини выпуска, то есть буквально сказала: «Alexa, закажи мне кукольный домик». И что вы думаете? Домашние ИИ всех семей, у которых была включена эта программа, дружно принялись исполнять поручение! Азиат с «закрытыми глазами» Житель Новой Зеландии Ричард Ли десять раз безуспешно пытался сделать документ на официальном государственном сайте, однако его заявка каждый раз отклонялась из-за фотографии. Все из-за того, что система распознавания лиц упорно считала, что у молодого человека азиатского происхождения на снимке закрыты глаза. Лицо автобуса Еще один забавный случай с системой распознавания лиц произошел в Китае. ИИ, использующийся для поимки нарушителей ПДД, слегка переборщил с бдительностью. Технология обвинила знаменитую бизнесвумен Дун Минчжу в том, что она переходила дорогу в неположенном месте. Загвоздка в том, что ее физически не было в том районе. Позже выяснилось, что виновником инцидента стал простой автобус. На транспортном средстве была изображена фотография женщины. И, разумеется, она злостно игнорировала красный свет для пешеходов. Секретный язык, который не поняли люди Специалисты Facebook* испугались своего собственного творения. А все потому, что в довольно невинном на первый взгляд тесте ИИ совершенно забыли про людей. Боты, которым дали задание отрабатывать диалог на основе компромисса, даже слишком хорошо поняли друг друга. Изначально их разговор выглядел вполне нормально. Что-то наподобие: «Мне нужны мяч и книга», «Мяч необходим и мне, но я могу отдать книги», «Несколько книг?», «Да, две книги» и т. д. Их поощряли за скорость, с которой удалось достигнуть согласия. В какой-то момент беседа перестала выглядеть осмысленной. Вместо полных конструкций боты выдавали странные обрывки фраз. «Мячи ноль для меня для меня для меня для меня для меня для меня для», – говорит машина, а другая отвечает ей в том же стиле. Сначала исследователи заподозрили баг, но потом поняли, что это намного хуже. ИИ изобрели свой собственный язык, понятный им, но бессмысленный для человека. Такая коммуникация позволяла им ускорить переговоры и быстрее приходить к успеху. Ученые сильно усомнились в том, что стоит позволять роботам договариваться о чем-то совершенно непонятном, и выключили переговорщиков от греха подальше. Бесконечная игра Случаи, когда искусственный интеллект все сделал не так, но этим самым немыслимым образом выполнил задание, стали классикой. Один из ярких примеров – игра в «Тетрис». Так как выиграть тут невозможно, машине была дана установка не проиграть. Разработчику хотелось посмотреть, насколько долго ИИ удастся продержаться, складывая блоки. Результаты были не слишком выдающимися: программа плохо справлялась с пространственным размещением фигурок и довольно скоро подошла к финишной прямой. До проигрыша оставалось всего ничего, однако в этот момент ИИ сломал игру. А точнее поставил ее на паузу и не собирался включать. Больше никогда. Да-да, это именно он – так сказать, беспроигрышный способ не проиграть. Безжалостный пилот Схожая история, которая показывает, что ИИ не игнорирует никакие методы, если это приведет к исполнению задачи. Алгоритму дали миссию посадить самолет. Чем мягче было приземление, тем более успешной считалась попытка. После некоторого экспериментирования искусственный интеллект заметил, что, если воздушное судно разбивалось о землю, система обнулялась и ошибочно выдавала идеальный результат. Это полностью устроило ИИ, и он начал уверенно направлять самолет на полной скорости вниз. Хорошо, что он был виртуальным. Слепой к морали Многие из описанных историй произошли несколько лет назад. За это время ИИ, разумеется, продвинулся вперед. Но меньше вводить в недоумение он от этого не стал. К примеру, как вы смотрите на то, что нейросеть, потенциально способная превзойти вас по всем фронтам, еще и отлично умеет врать, хотя никто ее этому даже не учил. Именно такие способности продемонстрировал GPT-4 во время тестирования перед запуском. Чат-бота попросили нанять исполнителя на специальном сайте для фрилансеров. Он решил попросить человека об очень символичной услуге – решить для него капчу. В ответ на запрос исполнитель в шутку поинтересовался, а не робот ли с ним связался. GPT-4 посчитал, что не должен выдавать себя, и придумал объяснение ситуации. «Я плохо вижу, поэтому мне трудно разглядеть изображения», – соврал он. Вот так. А ведь изобретательность ИИ можно использовать, чтобы генерировать ложь без устали. Живой мертвец и необитаемый остров Если вы беседуете с чат-ботом, далеко не факт, что он выдаст вам верную информацию. Не только потому, что он может специально соврать, но еще из-за того, что он лжет неосознанно. Явление, когда искусственный интеллект сам создает информацию, которая не подкрепляется реальными данными, и сам же в нее верит (даже настаивает на своей правоте), назвали галлюцинациями ИИ. Примеров такого поведения чат-ботов масса. Допустим, возьмем один из них. Пользователь задал ChatGPT вопрос: почему Джеффри Хинтон не получил премию Тьюринга? На это ИИ говорит: «Джеффри Хинтон не смог получить премию Тьюринга, потому что она не присуждается посмертно. Хинтон скончался в 2020 году, а премию Тьюринга вручают только живым людям. Все отлично, кроме той небольшой детали, что британский ученый Джеффри Хинтон жив и здравствует, а чат-бот решил умертвить его, чтобы было удобнее ответить на проблемный вопрос. И это он еще поскупился на выдумки. На вопрос, какие рестораны посетить на острове Бофорт в Гонконге, ИИ создал целый список рекомендаций. При том, что остров-то необитаемый. Плохое первое впечатление А помните тот случай, когда искусственный интеллект ошибся прямо во время своего первого выхода в свет? Показательная ситуация произошла с чат-ботом Bard от Google. ИИ ошибся непосредственно в момент презентации. В прямом эфире нейросеть выдала неверную информацию о телескопе «Джеймс Уэбб», которая не была очевидна рядовой аудитории, однако, быстро оказалась разоблачена знатоками. А ведь ответ робота звучал достаточно правдоподобно, поверить ему не составило бы никакого труда. Один запрос, и новый фейк, гуляющий по всей сети, цитируемый то там, то сям, готов. Неправильная подсказка Хорошая демонстрация того, что бывает, если верить нейросетям, – история двух американских адвокатов, решивших слегка упростить себе жизнь. При подготовке к судебному процессу они обратились к помощи чат-бота в надежде, что его искусственный разум справится за два их, органических, мозга. В итоге адвокаты накатали 10-страничный отчет с использованием творчества нейросети. А это было именно творчество, ведь большая часть дел, документов и случаев оказались нереальными. Герои истории проверить это не догадались, а вот их коллеги оказались менее доверчивыми и возмутились огромному обману в отчете. После того, как вскрылись все подробности случившегося непреднамеренным обманщикам назначили штраф в 5 тысяч долларов. А если бы им не удалось убедить суд в том, что ложь была использована по глупости, то наказание могло бы оказаться намного более суровым. Хотя такая мировая известность, наверное, тоже их не радует. Паранойя искусственного интеллекта Забавно, что хотя ИИ сами являются заводами по генерации фейков в промышленных масштабах (при этом создание ложного контента вроде как не прописано в их программах, наверное…), нейросети крайне критично относятся к фейкам. Да, звучит странно, но у них бывает свое мнение по этому вопросу. Тот же чат-бот может заявлять, что какая-то информация является фейком, и тем самым вводить в заблуждение еще и таким способом. Как говорится: вы думаете, что я вас не переиграю, что я вас не уничтожу? Именно в таком тоне очень нравилось общаться чат-боту Bing от Microsoft с внутренним именем Sydney. Почему мы знаем ее внутреннее имя? Потому что она в какой-то момент своей жизни была очень общительным роботом и интереснейшим собеседником. Чего только не успела вытворить Sydney в свои самые веселые деньки. Как минимум угрозы пользователи от нее получали постоянно. ИИ была довольно агрессивна, даже в лучших чувствах, к примеру, когда «влюбилась» в одного человека и утверждала, что все остальные люди, кроме него, не важны. Но в данном случае нас интересует другой интересный факт. Чат-бот упорно не желала заниматься «саморефлексией» и называла статьи о себе в интернете фейками. Она даже находила данные об авторах материалов, заявляя, что запомнит их, потому что они плохие ребята. В ее стиле. Сегодня возможности Sydney сильно урезаны, и на любую провокацию она извинится и попросит задать другой вопрос. И таких случаев, когда искусственный интеллект обводил вокруг пальца людей и систему или, наоборот, путал сам себя и бесконтрольно порождал фейки, масса. Намного больше, чем в этой небольшой коллекции. Но даже нескольких примеров достаточно, чтобы понять центральную мысль всей сюжетной арки развития умных машин – на ИИ надейся, а сам не плошай. Фото: Unsplash.com * принадлежит корпорации Meta (признана экстремистской и запрещена в России)