Матрица окружает нас. Смогут ли роботы нанести вред человечеству
Восстание армады роботов, вышедших из-под контроля, суперкомпьютер, который решил взять на себя ответственность за человечество, — типичный сюжет множества фантастических фильмов. Такого развития событий, но уже в реальном будущем, пытаются избежать страны по всему миру. Для этого власти и технологические компании принимают кодексы и законопроекты, которые подстилают соломку в сфере искусственного интеллекта. Эти документы регулируют этику ИИ, пытаются нивелировать вред, который умные машины потенциально могут нанести человечеству. «Секрет фирмы» поговорил с разработчиками ИИ и специалистами по кибербезопасности о том, может ли в будущем появиться «Матрица» — реальность, которой будут управлять вышедшие из-под контроля роботы — и какие угрозы несут современные разработки в области искусственного интеллекта. Законы робототехники XXI века Страны по всему миру принимают законы и кодексы, регулирующие сферу ИИ. В России подобный документ подписали ) в конце октября 2021 года. Его разработали крупнейшие технологические компании («Яндекс», VK, «Ростелеком» и др.) вместе с правительством. В документе говорится, что человек, его права и свободы при развитии ИИ должны оставаться самой большой ценностью. Технологии не могут использоваться для причинения вреда людям, имуществу или окружающей среде. Ответственность за возможный ущерб несёт разработчик, а не машина. Представители бизнес-сообщества, науки и госорганов будут разрабатывать методические рекомендации и выбирать лучшие и худшие практики решения возникающих этических вопросов в жизненном цикле искусственного интеллекта. Как рассказал «Секрету фирмы» гендиректор некоммерческой организации «ПравоРоботов» Никита Куликов, российская вариация этического кодекса явно имеет заимствования из европейского законодательства. На уровне Евросоюза такой документ приняли в 2019 году. Европейская комиссия разработала семь требований к роботам. Прежде всего европейцев беспокоила возможность контроля роботов со стороны человека. Также в ЕС призвали аккуратнее относиться к конфиденциальности данных. Не забыли даже про экологическую ответственность роботов — зелёная тема в Европе сейчас в тренде. По словам Куликова, этический кодекс ЕС сегодня считается самым продвинутым правовым актом в этой области. «У европейцев здесь есть некоторое первенство, разработчики всех аналогичных документов из других стран оглядывались именно на кодекс ЕС», — объяснил эксперт. Другие части света тоже не отстают. Минобороны США в 2020 году пошло по пятам европейцев, разработав и одобрив похожие этические нормы. С одним небольшим нюансом: они касались использования роботов на войне. В них входят пять принципов. Ответственность разработчика за создание и применения такого оружия. Беспристрастность — разработчики будут стараться снизить «неумышленную предвзятость роботов». Имеется в виду, что машины не должны принимать решения за пределами своей зоны ответственности. Управляемость — финальное решение всегда должны принимать люди, а не роботы. Надёжность — решения в области ИИ будут постоянно испытываться, они должны быть полностью безопасными для человека. Подчиняемость — роботы должны не выходить из-под контроля людей. Кодекс этических принципов для роботов в 2021 году представил и Китай . В нём особое внимание уделяется контролю человека над робототехникой. В документе говорится, что роботы должны повышать благосостояние людей, их нельзя использовать в криминале. Кроме того, подчеркивается, что роботы не должны вмешиваться в частную жизнь. Матрица из будущего Все принятые этические кодексы исходят из того, что ИИ способен нести угрозы человеку. Именно для их предотвращения эти документы и разрабатывались. Философы и футурологи на протяжении не одного десятка лет ставили эту проблему в центре своих хитросплетённых теорий. Угрозы от роботов рисовались с каждым десятилетием всё более и более фантастическими. Роботов часто изображали враждебными захватчиками, способными поработить мир. Сегодня такие сценарии уже не кажутся совсем нереальными. Поэтому учёные и разработчики сфокусировались на проработке конкретных сценариев возможных угроз от искусственного интеллекта и на том, как их можно избежать. Например, не повысят ли беспилотные автомобили в будущем число аварий? Или не превратятся ли дипфейки в оружие массового поражения в руках мошенников? Гендиректор IT-компании «Наносемантика» Станислав Ашманов выделяет три угрозы, связанные с развитием искусственного интеллекта. «Первая — это нарушение приватности, вызванное автоматическим анализом большого объёма данных — транзакций, переписки, распознавания лиц по видео и т. д. Вторая угроза — замещение роботами людей на рабочих местах. В первую очередь, это касается представителей массовых профессий — кассиров, сотрудников колл-центров, водителей. Этот процесс уже начался. И наконец, третья угроза, которая беспокоит людей, — появление разумных машин, способных поработить человечество. Такие машины получат контроль над системами вооружения, что приведёт к уничтожению человечества как вида. Мне кажется это больше фантазией, хотя сегодня мы уже видим, как искусственный интеллект управляет некоторыми видами оружия — например, беспилотниками, уничтожающими цели на земле», — рассказал эксперт «Секрету фирмы». По его словам, также негативные сценарии могут быть связаны с развитием нейросетей . Иногда нейросети уже сегодня выходят из-под контроля. Так, голосовой помощник Олег из Тинькофф-банка в 2019 году предложил клиентке отрезать пальцы. Женщина написала чат-боту, что система входа по отпечатку пальца в приложение не работает, — и получила такой неожиданный ответ. «Также нейросети могут ошибаться при принятии решения о выдаче кредитов. Например, на заявку о получении кредита в одном из банков за 60 секунд можно получить необоснованный автоматический отказ, с объяснением: “Искусственный интеллект принял такое решение на основе больших данных”», — отметил Ашманов. Кроме того, эксперт обратил внимание и на угрозы от дипфейков. «Голос человека и изображение и раньше можно было синтезировать, но это было дорого и долго, делалось под заказ на голливудских студиях. Сейчас же эта технология стала массовой, дешёвой, доступной. Это опасно, так как мошенники могут начать использовать её, создавая фейковые ролики с участием человека. Они могут оказывать давление на жертву, пытаться с помощью них обойти защиту банков, обманывать людей с помощью социальной инженерии», — заключил эксперт. Большую угрозу несёт и возможность взлома робота, считает эксперт по информационной безопасности компании Cisco Systems Алексей Лукацкий. «Против систем искусственного интеллекта хакеры используют не такие методы атак, как против серверов компаний. Последние можно просто положить. Серверы, связанные с ИИ, тоже можно, но с ними часто делают и более нестандартные вещи. Например, совершают атаки на модели обучения. Это приводит к тому, что искусственный интеллект начинает принимать неверные решения на тех же самых исходных данных, что и раньше. Можно, наоборот, подменять данные или подмешивать в них фальшивые — искусственный интеллект будет тогда делать некорректные выводы», — объяснил эксперт. Он добавил, что также хакеры способны совершать атаку на саму инфраструктуру, обеспечивающую работу ИИ. Это можно делать, например, с помощью шифровальщиков. Ещё одна мишень для хакеров — автопилоты, например, беспилотных машин. Если для них перекрывать какие-то элементы знаков, то они будут принимать неверные решения. В будущем проблема хакерских атак на искусственный интеллект войдёт в тройку-пятёрку самых серьёзных проблем компьютерного мира, утверждает Лукацкий. «Однако сегодня она так остро не стоит. Хакерских группировок, специализирующихся на взломе искусственного интеллекта, пока нет. Правда, группировки, использующие ИИ в своей работе, уже появились. Они применяют его для рассылок фишинговых сообщений или создания фальшивых сайтов и дипфейков», — заключил эксперт. Никита Куликов добавил, что прежде чем бояться выхода роботов из-под контроля, надо понимать, из-под какого конкретно контроля они выйдут. «Если робота используют в медицине, обучают его на результатах анализов, снимках, где есть болезнь, он может точно научиться определять больных. Когда робот почти перестанет совершать ошибки, то контроль человека за ним может и не понадобиться. И вот именно тогда и возникнет действительно сильный риск того, что ошибка будет допущена, а исправить её будет уже некому», — отметил эксперт. Второй случай — робот будет использоваться как третье мнение. Люди будут с ним только советоваться, он станет дополнением. Тогда рисков для человечества нет, робот просто станет помощником, заключил Куликов. Разрушительные дипфейки, управляемые бандитами роботы или сверхумные электронные ассистенты врачей и чат-боты с математическими суперспособностями — каким будет искусственный интеллект в будущем, не знает никто. Однако уже сегодня ясно, что контролировать данные технологии стоит. А вот робоэтика станет нужна, когда технологии будут уж сформированы, а угрозы станут частью реальности. Пока же все попытки регулировать эту сферу напоминают обряд — попытку человечества произнести магические слова, с надеждой, что они будут где-то услышаны. Коллаж: «Секрет Фирмы, depositphotos.com