Мораль для искусственного интеллекта
Роман Тишкин - Генеральный директор ООО «Конструкторское бюро специальной техники». В прошлом месяце в рамках первого международного форума «Этика искусственного интеллекта: начало доверия» со свойственной большим мероприятиям помпой государственными чиновниками и представителями крупнейших отечественных IT-компаний был подписан «Кодекс этики в сфере искусственного интеллекта»; сразу появились новости, что кто-то что-то будет контролировать. «Теперь я смерть — разрушитель миров». Р. Оппенгеймер о первом ядерном испытании Однако предлагаю разобрать документ подробно, тем более он небольшой и состоит всего из 10 страниц. «Кодекс устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере ИИ в своей длительности, а также механизмы реализации положений настоящей Кодекса». И чуть дальше: «Рекомендации настоящего Кодекса рассчитаны на системы искусственного интеллекта (далее — СИИ), применяемые исключительно в гражданских (не военных) целях». Общие этические принципы и невоенные цели. На этом чтение документа можно заканчивать. ИИ — это как атомная энергия: может быть АЭС, а может быть ЯО (ядерное оружие), а в военное время «общие принципы» не действуют. Действуют «устав, приказ и необходимость». Но давайте продолжим. «Человеко-ориентированный и гуманистический подход. При развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность…» При продолжении чтения оставшегося текста раздела создается впечатление, что он написан по мотивам Айзека Азимова и его трех законов робототехники. Не буду приводить цитат: заинтересованный читатель без труда найдет их в Сети. Продолжаем. «Уровень внимания к этическим вопросам в области ИИ и характер соответствующих действий Акторов ИИ должен быть пропорционален оценке уровня рисков, создаваемых конкретными технологиями». Акторы ИИ — это в первую очередь коммерческие организации; что важнее для любого бизнеса? Сверхприбыль или «этические вопросы», безусловно, в пределах действующего законодательства? Продолжаем. «3.1. Поднадзорность. Акторам ИИ следует обеспечивать комплексный надзор человека за любыми СИИ в объеме и порядке, зависящих от назначения СИИ…» Не уверен, что в современном мире больших данных, космических скоростей и суперкомпьютеров это возможно. Но продолжим: «Акторы ИИ должны поощрять и стимулировать разработку, внедрение и развитие безопасных и этичных решений в сфере технологий ИИ с учетом национальных приоритетов». Вот это уже интереснее: каким образом будет происходить стимуляция? Через инвестирование в разработки? Будут ли участвовать в этом государственные структуры? Или это вопрос ложится на плечи тех, кто подписал кодекс? «Интересы развития технологий ИИ выше интересов конкуренции». Сильная фраза; без комментариев ее оставлю, пожалуй. Вторая часть документа посвящена реализации положений кодекса и, уверен, в отличие от первой, представляет для уважаемых читателей наибольший интерес. Присоединение к кодексу является добровольным и накладывает на присоединившегося обязательства соблюдать положение кодекса. Все Акторы ИИ обязаны ввести у себя должность уполномоченного по этике ИИ, которые будут контролировать соблюдение положений кодекса. Будет создана Комиссия по контролю за исполнением кодекса и Реестр участников кодекса. Должны быть разработаны методики, «чек-листы» и т.д. Заинтересованным читателям рекомендую потратить 5 минут и ознакомиться самостоятельно на сайте «Альянса в сфере искусственного интеллекта». Что мы имеем в «сухом осадке»? Отрасль разработчиков ИИ, по всей видимости, будет саморегулируемой, под контролем государства. Документ, хоть и немного веселый, но нужный, даже в таком виде. Хочу напомнить уважаемым читателям, что ИИ развивается с 50-х годов прошлого века, многое сделано. Элементы ИИ (нейронные сети, семантические сети, различные технологии интеллектуальной обработки данных) используются повсеместно в голосовых помощниках, системах поиска, системах связи, навигации и обработки изображений. Однако настоящий ИИ («сильный ИИ», как принято сейчас говорить) до настоящего времени не создан. По моему мнению, время его появления, безусловно, приближается: мы намного ближе, чем ученые 70-х годов прошлого века (тогда были очень большие ожидания, что «вот-вот»). Поэтому кодекс как минимум полезен. Кодексы нужны индустрии, а искусственному интеллекту никакие кодексы не нужны: у него другие потребности. Читайте также Зачем нужны кодексы этики для искусственного интеллекта (if24.ru) Подписывайтесь на канал «Инвест-Форсайта» в «Яндекс.Дзене»