Как в разных странах мира формируется законодательство в области ИИ
<p><strong>В условиях быстрого глобального развития генеративного искусственного интеллекта обострилась проблема отсутствия его нормативно-правового регулирования. И страны по всему миру активизировали усилия по разработке законодательства в области ИИ, сообщает портал Information Age.</strong></p> <p>Дискуссии о регулировании генеративного ИИ разгораются во всем мире: лидеры в области науки о данных и представители технологических компаний высказывают опасения по поводу социальных рисков, включая дезинформацию и замену рабочих мест.</p> <p>Недавно глава OpenAI Сэм Альтман заявил в Сенате США о возможности "экзистенциального риска", связанного с генеративным ИИ, руководитель направления науки о данных Google Джеффри Хинтон сделал аналогичное предупреждение после ухода из компании, а такие лидеры, как Элон Маск, призвали приостановить разработки.</p> <p>Разные регионы по всему миру находятся на разных стадиях разработки нормативных актов, касающихся генеративного ИИ. Ниже представлен обзор того, что происходит в сфере регулирования генеративного ИИ в разных странах мира.</p> <h3>Австралия</h3> <p>В федеральном бюджете на 2023 г. заявлено создание Сети ответственного ИИ (Responsible AI Network), а также выделение 41,2 млн. австралийских долларов (26,9 млн. долл. США) на ответственное внедрение различных технологий ИИ в стране. Регулирующие органы стремятся снять обеспокоенность, выраженную уполномоченным по правам человека Австралии Лоррейн Финлей, которая заявила, что чатботы с ИИ, такие как ChatGPT и Bard, уже наносят вред обществу.</p> <p>Кроме того, регуляторы обсуждают возможность внесения изменений в более общий закон о защите персональных данных, чтобы устранить недостаток прозрачности, который может возникнуть при обучении ИИ-моделей с помощью контуров обратной связи без участия человека. Обсуждается также использование аналитических и биометрических данных для обучения моделей, что может потребовать введения дополнительных правил конфиденциальности.</p> <p>Член правления Технического совета Австралии Виктор Доминелло призвал к созданию бюро "авангардного техрегулирования" ("tech reg vanguard"), которое могло бы анализировать появляющиеся разработки в области ИИ и давать соответствующие рекомендации государственным органам по их мониторингу на предмет возможных рисков.</p> <h3>Бразилия</h3> <p>Регулирование ИИ в Бразилии продвинулось вперед благодаря развитию законодательной базы, которая была одобрена правительством в сентябре 2022 г., но подверглась широкой критике за слишком расплывчатые формулировки.</p> <p>После выхода ChatGPT в ноябре 2022 г. по результатам дискуссий между лоббистами в правительство Бразилии был направлен отчет, в котором подробно изложены рекомендации по регулированию ИИ. <a href="https://www12.senado.leg.br/noticias/materias/2022/12/06/comissao-conclui-texto-sobre-regulacao-da-inteligencia-artificial-no-brasil">Исследование</a>, подготовленное экспертами в области права и науки, а также руководителями компаний и членами национальной организации по защите данных ANPD, включало три основных направления:</p> <ul> <li>права граждан — включая "недопущение дискриминации и исправление прямых, косвенных, незаконных или оскорбительных дискриминационных предубеждений", а также обеспечение ясности в отношении того, когда пользователи взаимодействуют с ИИ;</li> <li>категоризация рисков — установление и признание уровней риска для граждан, причем "высокий риск" распространяется на основные услуги, биометрическую проверку и прием на работу; а "чрезмерный риск" — на эксплуатацию уязвимых слоев населения и социальный скоринг;</li> <li>меры управления и административные санкции — как именно будут наказываться компании, нарушающие правила; рекомендованы штрафы в размере 2% от выручки за умеренное несоблюдение правил и штрафы в размере 9 млн. долл. за серьезный ущерб.</li> </ul> <p>В настоящее время этот документ обсуждается в правительстве Бразилии, и сроки его подготовки еще не объявлены.</p> <h3>Калифорния, США</h3> <p>Регулирование инноваций в области ИИ в "горячей точке" — Кремниевой долине — будет постоянной проблемой для регулирующих органов, поскольку в Калифорнии расположены штаб-квартиры таких компаний, как OpenAI и крупных инвесторов — Microsoft и Google. Для решения этой насущной проблемы регулирующие органы планируют разработать масштабное предложение по ИИ.</p> <p>Опираясь на национальный "Билль о правах в области ИИ" ("AI Bill of Rights"), разрабатываемое законодательство призвано предотвратить дискриминацию и нанесение ущерба в таких секторах, как образование, коммунальное хозяйство, здравоохранение и финансовые услуги. В качестве гарантий предлагаются доступные всем ежегодные оценки воздействия, представляемые разработчиками и пользователями в Департамент по гражданским правам шт. Калифорния (California Civil Rights Department), в которых будут подробно описаны типы задействованных автоматизированных инструментов. Наряду с этим планируется обязать разработчиков внедрять систему управления с подробным описанием использования технологий и возможных последствий.</p> <p>Кроме того, Совет по гражданским правам шт. Калифорния (California Civil Rights Council) предложил внести изменения в правила использования ИИ в сфере занятости, в том числе уточнить определения "неблагоприятного воздействия", задач, которые представляют собой автоматизированные системы принятия решений (за исключением текстовых редакторов и электронных таблиц), а также заменить "данные машинного обучения" на "данные автоматизированных систем принятия решений".</p> <blockquote> <h3>Россия</h3> <p>Власти РФ разрабатывают полноценный закон об ИИ, 28 июня 2023 г. заявил в интервью "РИА Новости" замглавы Минцифры Александр Шойтов.</p> <p>"Очевидно, что нужно регулировать эту сферу, и мы этим занимаемся, соответствующее регулирование готовится. Одно из направлений — это обезличивание данных. Речь идет о том, чтобы поэтапно в пилотных проектах, наращивая технологии, переходить к общему регулированию, расширять, масштабировать правильные решения... Сначала должен быть полноценный закон об искусственном интеллекте, у нас такого закона пока нет", — сказал он.</p> <p>Отвечая на вопрос, разрабатывается ли такой закон сейчас, г-н Шойтов сказал: "Да, разрабатывается".</p> <p>Он также отметил, что любая высокая технология несет с собой параллельные риски. "Поэтому при использовании ИИ нужно находить баланс между безопасностью и экономической эффективностью", — добавил г-н Шойтов.</p> <p>Напомним, что <a href="http://publication.pravo.gov.ru/Document/View/0001201910110003" target="_blank">Указом Президента Российской Федерации от 10 октября 2019 г. № 490</a> "О развитии искусственного интеллекта в Российской Федерации" утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 г. В развитие Национальной стратегии утвержден <a href="https://digital.gov.ru/ru/activity/directions/1046/?utm_referrer=https%3a%2f%2fyandex.ru%2f">федеральный проект "Искусственный интеллект</a>" сроком реализации до конца 2024 г. Предусмотрено бюджетное финансирование в размере 24,1 млрд. руб., а также из внебюджетных источников — 5,1 млрд. руб. "Создание комплексной системы правового регулирования в сфере искусственного интеллекта" было заявлено в качестве одного из направлений данного федерального проекта.</p> </blockquote> <h3>Канада</h3> <p>Законодательство, касающееся регулирования ИИ в Канаде, в настоящее время регулируется различными законами о конфиденциальности данных, правах человека и интеллектуальной собственности в зависимости от штата. Однако принятие Закона об ИИ и данных (Artificial Intelligence and Data Act, AIDA) запланировано не ранее 2025 г., а его разработка началась в рамках Bill C-27, the Digital Charter Implementation Act, 2022.</p> <p>В настоящее время разрабатывается рамочная программа управления рисками и "подводными камнями" генеративного ИИ, а также других областей применения этой технологии в Канаде, направленная на поощрение ответственного подхода.</p> <p>По мнению канадского правительства, подход, основанный на оценке рисков, соответствует аналогичным нормам в США и ЕС, при этом планируется использовать существующее канадское законодательство в области защиты прав потребителей и прав человека, признавая необходимость соответствия систем ИИ "с высокой степенью воздействия" требованиям законодательства в области прав человека и безопасности. Кроме того, предполагается, что министр инноваций, науки и промышленности будет отвечать за то, чтобы регулирование соответствовало развитию технологий, а также за создание новых законодательных положений для противодействию злонамеренному использованию.</p> <p>Определены шесть основных областей ответственности, которым должны соответствовать системы с высокой степенью воздействия:</p> <ul> <li>подотчетность;</li> <li>справедливость и равноправие;</li> <li>понимание человеком и мониторинг;</li> <li>безопасность;</li> <li>прозрачность;</li> <li>достоверность и надежность.</li> </ul> <h3>Китай</h3> <p>В настоящее время Администрация киберпространства Китая (Cyberspace Administration of China, CAC) разрабатывает проект регулирования сервисов на базе ИИ, обслуживающих граждан, включая чатботы. Подготовлено предложение, согласно которому китайские технологические компании должны будут в перспективе регистрировать модели генеративного ИИ в CAC перед публичным выпуском продуктов.</p> <p>При оценке этих продуктов будет учитываться "легитимность источника данных для предварительного обучения", а разработчики, согласно законопроекту, должны будут продемонстрировать соответствие продуктов "основным ценностям социализма". Продуктам будет запрещено использовать персональные данные для обучения, они должны будут требовать от пользователей подтверждения их подлинной личности. Кроме того, нарушением будут считаться модели ИИ, распространяющие экстремистский, насильственный, порнографический контент, а также сообщения, призывающие к "свержению государственной власти".</p> <p>В настоящее время за нарушения предусмотрены штрафы в размере от 10 тыс. юаней (1454 долл.) до 100 тыс. юаней (14 545 долл.), а также приостановка сервиса и возможное уголовное расследование. Кроме того, поставщики, размещающие контент, признанный неуместным, должны будут в течение трех месяцев обновить свои системы для предотвращения повторных нарушений.</p> <p>Регулирующие органы стремятся ускорить формализацию регулирования ИИ в Китае. В последней версии законопроекта содержится призыв к технологическим компаниям регистрировать ИИ-продукты в течение 10 рабочих дней после выпуска. По последним данным, правительство Китая планирует завершить разработку законодательства к концу июля 2023 г.</p> <h3>Европейский союз</h3> <p>В настоящее время в Европейском парламенте разрабатывается закон об ИИ (AI Act), и за его будущее принятие на пленарном голосовании в июне 2023 г. проголосовали 499 евродепутатов из 620. Регулирование искусственного интеллекта в регионе ведется уже несколько лет, Европейская комиссия представила соответствующее предложение в апреле 2021 г.</p> <p>Как известно, Италия стала первой страной, запретившей использование ChatGPT, и в других странах ЕС в последние несколько месяцев ведутся дискуссии о том, чтобы последовать этому примеру.</p> <p>Предложенная Еврокомиссией система регулирования ИИ предусматривает четыре уровня риска:</p> <ul> <li>Минимальный риск или отсутствие риска — включая такие системы, как видеоигры с поддержкой ИИ или спам-фильтры, в которых может использоваться генеративный ИИ.</li> <li>Ограниченный риск — включая использование чатботов, при этом пользователи должны быть четко проинформированы о том, что они взаимодействуют с такими системами с самого начала.</li> <li>Высокий риск — использование генеративного ИИ в критически важной инфраструктуре, например на транспорте, в образовательной сфере, в правоохранительных органах, при найме и подборе персонала, а также в робототехнике в здравоохранении.</li> <li>Неприемлемый риск — включает все системы, представляющие явную угрозу безопасности и правам граждан, такие как социальный скоринг и голосовые помощники, поощряющие причинение вреда.</li> </ul> <h3>Индия</h3> <p>В марте 2021 г. правительство Индии объявило, что будет применять "мягкий подход" к регулированию ИИ с целью поддержания инноваций в стране, и в настоящее время никаких планов по специальному регулированию ИИ нет. В то же время министерство электроники и информационных технологий, отказавшись от регулирования развития ИИ, назвало эту область технологий "важной и стратегической" и заявило, что введет в действие политику и инфраструктурные меры для борьбы с предвзятостью, дискриминацией и этическими проблемами.</p> <p>Правительство Индии предложило устанавливать добровольные рамки для управления ИИ. В Национальной стратегии развития ИИ от 2018 г. рассматриваются пять ключевых направлений: сельское хозяйство, образование, здравоохранение, "умные города" и "умная мобильность". Затем, в 2020 г., в новом проекте Стратегии были подробно изложены вопросы этического использования ИИ, призывающие к тому, чтобы все системы были прозрачными, подотчетными и беспристрастными.</p> <h3>Южная Корея</h3> <p>Закон Южной Кореи об ИИ в настоящее время находится на завершающей стадии разработки, и голосование по нему будет проходить в Национальном собрании. Законопроект в его нынешнем виде предусматривает, что нормативные акты должны разрешать любому пользователю создавать новые модели без предварительного одобрения правительства, при этом системы, считающиеся "высокорискованными" в отношении жизни граждан, должны завоевывать долгосрочное доверие.</p> <p>В законопроекте делается акцент на инновации в стране с учетом этических норм, а предприятия, использующие генеративный ИИ, получат государственную поддержку по вопросам ответственного подхода к разработке систем.</p> <p>Кроме того, Комиссия по защите персональной информации (Personal Information Protection Commission) объявила о планах создания рабочей группы, которая займется переосмыслением защиты биометрических данных в свете развития генеративного ИИ.</p> <h3>Великобритания</h3> <p>В настоящее время регулирование генеративного ИИ в Великобритании остается в ведении регуляторов в отраслях, в которых он используется, а общего закона, выходящего за рамки GDPR, не планируется. В официальных заявлениях по этой теме правительство выбрало "инновационный подход", и страна стремится занять лидирующие позиции в глобальной гонке ИИ. Однако вопросы о том, насколько генеративный ИИ подвержен таким рискам, как нарушения в работе систем, дезинформация и предвзятость, остаются.</p> <p>Чтобы помочь снизить эти риски, правительство Великобритании опубликовало <a href="https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1147045/uk_ai_regulation_impact_assessment.pdf">документ</a> Impact Assessment, цель которого — определить надлежащее и справедливое регулирование деятельности разработчиков ИИ. Эта мера является частью более широкой Национальной стратегии в области ИИ, в резюме которой признается ряд рыночных провалов (информационная асимметрия, несогласованные стимулы, негативные внешние эффекты, неэффективность регулирования), что означает, что риски, связанные с ИИ, не решаются должным образом. Правительство намерено предложить надлежащий межотраслевой режим регулирования. Среди поставленных задач — стимулирование роста малых и средних предприятий в сфере ИИ, повышение уровня доверия населения, а также сохранение или улучшение позиции страны в Стэнфордском глобальном индексе ИИ (Stanford Global AI Index).</p> <p>Британское Управление по конкуренции и рынкам (Competition and Markets Authority), в свою очередь, начало проверку основополагающих моделей ИИ, изучая развитие инструментов, включая ChatGPT, с точки зрения конкуренции и защиты прав потребителей. Разработчикам ИИ предлагается продемонстрировать соответствие пяти основным принципам:</p> <ul> <li>безопасность, надежность и устойчивость;</li> <li>надлежащая прозрачность и объяснимость;</li> <li>справедливость;</li> <li>подотчетность и управление;</li> <li>состязательность и возмещение ущерба.</li> </ul>