Что изменит законопроект Минцифры о регулировании ИИ?

Авторы проекта предлагают считать искусственным интеллектом комплекс технологий, имитирующих когнитивные функции человека, включая самообучение. Важно, что закон впервые четко разделяет всех участников процесса, в нем упоминаются такие категории как разработчик модели, оператор системы, владелец сервиса и пользователь. За каждым закрепляются свои права и обязанности.

Что изменит законопроект Минцифры о регулировании ИИ?
© It-world

Что именно предлагают регулировать

В законопроекте вводится градация моделей ИИ. Суверенными или национальными предлагается считать те, что полностью созданы в России силами российских граждан или юрлиц с использованием отечественных данных. Для них обещают господдержку и благоприятные условия развития. Доверенными моделями станут те, которые после проверки ФСБ и ФСТЭК разрешат использовать в госинформсистемах и критической инфраструктуре - в энергетике, на транспорте, в медицине и финансах. Их включат в специальный реестр, и правительство в перспективе может сделать их обязательными для определенных объектов.

Обязанности разработчиков и владельцев сервисов прописаны достаточно подробно. Разработчики должны исключать функции, способные привести к дискриминации людей, предупреждать о запрете использования модели в незаконных целях и моделировать потенциальные риски. Операторы обязаны тестировать системы, предоставлять инструкции по безопасной эксплуатации и приостанавливать работу при угрозе вреда жизни или безопасности государства.

Наибольшая нагрузка ложится на владельцев ИИ-сервисов. Они должны не допускать использования своих платформ в противоправных целях и ограничивать создание материалов, противоречащих российскому законодательству. Для сервисов с аудиторией более 500 тысяч человек в сутки вступают в силу требования «закона Яровой» о хранении данных пользователей. Кроме того, владельцы обязаны маркировать созданный ИИ контент, а крупные платформы с аудиторией от 100 тысяч человек должны следить за наличием такой маркировки и удалять непромаркированные материалы.

В договорах с разработчиками предписано согласовывать, кому принадлежат права на результаты интеллектуальной деятельности, созданные с помощью ИИ, с учетом прав авторов оригинальных произведений. В пользовательских соглашениях также должно быть прописано, кому достается сгенерированный контент.

Пользователи в свою очередь обязуются соблюдать правила доступа, не использовать сервисы в незаконных целях и не пытаться обходить встроенные механизмы безопасности. При использовании сгенерированного контента они должны уважать права и интересы третьих лиц.

Отдельно прописана ответственность. Если результат работы ИИ нарушает законодательство, отвечать будут разработчик модели, оператор системы, владелец сервиса и пользователь - соразмерно степени вины каждого. Разработчик, оператор и владелец ответят, если они знали или должны были знать о возможности такого исхода. Освободить от ответственности может только принятие всех исчерпывающих мер, соблюдение закона либо действие непреодолимой силы или умысел потерпевшего. Конкретные наказания в законопроекте не прописаны, там говорится лишь об административной и уголовной ответственности.

Энергия для развития

Значительный блок документа посвящен поддержке инфраструктуры. Правительство сможет утвердить перечень центров обработки данных для ИИ, которые получат особые условия. Речь идет о долгосрочных договорах на электроэнергию с фиксированным предельным уровнем цены, освобождении от платы за технологическое присоединение, упрощенном порядке согласования схем электроснабжения и праве покупать энергию по регулируемым тарифам ниже уровня промышленных потребителей. Также для таких ЦОДов предусмотрены бюджетное финансирование и налоговые льготы.

Взгляд за пределы страны

В законопроекте заложены и основы международного сотрудничества. Декларируется принцип равных прав и возможностей наций в разработке ИИ. Россия намерена формировать единое пространство доверенных технологий при своей лидирующей роли, продвигать отечественные стандарты и технологии за рубежом, а также помогать партнерам повышать технологический потенциал. При этом вводится понятие трансграничных технологий ИИ, функционирование которых может быть запрещено или ограничено в случаях, установленных законодательством.

Документ носит рамочный характер и не распространяется на сферы обороны, безопасности государства и охраны правопорядка - там особенности применения ИИ определят отдельно. Авторы признают, что из-за рамочности закона пока невозможно точно оценить затраты на исполнение требований и все риски. Но главный посыл ясен: отсутствие системного регулирования и правовая неопределенность сдерживают развитие технологий и создают угрозу безопасности граждан, так как ИИ может применяться без необходимых мер предосторожности.

Какие последствия для общества принесет новый закон?

Принятие этого закона, если он вступит в силу, постепенно изменит повседневную жизнь россиян, и в первую очередь люди начнут замечать маркировку контента. Видеоролики, картинки и тексты, созданные нейросетями, будут обязаны содержать специальные пометки. Крупные социальные сети и платформы возьмут на себя функцию контроля, что снизит риск случайного распространения сгенерированных материалов без предупреждения, а обычные пользователи смогут отличать реальные события от искусно сфабрикованных дипфейков.

Важным последствием станет появление у людей права требовать обслуживания без участия искусственного интеллекта. Если человек не хочет взаимодействовать с алгоритмом при получении государственных или муниципальных услуг, он сможет настоять на «человеческом» решении. Также появится механизм досудебного оспаривания решений госорганов, принятых с использованием ИИ. Это снижает риск ситуаций, когда бездушная программа ошибается, а исправить ошибку оказывается некому.

С другой стороны, внедрение четких правил для разработчиков и владельцев сервисов должно сделать ИИ более безопасным. Запрет на дискриминационные алгоритмы защитит людей от необоснованных отказов в кредитах или услугах, основанных на несовершенных математических моделях. А распределение ответственности между создателями, операторами и пользователями за вред, причиненный ИИ, создаст правовую основу для компенсаций. Если беспилотное такси попадет в аварию или медицинский алгоритм поставит неверный диагноз, пострадавший сможет взыскать ущерб с конкретных виновных лиц.

В то же время неизбежны и издержки. Введение обязательной маркировки и требований к хранению данных увеличит затраты бизнеса, что может отразиться на стоимости цифровых сервисов для конечных потребителей. Российские пользователи могут столкнуться с сужением выбора зарубежных ИИ-сервисов, если те не захотят или не смогут выполнять требования по проверке безопасности и локализации данных. Это риск фрагментации глобального цифрового пространства, когда одни и те же технологии работают по-разному в разных странах.

Государственная поддержка суверенных моделей и центров обработки данных, льготы на электроэнергию должны стимулировать строительство мощной вычислительной инфраструктуры внутри страны. В перспективе это означает появление новых рабочих мест, развитие компетенций и меньшую зависимость от импортных технологий. Однако успех этой политики будет зависеть от того, насколько гибко и своевременно будут приниматься подзаконные акты и насколько реально работающими окажутся механизмы защиты прав простых людей.