Отрасль встанет: эксперт прокомментировал решение саммита БРИКС о прозрачности ИИ

О создании безопасного искусственного интеллекта договорились лидеры стран БРИКС на прошедшем в Бразилии XVII саммите объединения. Мы попросили эксперта прокомментировать этот пункт договора.

Отрасль встанет: эксперт прокомментировал решение саммита БРИКС о прозрачности ИИ
© Московский Комсомолец

«Создание безопасной и стабильной цифровой среды» – так называется этот пункт. В нем лидеры БРИКС выразили намерение разработать международные принципы развития и применения технологий ИИ, ориентированных на инклюзивность (то есть доступность для всех стран, «особенно стран Глобального Юга») и соблюдение прав человека. Согласно декларации, механизмы управления ИИ также должны соответствовать национальным законам и Уставу ООН, а также «быть динамичными, прозрачными и безопасными».

Отмечена в документе и необходимость осторожного подхода к «Сильному искусственному интеллекту» (Artificial General Intelligence, AGI), или ИИ человеческого уровня, который, возможно, в будущем сможет осознать себя.

Комментарий гендиректора ИТ-компании «А-Я эксперт», руководителя образовательной программы «Искусственный интеллект» НИЯУ МИФИ Романа Душкина:

– Я понимаю, что лидеры стран БРИКС борются за все хорошее, но сейчас главное – не сделать так, чтобы у разработчиков искусственного интеллекта было слишком много барьеров, препятствующих разработке новых математических алгоритмов и технологии. Например, в декларации говорится о прозрачности ИИ, о том, что модели искусственного интеллекта должны быть объяснимы, и так далее... На этом можно отрасль просто ставить на «стоп»! Потому что то, как работают нейросетевые модели, как они функционируют, — это очень сложно интерпретировать. Дело в том, что модели функционируют непрозрачно, как черные кибернетические ящики: им на вход подаются какие-то значения, на выходе получаются какие-то выходные значения, а вот процесс преобразования входного значения в выходное значение в целом непрозрачен.

И если в законе прописать «четкую объяснимость», которая пока фундаментально недостижима, то все, что сегодня делают разработчики, становится противозаконным.

Что касается пунктов о соблюдении суверенитета, уважения Устава ООН и пр. – они к технологии отношения не имеют. Мы в России уже давно при регулировании применения той или иной технологии руководствуемся нормативно-техническими актами и правилами нормативно-технического регулирования.

Так, для области применения искусственного интеллекта существует национальный стандарт №164 (он так и называется – «Искусственный интеллект»), в котором прописаны условия и ограничения по применению моделей искусственного интеллекта в тех или иных областях. Если мы хотим сделать, например, модель или систему ИИ для применения в здравоохранении, мы должны поднять национальный стандарт, применимый в здравоохранении, и обеспечить соответствие нашей системы ИИ этому стандарту. Технический комитет Росстандарта выпустил подобные стандарты для разных областей и сфер жизни в России.

— А есть там у нас какие-то пункты, касающиеся подделки при помощи ИИ голосов и дипфейковых видео?

— Это вопрос к юристам. Думаю, что текущая версия Уголовного кодекса вполне покрывает любые виды мошенничества, в том числе связанные с мошенничеством в сфере ИИ, и придумывать новую статью УК о мошенничестве при помощи цифровых технологий излишне.