Профессор Улумбекова: Устранить правовые дилеммы ИИ в медицине нужно и возможно

Искусственный интеллект, языковые модели и прочие цифровые ресурсы все активнее входят в нашу жизнь. Они уже широко применяются в медицине - как врачами, так и пациентами. Соответственно, необходимо очертить правовое поле для корректного и безопасного пользования такими ресурсами. Как это сделать, в каком направлении двигаться, обсудили участники круглого стола "Правовые аспекты применения ИИ в здравоохранении", который провел комитет по охране здоровья Госдумы. Представители властных структур, организаторы здравоохранения, представители пациентских организаций наметили пути создания нормативной, технологической, инфраструктурной и методической базы по использованию ИИ в здравоохранении. Как меняются медицинские технологии в связи с внедрением ИИ, какие законодательные решения нужны и готовятся? Об этом "Российской газете" рассказала ректор Высшей школы организации и управления здравоохранением (ВШОУЗ), доктор медицинских наук Гузель Улумбекова.

Профессор Улумбекова: Устранить правовые дилеммы ИИ в медицине нужно и возможно
© Российская Газета

Почему необходимо создание правового поля, которое регулировало бы применение различных возможностей ИИ в медицине, в здравоохранении?

Гузель Улумбекова: Актуальность этой дискуссии сложно переоценить. Стремительное развитие медицинских технологий на основе ИИ, рост использования больших языковых моделей для постановки диагноза и лечения как врачами так и населением требуют поиска оптимального баланса между практической пользой и безопасностью ИИ для государства, врачей и пациентов.

А как обстоит дело в технологически продвинутых странах - там существуют аналогичные проблемы?

Гузель Улумбекова: Эта задача имеет глобальный характер. В 33 странах Европейского региона ВОЗ национальные стратегии развития ИИ включают в себя вопросы здравоохранения. Уровень доверия к ИИ среди врачей и пациентов растет, хотя использование генеративных моделей часто происходит вне рамок правового регулирования.

Согласно опросу Американской медицинской ассоциации, проведенному в марте 2026 года, уже более 80% врачей в США используют различные ИИ-сервисы (рост в два раза по сравнению с 2023 годом), причем каждый третий доктор делает это ежедневно.

Население также проявляет активность, задавая вопросы, касающиеся здоровья, например, в США это делают 16% взрослого населения. В странах ЕС для личных целей, в том числе медицинских, его используют 45% населения в возрасте 16-24 лет и 25% в возрасте 16-74 лет. Такие данные в 2025 году приводил Eurostat.

Но по факту это означает, что процесс консультаций населения по медицинским вопросам с большими языковыми моделями происходит бесконтрольно. При этом эксперты предупреждают - эффективность использования его для этих целей недостаточно изучена, а регулирование несовершенно.

Какие риски вы видите и можно ли их снизить?

Гузель Улумбекова: Хорошая новость в том, что системы здравоохранения осознают риски, сопряженные с ИИ. Мировые эксперты сходятся во мнении, что ИИ-сервисы начинают захватывать систему здравоохранения.

Функционал современных сервисов ИИ обширен. Это модели, основанные на машинном обучении, которые направлены на решение узких задач, например, распознавание патологии на рентгеновских снимках или предсказание развития болезней на основании различных предвестников или признаков. Это большие языковые модели, например, Яндекс Алиса или Гигачат, которые генерируют текст в ответ на вопросы пациентов, и, наконец, есть агентные ИИ-технологии, предназначенные не только для разговора, но и для решения различных задач. Многие из этих моделей при тестировании показывают высокую эффективность, например, отвечают на вопросы даже лучше, чем эксперты, упрощают бумажную работу врача и его взаимодействие с пациентом.

Вместе с тем нельзя забывать, что в реальной медицинской практике, изменчивой и полной неопределенностей, качество работы ИИ может ухудшаться. Соответственно, акцент в управлении ИИ-сервисами должен быть сделан на их регулярном мониторинге.

Как можно контролировать эффективность и безопасность ИИ-решений? Насколько мне известно, в России они, прежде чем будут допущены к использованию, должны пройти государственную регистрацию как медицинские изделия... Как этот вопрос решается в других странах?

Гузель Улумбекова: В практике правового регулирования в России, США и ЕС большинство ИИ-решений рассматривается как медицинские изделия с ИИ, соответственно, требует специального разрешения перед выходом на рынок. Жесткость контрольных процедур зависит от степени риска, который это изделие может нанести пациенту, применяется так называемый риск-ориентированный подход.

В ЕС действует достаточно жесткое регулирование, практически все модели попадают под класс высокого риска, соответственно, процедура выдачи лицензии затягивается на долгий срок. Вдобавок продукт должен одновременно соответствовать и медицинским регламентам (MDR/IVDR), и новому закону об ИИ (EU AI Act). Для стартапов в сфере медицинского ИИ это оказывается непосильной бюрократической нагрузкой.

В США, согласно новым правилам FDA, вступившим в силу с января нынешнего года, регуляторы идут по пути либерализации требований к ИИ-решениям. Например, все носимые диагностические устройства и ИИ-платформы, где происходит анализ их показаний, не классифицируются как медицинские изделия, соответственно, не попадают под жесткие требования сертификации.

Аналогичное исключение сделано для систем поддержки принятия клинических решений, которые предлагают даже единичные варианты подсказок, ранее их должно было быть несколько.

Жесткий подход к разработчикам сохраняется для моделей ИИ, ответы которых врач не успевает или не может проверить. Например, когда надо принимать быстрое решение в отделении реанимации или экстренной помощи.

Для России, по моему мнению, нужна золотая середина - освободить часть моделей от регистрации, многомесячных проверок. Разумно, если модели ИИ, работая по выверенным источникам информации, например клиническим рекомендациям, и давая врачу четкий ответ, не будут подвергаться длительным процедурам проверок.

Открытым остается вопрос, как одобрять генеративные модели, которыми уже сегодня пользуется огромное количество людей, в том числе и врачи, без всякого на то официального разрешения. Некоторые зарубежные эксперты предлагают выдавать им "диплом клинициста" - лицензировать как специалиста в определенной сфере и регулярно проверять на соответствие современной клинической практике.

Использование ИИ врачами, даже если эти инструменты будут полностью узаконенными и качественными, все равно создает много проблем, в том числе этических. Если на основании "подсказки" ИИ врач ошибется и поставит ложный диагноз, назначит неправильное лечение - кто в итоге будет виноват? Он или бездушный цифровой помощник? И это лишь один маленький пример...

Гузель Улумбекова: Устранить правовые дилеммы интеграции ИИ в здравоохранении и соответствовать темпам роста инноваций в целом возможно. Для этого потребуется соблюсти ряд предпосылок.

Среди них создание единого центра управления - в Минздраве России с подотчетным НМИЦ, который бы занимался научными исследованиями в области медицинского ИИ. Второй момент - запуск федеральной целевой программы с выделенным финансированием (грантовый принцип уже недостаточен), а также поддержание открытой и регулярной дискуссии по сложным вопросам применения ИИ с участием представителей законодательной и исполнительной власти, организаторов здравоохранения, ассоциаций пациентов и врачей.

Эти и другие меры позволят сделать ИИ интеллектуальным инструментом, усиливающим экспертизу специалиста, дополнительным драйвером для развития системы здравоохранения и всей ИТ-отрасли.

Общество должно не бояться сделать ИИ скучным - понятным, приземленным контекстно ориентированным инструментом, а не объектом завышенных ожиданий и новых рисков. И это главный постулат для ускорения инноваций в здравоохранении.