Эксперты объяснили, почему угрозы исходят не от ИИ, а от сервисов на его основе
Корпорация Microsoft запретила работникам использовать китайский искусственный интеллект (ИИ) DeepSeek. Компания ограничивает доступ к сервису, опасаясь утечки данных и влияния иностранной платформы на деятельность сотрудников. Российские эксперты отмечают, что использование локальных решений и проверенных облачных платформ снижает угрозы безопасности.
Российские эксперты обращают внимание, что риски исходят не от больших языковых моделей как таковых, а от приложений и сервисов, которые создаются на их основе.
"Microsoft запретили пользоваться не самой моделью, конечно, а приложением. Это нормальная практика, более того, я уверен, что DeepSeek - это не единственное запрещенное приложение в компании", - отмечает специалист по машинному обучению Илья Гусев. Эксперт добавляет, что с самой моделью никаких проблем нет, она даже доступна в облаке компании - Azure. Данные могут сохраняться на "вражеских" серверах только при покупке через API. Также при самостоятельном развертывании модели никаких угроз и рисков нет: существуют техники анонимизации данных, которые позволяют проверять их на критичность и удалять персональную информацию.
Угрозы исходят не от нейросетей, а от приложений на их основе
В Альянсе искусственного интеллекта отмечают, что российские большие языковые модели не уступают по качеству выполнения задач на русском языке зарубежным аналогам.
"Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании - то есть на собственной или доверенной облачной инфраструктуре. При этом сервисы типа DeepSeek и ChatGPT могут решать задачи, которые не требуют работы с чувствительными данными", - рассказал генеральный директор MWS AI Денис Филиппов.
Дмитрий Аникин из "Лаборатории Касперского" отмечает, что утечки данных из ИИ-сервисов могут происходить из-за кибератак или ошибок на этапе разработки сервиса. Также злоумышленники могут украсть учетные данные пользователей от аккаунтов в ИИ-сервисах и получить доступ к конфиденциальным данным, которыми те обмениваются с нейросетью. Какие именно сведения собирает ИИ-платформа, как правило, отмечено в пользовательском соглашении.
Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева рассказала, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски. Подобные угрозы могут привести к серьезным последствиям - от компрометации данных компаний до геополитических последствий, таких как шпионаж или массовые утечки.
"При этом важно понимать, что ИИ способен учиться на конфиденциальных данных - это делает риски утечек и компрометации еще выше", - добавляет эксперт.