В России объяснили исходящие угрозы от ИИ

Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») заявили эксперты из РФ.

В России объяснили исходящие угрозы от ИИ
© Lenta.ru

Специалист по машинному обучению Илья Гусев напомнил, что корпорация Microsoft ранее запретила своим пользоваться китайским нейросетевым сервисом DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.

«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист.

По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.

«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI Денис Филиппов.

Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.

При этом Дмитрий Аникин из «Лаборатории Касперского» обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса. Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева заметила, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски.