В России объяснили исходящие угрозы от ИИ
Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») заявили эксперты из РФ.
Специалист по машинному обучению Илья Гусев напомнил, что корпорация Microsoft ранее запретила своим пользоваться китайским нейросетевым сервисом DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.
«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист.
По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.
«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI Денис Филиппов.
Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.
При этом Дмитрий Аникин из «Лаборатории Касперского» обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса. Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева заметила, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски.