Россиянам дали совет по безопасному использованию нейросетей

Главное правило при работе с нейросетями — не загружать туда критически важные данные, сообщил эксперт по информационной безопасности, замгендиректора Staffcop Юрий Драченин. Такой совет он дал в беседе с «Лентой.ру» после утечки данных пользователей китайской модели искусственного интеллекта (ИИ) DeepSeek.

Россиянам дали совет по безопасному использованию нейросетей
© Lenta.ru

Ранее об обнаружении в сети конфиденциальной информации юзеров рассказала американская компания по кибербезопасности Wiz.

Все, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано. Это касается бизнес-документов, коммерческих тайн, персональных данных, даже обычных вопросов, ведь контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии Юрий Драченин IT-эксперт

Эксперт отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда есть риски уязвимостей или просто банального человеческого фактора.

«Все новое всегда вызывает интерес, и в таких ситуациях "белые" хакеры похожи на "черных" сначала идет чистый азарт и исследование системы. В сфере кибербезопасности есть огромное количество пентестеров, которые при появлении чего-то нового сразу начинают проверять его на элементарные уязвимости своеобразная "проверка на детский мат" в шахматах. И сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», поделился Драченин.

Ранее в Китае объявили о создании нейросети мощнее DeepSeek. Компания Alibaba Cloud заявила, что такой является их модель ИИ Qwen 2.5-Max.