ИБ-компания LayerX опубликовала отчёт, согласно которому, сотрудники корпораций всё чаще передают личные и финансовые данные в ChatGPT, часто используя при этом незащищённые учётные записи, что создает значительный риск утечки информации.
Согласно отчёту о корпоративном искусственном интеллекте и безопасности данных в SaaS за 2025 год, 45% работников прибегают к генеративному ИИ, 77% из них копируют и вставляют данные в запросы чат-ботов, а более 20% таких запросов содержат конфиденциальные сведения. LayerX отслеживает эти взаимодействия через расширение для корпоративного браузера и обнаруживает, что 82% данных поступают из неуправляемых учётных записей, минуя корпоративные системы безопасности.
Генеральный директор layerX, Ор Эшед, рассказал о случае 2023 года, когда компания Samsung временно запретила использование ChatGPT после того, как один из сотрудников загрузил внутренний код в приложение. Такие утечки могут нарушить внутренние регламенты и вызвать геополитические риски, если конфиденциальная информация попадёт в зарубежные модели ИИ.
Эксперты layerX подчёркивают, что без внедрения надёжной системы единого входа (SSO) и централизованной аутентификации предотвратить утечку данных будет крайне сложно.