Сервисы искусственного интеллекта (ИИ) начинают вводить обязательную верификацию личности. Эксперты рассказали, что меры объясняются борьбой с злоупотреблениями и ограничениями по возрасту, но вызывают вопросы о приватности и доступности сервисов.
Компания Anthropic обновила официальное заявление о мерах безопасности на платформе, указав о появлении проверки личности для некоторых сценариев работы с ИИ-системой Claude. Согласно письму компании, этот шаг предотвратит злоупотребления технологиями ИИ, вынудит аудиторию соблюдать политику пользования и выполнять юридические требования.
Для прохождения процедуры понадобится паспорт или водительское удостоверение с фотографией пользователя. В ходе проверки компания также может попросить сделать фотографию своего лица (селфи) с мобильного телефона или камеры компьютера.
Ранее ИИ-компания OpenAI представила подобные требования для пользователей ChatGPT, чье поведение на платформе алгоритмы отмечают как сигналы, указывающие на действия несовершеннолетнего. Компания также может потребовать от пользователя подтвердить возраст через "живую" фотографию лица или личный документ.
В целом сегодня заметен формирующийся тренд на деанонимизацию пользователей в сети. Прогресс в развитии ИИ идет колоссальными темпами, возможности моделей быстро растут, и в некоторых аспектах они уже превосходят человека. Нейросети позволяют решать задачи на экспертном уровне, даже если сам пользователь слабо разбирается в теме. Поэтому наличие таких мощных инструментов в руках злоумышленников - серьезный источник опасности.
Директор по продуктам Content AI Иван Волков рассказал, что передовые модели от Anthropic или OpenAI могут весьма успешно применяться для поиска уязвимостей и взлома программных систем. Попытки компаний смягчить риски и ввести идентификацию, чтобы после взлома можно было вычислить того, кто совершает противоправные действия, выглядят как необходимость.
"Учитывая, что ведущие ИИ-корпорации идут "бок о бок" в развитии, логично предположить, что подобные меры вскоре введут и другие игроки рынка. При этом, несмотря на понятные мотивы и рациональное зерно, скорее всего, эти меры сработают мимо цели и не помешают реальным злоумышленникам", - объясняет Волков.
Также крупные платформы, как правило, уже работают на уровне стандартов, принятых в индустрии, - с шифрованием, разграничением доступа и аудитом. Но для пользователя это все равно вопрос доверия: важно, насколько прозрачно компания объясняет, что именно она хранит и как с этим работает.
Во многих случаях платформа может обеспечить безопасность и без полной идентификации пользователей, отмечает доцент факультета безопасности информационных технологий Университета ИТМО Виктория Коржук. Так, используются поведенческие модели, ограничения на функциональность и системы мониторинга, которые позволяют выявлять подозрительную активность без раскрытия личности. Но в более чувствительных сценариях дополнительная проверка может быть разумным компромиссом между удобством и безопасностью.
При этом российский рынок движется к модели, при которой использование ИИ-решений в государственном и коммерческом секторах будет регулироваться по-разному. "Для государственных систем и объектов критической информационной инфраструктуры (КИИ) предусматривается допуск только тех моделей, которые включены в реестр доверенных моделей ИИ. Для включения в реестр модель должна получить подтверждение безопасности от ФСБ и ФСТЭК, обеспечить обработку данных исключительно на территории России и соответствовать отраслевым стандартам качества", - говорит консультант по информационной безопасности Innostage Елизавета Пермякова.
По ее словам, для коммерческого сектора использование зарубежных ИИ-сервисов сопряжено с правовыми рисками. Передача персональных данных россиян на серверы иностранных компаний без соблюдения требований о локализации влечет административную ответственность. Если нарушение привело к утечке данных и оператор не уведомил о ней Роскомнадзор, штраф составит от 1 до 3 миллионов рублей. За неправомерную передачу персональных данных, повлекшую утечку для юридических лиц предусмотрен штраф в размере от 1 до 3 процентов годовой выручки, но не менее 25 миллионов рублей и не более 500 миллионов рублей.
Эти финансовые риски стимулируют бизнес либо переходить на отечественные ИИ-решения, либо внедрять системы обезличивания данных перед отправкой в зарубежные нейросети.
"В краткосрочной перспективе часть аудитории, не готовая раскрывать дополнительные сведения о себе, может сократить использование сервисов либо перейти к альтернативным способам доступа. В долгосрочной перспективе динамика спроса будет определяться удобством и прозрачностью процедуры верификации", - отмечает Пермякова.