Технологии искусственного интеллекта (ИИ) подарили нам не только новые возможности, но и инструмент, который используют для мошенничества, — дипфейки. Сегодня нейросети могут создать цифрового двойника практически любого человека, подделав его внешность и голос с пугающей точностью. Рассказываем, как распознать такую манипуляцию и защитить свои деньги и личные данные.
Дипфейк — это метод синтеза изображения, видео или звука, основанный на машинном обучении. Этот термин давно вышел за рамки сленга айтишников. В нём сочетаются два слова — deep learning («глубинное обучение») и fake («подделка»).
Для создания дипфейка нейросеть накладывает сгенерированные фрагменты на исходное изображение или запись, подменяя лицо, мимику, жесты и голос. В итоге получается аудио- или видеозапись, на которой присутствует цифровая копия живого человека, сложно отличимая от оригинала.
В кинематографе или рекламе эта технология помогает креативу, но мошенники используют её для обмана. Например, так: злоумышленники создают дипфейк руководителя компании и через видеозвонок или аудиосообщение отдают сотрудникам распоряжение срочно перевести деньги на счёт «контрагента». Из-за убедительности подделки сотрудники могут выполнить указание, не заподозрив неладное.
В России были случаи, когда в интернете появлялись фейковые видео с известными бизнесменами, которые рекламировали возможность лёгкого заработка и призывали переходить на мошеннические сайты. Также у мошенников популярны образы чиновников. Например, в 2024 году несколько москвичей потеряли свои деньги, потому что поверили, что им позвонил по видео мэр столицы Сергей Собянин и попросил перевести средства на «безопасный счёт».
Первый шаг к защите — умение заметить тревожные признаки. Внимательно посмотрите или послушайте подозрительное сообщение.
Вас должны насторожить:
Понять, что это дипфейк, бывает сложно на первый взгляд. Поэтому есть специальные программы-сканеры, выявляющие наличие невидимых человеку искажений.
Среди них:
Многие из них бесплатные.
Крупные российские компании разрабатывают свои решения. Например, Сбер создал сервис по выявлению видео с дипфейками под рабочим названием «Алетейя». Его ключевое отличие — способность анализировать видео, где в кадре присутствует несколько лиц, а также ролики с разным фоном и освещением.
Технология доступна для бизнеса через унифицированный API и готова к интеграции с любым коммерческим продуктом. Банк намерен предоставить это решение и обычным пользователям, чтобы они могли проверять медиафайлы на подлинность.
Для защиты от подделок на видео часто добавляют специальные «цифровые водяные знаки» или маскирующие пиксели, сбивающие с толку нейросети.
Такая защита не делает видео неуязвимым, но серьёзно портит качество будущего дипфейка, и его становится легче распознать. Однако главная стратегия защиты — это профилактика и осведомлённость.
Что может помочь:
Мошенники используют дипфейки, маскируясь под близких, коллег, начальников или публичных лиц. Они обманом похищают деньги и персональные данные у тех, кто поверил в реальность подделки.
При распознавании дипфейка обращайте внимание на детали: неестественную мимику, размытые контуры и неоднородное освещение. На аудио — механический тембр голоса и звуки, нехарактерные для человеческой речи. Эти несовпадения часто выдают искусственное происхождение контента.
Всегда перепроверяйте подозрительные просьбы о переводах через второй канал связи и используйте «секретные вопросы» для проверки собеседника. Ограничьте доступ к личным фото и видео.