Смогут ли мошенники "взламывать" аккаунты россиян с помощью дипфейков?
Уже в ближайшие годы аудио— и видеодипфейки будет невозможно отличить от настоящих записей, уверены эксперты
В этом году в России в три раза выросло количество дипфейков — поддельных аудио— и видеоматериалов. В будущем обороты такого вида мошенничества будут только расти. При этом уже сейчас сгенерированные ИИ ролики не всегда можно отличить от оригинала. Автоматическое обнаружение дипфейков вряд ли будет возможно, предупреждают эксперты: технологии генерации будут постоянно опережать средства их распознавания. О том, как защититься от обмана в этих условиях, — в материале "Реального времени".
Число дипфейков в России выросло втрое, и это не предел
В текущем году количество дипфейков в России выросло в три раза. "Это не просто мемы с голосом, не просто картинка или коллаж, а настоящие дипфейки. Это в три раза больше показателей за весь 2024 год, а 2025-й еще не закончился, и эта статистика за первую его часть", — сообщала в сентябре официальный представитель МИД страны Мария Захарова.
По данным ведомства, с начала года выявлен 231 уникальный дипфейк и 29 тысяч их копий. Подавляющее большинство из них — 88% — касаются политической сферы и государственной безопасности.
Казанцев на прошлой неделе предупредили о появлении дипфейка якобы с мэром города Ильсуром Метшиным.
— Мэр города — публичный деятель, поэтому в интернете есть много фото и видео, которые могут быть использованы для создания таких роликов. Подделку выдает речь — на аудио заметен акцент, — предупредили в пресс-службе мэрии.
Как предупреждали в МВД, татарстанцев стали "обманывать" Тоби Магуайр, Том Холланд, Роберт Дауни-младший, Федор Бондарчук и другие звезды кинематографа. Мошенники, используя социальную инженерию и дипфейки, полностью берут контроль над выбором жертвы.
— Они используют функцию замены лица. Могут выступить как Том Круз, Киану Ривз, а пенсионеры, которые ни разу не видели этих актеров, могут полностью довериться этим людям, — заявил оперуполномоченный по раскрытию мошенничеств Управления уголовного розыска МВД Радис Юсупов.

"Таких кейсов будет все больше"
Каждый второй россиянин, согласно исследованию "МТС Линк", не знает, что такое дипфейк. Однако в ближайшее время нас ждет эпидемия поддельных видео, уверены эксперты.
— Сейчас очень много контента в соцсетях сгенерировано искусственным интеллектом (ИИ). А при создании дипфейка ИИ не просто генерирует, а еще и, например, подставляет чужое лицо. Например, я решил "понтануться" и выложил видео, как будто меня поздравила с днем рождения Джей Ло. На самом деле, конечно, она не приходила и меня не знает. Таких кейсов, конечно, будет все больше. Инструменты будут развиваться, люди будут стараться использовать это в своих целях, в немалой степени — в преступных. Этого стоит ожидать, — предупредил в разговоре с "Реальным временем" СЕО GO Digital Азамат Сиражитдинов.
Распознавать дипфейки советуют по визуальным признакам. Но, как считают эксперты, скоро эта мера уже не поможет.

— Сейчас дипфейки еще можно распознать по визуальным признакам. Стоит обращать внимание на неестественную мимику, также могут быть заметны артефакты: размытость контуров, дрожание изображения. Часто наблюдается рассинхронизация — когда движение губ не совсем совпадает со звуком. Также стоит помнить о так называемых "водяных знаках" (watermarks), которые могут присутствовать в некоторых сгенерированных видео, если их не удалили. Перспективы развития таких технологий очевидны: уже в ближайшие годы аудио— и видеодипфейки станут настолько реалистичными, что визуально отличить их от настоящих записей будет невозможно, — рассказал нашему изданию руководитель Центра информационной безопасности Университета Иннополис Михаил Серегин.
При этом в условиях низкого разрешения — например, при имитации видео с домофона или камеры наблюдения — отличить дипфейк от реальной записи практически невозможно уже сейчас.
Аналогичное мнение высказал и Азамат Сиражитдинов. По его словам, только за последний год сгенерированные нейросетями видео значительно эволюционировали.

"Технологии генерации будут постоянно опережать средства их распознавания"
Надежное и массовое автоматическое обнаружение дипфейков вряд ли будет возможно, считает Михаил Серегин.
— Даже для анализа подлинности подписи или выявления монтажа на фотографии до сих пор требуется тщательная экспертиза со специальным инструментарием, и даже в этом случае возможны ошибки. Технологии генерации будут постоянно опережать средства их распознавания. В России ситуация аналогична общемировой: компании активно работают над технологиями детектирования дипфейков, но находятся в равных условиях с другими странами и сталкиваются с теми же фундаментальными вызовами, — пояснил руководитель Центра информационной безопасности.
Как в таком случае граждане и бизнес будут защищаться от усовершенствованных дипфейков? "Только законодательно", — говорит Азамат Сиражитдинов. Пока термин "дипфейк" не закреплен юридически. Но даже если он появится, апеллировать будут к уже существующим статьям — например, о мошенничестве или унижению чести и достоинства.

Ключевую роль в ограничении распространения дипфейков могли бы сыграть крупные ИИ-платформы.
— Например, они могут внедрять механизмы проверки происхождения контента и определять, было ли видео сгенерировано с использованием их сервисов. Для большинства случаев, когда видео не подвергается серьезной постобработке, такие методы могли бы стать действенным инструментом и помочь пользователям самостоятельно проверять достоверность контента, — объяснил Серегин.
Главное, по его словам, — это развитие цифровой грамотности и здоровой недоверчивости. Основное правило: не поддаваться на импульсивные действия, даже если звонок или сообщение кажутся абсолютно достоверными.
— Раньше люди верили абсолютно всему, что сказано в газетах, сейчас сразу на веру воспринимают то, что увидено в интернете. Думаю, что из-за дипфейков мы цивилизационно переживем какой-то этап и уже в 2027—2028 годах будем это воспринимать как детский сад "Ромашка", — согласен Сиражитдинов.