Депутат Хинштейн: в законе закрепят понятие «дипфейк» для борьбы с мошенниками
Депутатов беспокоит, что в интернете становится всё больше контента с реалистичной подменой фото, видео и аудио. Но пройдёт лет пять, и новомодная «игрушка» станет полноценным и грозным оружием аферистов. Разбираемся, получится ли регулировать генерацию фейков законом. Некоторые айтишники сомневаются. Что такое дипфейк Есть просто фейки — тексты в соцсетях с ложной информацией или ненастоящие профили в соцсетях. А есть их продвинутая версия — дипфейки . К ним относится любая реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей. Нейросети при умелом обращении позволяют вставить лицо определённого человека в нужное видео таким образом, что подмену сложно разглядеть. Таким же образом можно использовать не только чужую внешность, но и голоса. Как власть собирается бороться с дипфейками Современные дипфейки распознавать всё труднее и труднее, посетовал глава комитета Госдумы по информационной политике Александр Хинштейн. При этом в законодательстве это явление никак не закреплено. Депутат сообщил «Известиям», что на базе думского комитета экспертное сообщество вместе с Роскомнадзором разрабатывает законопроект. Он даст правовое определение дипфейкам. Отдельный закон создавать не будут — могут появится лишь поправки к действующему законодательству. А зачем они вообще нужны? Зампред комитета по информполитике Олег Матвейчев объясняет это так: «В течение 3–5 лет этот механизм (нейросейтей) разрастётся, и к его использованию примкнут мошенники». Но не только они, отметил депутат. Он напомнил, что уже сейчас некоторые студенты начали писать выпускные дипломы с помощью нейросети. Причём один такой хитрец нашёлся в России . И на самом деле мошенники уже вовсю используют и ChatGPT , и голосовую подмену , и видео-дипфейки . Вопрос только в масштабах. Технология пока слишком дорога и сложна, требует от мошенников определённых навыков. Но когда и если она станет проще, дипфейки будут гулять сплошь и рядом, предупредил исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Как распознать дипфейк Большинство современных дипфейков распознать не проблема, если сохранять бдительность. Вот несколько советов , которые помогут быстро отличить поддельное видео от реального: Обращайте внимание на кожу. В дипфейках цвет «обработанной» части (обычно лица) немного отличается от цвета кожи остального тела. Внимательно смотрите мимику. Дипфейки частенько выдаёт неестественное движение губ и глаз у говорящего на видео человека, отсутствие пауз. Сильно увеличьте изображение. Это позволяет разглядеть компьютерную графику — например, ненастоящую бороду на сгенерированном лице. Проверьте изображение поиском картинок в Google (или в «Яндексе»). Иногда там можно обнаружить оригинал фото. В России недавно заработала система мониторинга дипфейков на основе распознавания речи. Проект создало АНО «Диалог регионы». Назвали разработку «Зефир». Подробнее о ней мы рассказывали здесь .