Войти в почту

Преступный инструмент: как фейки становятся оружием в руках мошенников

Родилась эта технология в кинопроизводстве, сначала подделку было очень легко распознать по неестественному выражению лица, и странной, нетипичной для человека мимике. Со временем дипфейки стали гораздо правдоподобнее, эксперты отмечают, что в дальнейшем отличить фейк от оригинала будет практически невозможно. Таким образом, процесс производства стал дешевле, а создать дипфейк можно с помощью даже обычного компьютера, не обладая при этом дорогим программным обеспечением. Существует много разновидностей дипфейка, одна из них, более «легкая» – shallowfake. Она используется не для замены картинки, а для замедления или ускорения изображения, чтобы, например, создать впечатление, что человек пьян или неадекватен. Мошенники могут использовать такие приемы для привлечения внимания к контенту – например, чтобы пользователь зашел в комментарии к подобному видео и перешел на фишинговую ссылку. Стоит еще раз отметить, что дипфейк – лишь инструмент, который может сработать как во вред, так и на благо. Например, в прошлом году, при поддержке Института развития интернета (АНО «ИРИ) был выпущен первый дипфейк-сериал «ПМЖейсон». По сюжету действие происходит в 2027 году, американский актер Джейсон Стэйтем уже какое-то время живет в России, где купил дом, выучил язык и весьма неплохо ассимилировался. К сожалению, преступный потенциал у этой технологии растет быстрее творческого, что вызывает много вопросов, в том числе и с точки зрения государственного регулирования. Злоупотребление дипфейками крайне опасно как в мошеннических, так и в политических целях. В этой связи бросается в глаза и двоякая позиция некоторых государств. Так, недавно стало известно, что правительство США, которое регулярно предупреждает об опасностях дипфейков, параллельно открыто работает над созданием инструментов для использования технологии в военных целях. В России серьезно относятся к распространению подобных материалов, и к концу 2023 года в стране может появиться маркировка дипфейков. Такое предположение озвучил зампредседателя Комитета Госдумы по информационной политике, информтехнологиям и связи Антон Горелкин. Ранее о возможных проблемах, связанных с технологией, заявил вице-премьер Дмитрий Чернышенко. Он подчеркнул, что использование дипфейков без согласия самих людей недопустимо, и добавил, что технологии, помогающие распознать подмену, существуют. Еще одним направлением, которое развивается сейчас в мире, является подделка голоса с помощью искусственного интеллекта (ИИ). Так, на слушаниях по ИИ, прошедших в Сенате США, выступила мать двух девочек, одну из которых «виртуально похищали» мошенники. В качестве доказательства они использовали клонированный с помощью нейросети голос ребенка, и это далеко не единичный случай. В России зафиксирована еще одна новая схема мошенничества: злоумышленники подделывают аккаунты друзей пользователей в мессенджерах. Затем потенциальной жертве поступает сообщение от аккаунта с фотографией и личными данными знакомого ей человека с просьбой одолжить деньги. Информацию о подписчиках мошенники получают через доступные профили в соцсетях. Использование мессенджеров для незаконных действий также представляет собой своеобразный тренд, основанный на более легкой системе верификации, в отличие от социальных сетей. Фото: Lisa Forster / dpa / globallookpress.com

Преступный инструмент: как фейки становятся оружием в руках мошенников
© РИА "ФедералПресс"