Sora 2 от OpenAI делает дезинформацию невероятно простой и реальной
Новое приложение на базе искусственного интеллекта (ИИ) показывает видеоролики ограблений магазинов и домов, записи с нательных камер полицейских, взрывы бомб на улицах и транспорте. Однако ничего из этого на самом деле не происходило.
Sora by OpenAI на базе нейросети Sora 2 позволяет создать практически любое видео с помощью простой отправки текстового сообщения. Пользователи также могут загружать свои изображения, позволяя использовать свой образ и голос в воображаемых сценах. Приложение может интегрировать в видеоряд некоторых вымышленных персонажей, логотипы компаний и даже имена умерших знаменитостей.
Лента приложения полна видеороликов с персонажами, защищенными авторскими правами, из таких мультсериалов, как "Губка Боб Квадратные Штаны", "Южный Парк" и "Рик и Морти". Приложение без проблем сгенерировало видео, где Пикачу повышает пошлины на товары из Китая, крадет розы из розария Белого дома или участвует в протесте Black Lives Matter вместе со Спанч Бобом, который в другом видео планирует и объявляет войну США.
По мнению экспертов, Sora, а также Veo 3 от Google и другие подобные инструменты могут постепенно стать благоприятной средой для распространения дезинформации. Хотя опасения по поводу способности ИИ создавать вводящий в заблуждение контент неуклонно растут в последние годы и все выше риск откровенных фальсификаций, успехи Sora подчеркивают, насколько проще создавать такой контент и насколько он стал убедительнее.
Все более реалистичные видеоролики с большой вероятностью приведут к последствиям в реальном мире: обострят социальные конфликты, станут инструментом для обмана потребителей, начнут влиять на результаты выборов, а людей будут обвинять в преступлениях, которых они не совершали.
Компания OpenAI заявила, что выпустила приложение после "тщательного тестирования на безопасность". "Наши правила использования запрещают вводить других в заблуждение посредством выдачи себя за другое лицо, мошенничества или обмана, и мы принимаем меры при обнаружении случаев неправомерного использования", - говорится в заявлении компании.
Однако никакие меры предосторожности не могут быть абсолютно надежными, тем более что OpenAI планирует предоставлять на коммерческих условиях доступ к API Sora 2 сторонним разработчикам. Это означает, что разработчики других приложений и сервисов смогут интегрировать Sora 2 в свои продукты, что, безусловно, ослабит контроль над использованием новой нейросети.
Приложение Sora, доступ к которому в настоящее время возможен только по приглашению и только в США и Канаде, не требует подтверждения учетной записи. То есть в нем можно зарегистрироваться, используя чужое имя и изображение профиля.
В ходе тестов, проведенных пользователями, Sora отклонила попытки создания образов, созданных искусственным интеллектом, с использованием видео известных людей. Однако приложение может создавать контент с участием детей, а также давно умерших публичных личностей.
До недавнего времени видеозаписи считались достаточно надежным доказательством самого факта реальных событий, даже после того как стало легко генерировать фотографии, придавая им реалистичный вид. Однако, по словам экспертов, высокое качество видео Sora повышает риск того, что зрители потеряют всякое доверие к увиденному.
Видео Sora содержат движущийся watermark, указывающий на то, что это видео сгенерировано ИИ, однако знак можно удалить, приложив некоторые усилия. Эксперты отмечают, что короткие видео, как, к примеру, в TikTok, способствуют быстрому формированию впечатлений без тщательной проверки фактов.
Приложение способно генерировать видеоролики, способствующие распространению любых нарративов и представлению фиктивных доказательств, подтверждающих теории заговора, указывающих на причастность невинных людей к преступлениям или нагнетающих напряженность
Хотя приложение отказывается создавать изображения насилия, оно демонстрирует ограбления магазинов и кадры вторжений в дома, якобы снятые камерами дверных звонков.
Так, один из разработчиков Sora опубликовал видео из приложения, на котором Сэм Альтман, генеральный директор OpenAI, совершает кражу в магазине Target.
"Технологии генеративного искусственного интеллекта развиваются с огромной скоростью, постоянно выходят новые модели, создающие все более реалистичный контент, будь то изображения, видео или аудио. К сожалению, надежного способа отличить сгенерированное видео или голос (от Sora 2 или другой модели) на данный момент не существует", - говорит руководитель отдела исследований и разработки технологий машинного обучения "Лаборатории Касперского" Дмитрий Аникин.
Количество создаваемых дипфейков растет во всем мире, включая Россию. "С октября 2024 года количество уникальных дипфейков в России ежеквартально увеличивается примерно в 1,5-2 раза. Это связано в том числе с качественным прогрессом нейросетей по генерации видео", - отмечает начальник управления по противодействию недостоверной информации АНО "Диалог Регионы" Сергей Маклаков.
Также, по данным организации, с начала 2025 года в Рунете выявлено в 4,1 раза больше подобных видео, чем за весь 2024 год, а сентябрь 2025 года стал рекордным по числу опубликованных дипфейков - 65 видео. Причем наибольшее число видеофейков создается от лица глав российских регионов - они составляют 79% всех выявленных дипфейков.
"Сгенерированный контент может использоваться для шантажа, дезинформации и мошенничества, поэтому важно подходить к информации в интернете со здоровым скепсисом. Также стоит не забывать и про базовую кибергигиену: использовать сложные пароли, не оставлять персональные данные на недостоверных источниках, подключить двухфакторную аутентификацию", - отмечает Аникин.