Запуск нового генератора видео от OpenAI обещал стать прорывом. Но всего за пару дней после релиза Sora оказалась в центре острой дискуссии. Приложение, стартовавшее в США и Канаде в конце сентября 2025 года, быстро поднялось в топы App Store. СМИ, эксперты и пользователи обсуждают не столько красоту роликов, сколько риск того, что технология сделает подмену лиц и «виртуальные инсценировки» массовыми и почти неотличимыми от реальности.
Первым ударом стали публикации крупных западных изданий, в том числе The Washington Post, где подчёркивалось: Sora «сделает такую путаницу более вероятной» в контексте смешения реальности и фейка. Журналисты собрали примеры, где генераторы видео уже используются для дезинформации: поддельные ролики политиков, фейковые обращения, имитация новостных сюжетов. Так, например, недавно в сети появилось ироничное видео, на котором генерального директора OpenAI Сэма Альтмана задерживает охрана при попытке украсть видеокарту из магазина. При этом даже при более безобидном применении Sora умудряется натворить бед, например, активно нарушает авторские права, создавая ролики с реалистичными персонажами, защищенными авторским правом.
Как мы видим, опасность заключается в том, что с инструментами вроде Sora качество видео выходит на новый уровень — глаз обычного пользователя не отличит правду от подделки. В первые часы после запуска пользователи уже публиковали реалистичные фейки — от «записей» с полицейских бодикамер до пародий с историческими фигурами, а также находили способы обходить защиту.
В ответ на волну публикаций OpenAI выпустила заявление о «ответственном запуске Sora». Компания утверждает: «Каждое видео, созданное с помощью Sora, содержит как видимые, так и невидимые сигналы происхождения». Речь идёт о водяных знаках и встроенных метаданных C2PA, которые позволяют отслеживать происхождение контента. Кроме того, действует механизм “cameo”: пользователь может управлять собственным обликом, а изображения публичных персон блокируются по умолчанию . OpenAI подчёркивает также модель opt-out для правообладателей: защищённых персонажей компания готова блокировать по запросам . Однако критики считают эти меры недостаточными и указывают, что злоумышленники находят лазейки быстрее, чем разработчики их закрывают.
Специалисты по кибербезопасности напоминают: сама идея генерации видео на основе текста несёт риски манипуляции. По словам Бена Коулмана из Reality Defender, «она делает проблему экспоненциально больше: потому что доступна каждому и очень хороша». Скептики задаются вопросом: можно ли доверять платформам, если они сами заинтересованы в росте популярности продукта и не имеют времени на полноценные проверки?
История дипфейков началась задолго до Sora — от первых поддельных видео с актёрами до скандалов в политике. Но именно массовое внедрение генераторов с «человеческим качеством» картинки делает угрозу глобальной. Один из вирусных кейсов — ранее упомянутые дипфейк-ролики с участием главы OpenAI Сэма Олтмана, которые моментально разошлись по соцсетям. Эксперты отмечают, что вопрос этики выходит на первый план: опасность не только в манипуляции, но и в разрушении доверия к любым видео как к формату. Если зритель не верит глазам, рушится сама основа коммуникации.
Сегодня вопрос стоит не только о судьбе самого продукта Sora, но и о том, как индустрия и государства будут реагировать на новые вызовы. OpenAI же утверждает, что пользователи «стремятся общаться со своей семьей и друзьями… а также с историями, персонажами и мирами, которые им нравятся». Возможны сценарии: ужесточение регулирования, создание международных стандартов маркировки видео или же быстрое привыкание пользователей к «новой нормальности». Интрига остаётся: будет ли Sora прорывом, который изменит индустрию развлечений и образования, или поводом для введения первых серьёзных ограничений в истории ИИ-видео.