Top.Mail.Ru
  • Новинки
  • Эксклюзив
  • Хиты продаж
  • Акции
  • Сделано Apple
  • Рекомендуем
  • Novelizer
  • Для взрослых
  • Борьба с огнём
  • PREMIUM товары
  • Поиск по тегам
  • Статьи iG-Life

Генератор видео Sora от OpenAI под огнём: расследования о дипфейках и угрозах

Обновлено 13.10.2025 в 10:00
3 октября 2025
Юрий Попович

Запуск нового генератора видео от OpenAI обещал стать прорывом. Но всего за пару дней после релиза Sora оказалась в центре острой дискуссии. Приложение, стартовавшее в США и Канаде в конце сентября 2025 года, быстро поднялось в топы App Store. СМИ, эксперты и пользователи обсуждают не столько красоту роликов, сколько риск того, что технология сделает подмену лиц и «виртуальные инсценировки» массовыми и почти неотличимыми от реальности.

Расследования СМИ: реальные примеры угроз и спорные кейсы

Первым ударом стали публикации крупных западных изданий, в том числе The Washington Post, где подчёркивалось: Sora «сделает такую путаницу более вероятной» в контексте смешения реальности и фейка. Журналисты собрали примеры, где генераторы видео уже используются для дезинформации: поддельные ролики политиков, фейковые обращения, имитация новостных сюжетов. Так, например, недавно в сети появилось ироничное видео, на котором генерального директора OpenAI Сэма Альтмана задерживает охрана при попытке украсть видеокарту из магазина. При этом даже при более безобидном применении Sora умудряется натворить бед, например, активно нарушает авторские права, создавая ролики с реалистичными персонажами, защищенными авторским правом.

Как мы видим, опасность заключается в том, что с инструментами вроде Sora качество видео выходит на новый уровень — глаз обычного пользователя не отличит правду от подделки. В первые часы после запуска пользователи уже публиковали реалистичные фейки — от «записей» с полицейских бодикамер до пародий с историческими фигурами, а также находили способы обходить защиту.

Что говорит OpenAI: официальные меры безопасности

В ответ на волну публикаций OpenAI выпустила заявление о «ответственном запуске Sora». Компания утверждает: «Каждое видео, созданное с помощью Sora, содержит как видимые, так и невидимые сигналы происхождения». Речь идёт о водяных знаках и встроенных метаданных C2PA, которые позволяют отслеживать происхождение контента. Кроме того, действует механизм “cameo”: пользователь может управлять собственным обликом, а изображения публичных персон блокируются по умолчанию . OpenAI подчёркивает также модель opt-out для правообладателей: защищённых персонажей компания готова блокировать по запросам . Однако критики считают эти меры недостаточными и указывают, что злоумышленники находят лазейки быстрее, чем разработчики их закрывают.

Эксперты и скептики: опасения индустрии

Специалисты по кибербезопасности напоминают: сама идея генерации видео на основе текста несёт риски манипуляции. По словам Бена Коулмана из Reality Defender, «она делает проблему экспоненциально больше: потому что доступна каждому и очень хороша». Скептики задаются вопросом: можно ли доверять платформам, если они сами заинтересованы в росте популярности продукта и не имеют времени на полноценные проверки?

Дипфейки и будущее: как Sora поднимает старые страхи

История дипфейков началась задолго до Sora — от первых поддельных видео с актёрами до скандалов в политике. Но именно массовое внедрение генераторов с «человеческим качеством» картинки делает угрозу глобальной. Один из вирусных кейсов — ранее упомянутые дипфейк-ролики с участием главы OpenAI Сэма Олтмана, которые моментально разошлись по соцсетям. Эксперты отмечают, что вопрос этики выходит на первый план: опасность не только в манипуляции, но и в разрушении доверия к любым видео как к формату. Если зритель не верит глазам, рушится сама основа коммуникации.

Чего ждать дальше: регулирование, ограничения или успех

Сегодня вопрос стоит не только о судьбе самого продукта Sora, но и о том, как индустрия и государства будут реагировать на новые вызовы. OpenAI же утверждает, что пользователи «стремятся общаться со своей семьей и друзьями… а также с историями, персонажами и мирами, которые им нравятся». Возможны сценарии: ужесточение регулирования, создание международных стандартов маркировки видео или же быстрое привыкание пользователей к «новой нормальности». Интрига остаётся: будет ли Sora прорывом, который изменит индустрию развлечений и образования, или поводом для введения первых серьёзных ограничений в истории ИИ-видео.

В тренде 🔥
Windows 10 уходит завтра: миллионы компьютеров останутся без защиты
Завтра заканчивается целая эпоха — Windows 10, операционная система, с которой многие начали свой цифровой путь.
Генетика встречает ИИ: нейросеть из России раскрывает тайны ДНК
Нейросеть, разработанная в России, способна считывать код ДНК. В теории, это поможет в лечении серьезных заболеваний.
Геомагнитная буря накрыла Землю: почему всё спокойно, но техника может сбиться
Ночь перед бурей выдалась обманчиво тихой. Никаких сияний, ни вспышек на небе — будто само Солнце решило сделать паузу.
Россия побила рекорд по продажам планшетов — а в мире спрос падает
Парадокс года: Россия в росте, мир в спаде
Android 16 пришёл на Galaxy S23: фишки, о которых мало кто знает
Android 16 наконец доступен на Galaxy 23. Рассказываем о самых интересных фишках обновления.
Бот Роскомнадзора стал админом Telegram-каналов: контроль изнутри
С 4 октября 2025 года Telegram в России перестал быть прежним
Можно ли платить новым смарт-кольцом от Сбера: разбираемся в вопросе
Смарт-кольцо от Сбера буквально взорвало СМИ. Об основных функциях устройства сказано многое, но можно ли им оплачивать покупки?
Въехал в Россию — и интернет пропал: что происходит с иностранными SIM
Пропажа связи сразу после границы — массовая неожиданность
Ai-функции Apple Intelligence в iOS 26: как включить в РФ и что ограничено?
К сожалению, Ai-функции в новом iOS 26 ограничены для россиян. Как же решить эту проблему?
РЖД открыли продажи новогодних поездов: где ещё остались билеты
Встречаем Новый год на рельсах: почему это стало традицией
Хотите видеть меньше сообщений? Зарегистрируйтесь или войдите в аккаунт