
Новая система OpenAI под названием Sora демонстрирует, насколько реалистично современные алгоритмы могут воссоздавать вымысел. Платформа для видео на базе модели Sora 2 способна генерировать детализированные ролики с участием известных людей и охраняемых авторским правом персонажей, таких как SpongeBob и Pikachu, в том числе содержащие оскорбительные или вредоносные сценки.
Пользователи, добровольно предоставившие свои фотографии для приложения, обнаруживали себя в роликах с расистскими высказываниями или использованными в аккаунтах с сексуальным контентом. Такие случаи показывают, что согласие на загрузку изображения не защищает от последующего злоупотребления его цифровыми копиями.
В Sora очевидно одно: увиденное или услышанное в видео не всегда соответствует реальности. При этом синтетический контент легко распространяется в социальных сетях, и за пределами приложения у зрителя часто нет надёжных способов подтвердить подлинность материала.
Сильное подражание создаёт риск обмана и указывает на провалы в системах маркировки контента. Одним из ключевых подходов к решению этой проблемы является стандарт C2PA — Content Credentials, разработанный для отличия подлинных изображений и видео от синтетических материалов, созданных ИИ.
По словам представителя Adobe по аутентичности контента, наблюдается существенный прогресс в принятии Content Credentials и активное сотрудничество участников отрасли для повышения прозрачности онлайн-контента. Тем не менее реальная визуальная маркировка таких материалов остаётся недостаточной.
Теоретически C2PA поддерживают такие игроки, как Adobe, OpenAI, Google, YouTube, Meta, TikTok, Amazon и Cloudflare, а также государственные структуры. На практике лишь немногие платформы последовательно используют этот стандарт для явной идентификации deepfake‑видео.
Meta продолжает внедрять и тестировать подходы к маркировке в контексте развития ИИ. OpenAI ограничивается поясняющими материалами о поддержке C2PA, а X (бывший Twitter) объявляет политику против вводящего в заблуждение медиа, но не публикует подробностей модерации. Adobe подтверждает приверженность расширению внедрения Content Credentials.
Несмотря на обещания, прогресс кажется едва заметным. Журналистский опыт показывает: хотя большинство роликов, созданных Sora и Sora 2, сопровождаются метаданными Content Credentials, видимая маркировка на платформах практически отсутствует, а на других площадках отметки «создано ИИ» встречаются редко или не содержат полного протокола создания.
В отрасли приводят примеры вирусных видео с размытыми или отсутствующими отметками происхождения: один случай на TikTok с записью закрытой камеры наблюдения, где мужчина якобы ловит падающего ребёнка, собрал почти миллион просмотров, при этом водяной знак Sora либо размывается, либо отсутствует. Такие инциденты демонстрируют ненадёжность текущих механизмов маркировки.
Проверить наличие метаданных C2PA можно, сохранив файл и использовав специализированные инструменты или расширения браузера, отображающие указатель происхождения. Также существуют системы проверки провенанса, например SynthID от Google, но их использование не всегда удобно и недоступно широкому кругу пользователей.
У Content Credentials есть преимущества: они способны сохранять авторство при создании скриншотов или повторном использовании материалов. Дополнительные инструменты, такие как системы-инференсы (пример — Reality Defender), оценивают вероятность того, что контент создан или отредактирован с помощью ИИ, обнаруживая скрытые признаки синтетического происхождения.
Эксперты предупреждают, что опираться только на метаданные нельзя: их можно удалить, а водяные знаки — обойти. Необходима комплексная стратегия, объединяющая провенанс, водяные метки и более надёжные методы верификации. Многие компании, включая Adobe и некоторые платформы видео‑хостинга, поддерживают также законодательные инициативы, направленные на защиту создателей от незаконного воспроизведения и злоупотреблений цифровыми копиями.
Специалисты подчёркивают необходимость тесного сотрудничества регуляторов и технологических компаний для разработки проактивных решений, снижающих риски, связанные с deepfake. Глубокие подделки влияют на общество в целом, и в ближайшие годы, по мнению экспертов, требуются как технологические, так и правовые меры для управления распространением контента, сгенерированного ИИ.

Комментариев