
Нам давно советовали не верить всему, что публикуется в интернете, и это особенно актуально в эпоху генеративного ИИ. Появление мощных инструментов для создания видео значительно усложнило различение реальных материалов и фальсификаций.
Мобильное приложение Sora от крупной компании стало вирусным и по формату напоминает короткие видеоплатформы: весь контент в нём создаётся искусственным интеллектом. Встроенная функция «камео» позволяет вставлять внешность реальных людей в любые сцены, что даёт эффект очень правдоподобных роликов.
Технически ролики Sora часто обладают высоким разрешением, синхронизированным звуком и заметной креативностью, поэтому они выделяются на фоне некоторых аналогичных сервисов. Такая реалистичность повышает риск злоупотреблений и распространения вводящих в заблуждение материалов.
Инструменты, облегчающие создание deepfake‑видео, делают уязвимыми публичных лиц и знаменитостей. Профсоюзы и профессиональные объединения, включая актёрские союзы, призывают разработчиков усиливать защитные механизмы.
Один из визуальных признаков роликов, созданных в Sora, — водяной знак при скачивании: белый значок облака, который перемещается по краям видео. Такие пометки помогают быстро определить, что материал был сгенерирован с помощью ИИ.
Тем не менее водяные знаки не дают полной гарантии: статические знаки можно обрезать, а для подвижных существуют специальные инструменты удаления. Поэтому водяной знак стоит рассматривать лишь как один из признаков, а не как окончательное подтверждение.
Ещё один способ проверки — изучение метаданных файла. Метаданные содержат сведения о создании контента, включая дату, время и инструменты, и многие сервисы ИИ добавляют специальные учётные данные о происхождении по международным стандартам.
Разработчики Sora участвуют в инициативах по проверке происхождения контента, поэтому ролики из приложения обычно содержат такие учётные данные по стандарту C2PA. Для проверки можно воспользоваться публичными инструментами проверки подлинности: загрузите файл в верификатор, откройте его и посмотрите панель с информацией — в сводке обычно указывается, был ли материал сгенерирован ИИ.
Однако и этот метод не даёт стопроцентной уверенности. Если видео прошло дополнительную обработку в сторонних приложениях или было перекачано, сигналы в метаданных могли быть утрачены, а материалы, созданные другими моделями, не всегда помечаются автоматически.
Социальные платформы внедряют собственные метки для ИИ‑контента и правила раскрытия, но эти системы работают неидеально. Наиболее надёжный способ установить происхождение — когда сам автор явно указывает, что материал создан с помощью ИИ.
При просмотре роликов важно сохранять критическое мышление и не принимать всё за правду с первого взгляда. Обращайте внимание на искажённый текст, исчезающие объекты и нарушения физики; если что‑то кажется неправдоподобным, проверьте видео более тщательно.


Комментариев