Возможно, вы встречали рекламу одного из мобильных операторов, где на первый взгляд главную роль играет Брюс Уиллис. Однако стоит отметить, что сам Брюс Уиллис не участвовал в создании этого ролика. Загадка этого проекта заключается в применении передовой технологии, известной как "дипфейк".

Что такое дипфейк

Дипфейк (deepfake) — это технология, использующая искусственный интеллект для создания фальшивых видео или аудио, которые кажутся реальными, путём замены лица или голоса человека на основе анализа и синтеза данных.

Примеры использования

IMG_5106.jpg

Примеры использования в сфере рекламы показывают, насколько оперативно маркетологи оценили перспективы создания видео и фотографий без фактического участия актёров. Например, компания KFC приняла стратегическое решение предпочесть персонажа, сгенерированного нейросетью, реальному актёру. Интересным трендом стало возвращение персонажей из прошлого в настоящее. Например, Сбер успешно использовал образ Жоржа Милославского из советской комедии, погружая этого персонажа в современный контекст и вызывая у зрителей ностальгию. Ещё один кейс использования дипфейков — озвучка фильмов и сериалов на разных языках. Дипфейки помогают менять движения губ так, чтобы при дубляже не было рассинхронизации и закадровый голос всегда совпадал со словами героя. С использованием одной модели можно создавать видеоролики с различными характеристиками, такими как цвет кожи или язык общения, более точно соответствуя интересам и предпочтениям целевой аудитории.

Потенциальный вред дипфейков

Без названия.png

Технология дипфейка, несмотря на свою инновационность, несёт ряд потенциальных негативных последствий, включая:

  1. Незаконное использование лиц: Применение дипфейка в рекламе или фильмах без согласия личности, чьё лицо использовано, может нарушать авторские права и право на изображение. Это создаёт юридические проблемы и вызывает вопросы в сфере этики использования технологии.
  2. Мошенничество: Использование дипфейка в мошеннических целях представляет серьёзную угрозу. Например, компании могут столкнуться с финансовыми потерями, если кто-то использует дипфейк, чтобы выдать себя за руководителя и дать поддельные указания о переводе средств. В 2018 году злоумышленники создали дипфейк с бывшим президентом США Бараком Обамой, в котором он оскорбляет нового президента Дональда Трампа. Ролик стал вирусным и быстро разлетелся по соцсетям — люди возмущались, пока не поняли, что это дипфейк.
  3. Шантаж: Злоумышленники могут использовать дипфейк для создания фальшивых порнороликов и прочего непотребства, заменяя лица актёров на лица реальных людей. После этого они могут вымогать деньги, угрожая разглашением компрометирующего материала, что может серьёзно повредить репутацию жертвы.

Потенциальное будущее технологии

С течением времени технология дипфейка, вероятно, станет более широко распространённой. Актёры, возможно, найдут новые источники дохода, предоставляя лицензии на использование своих образов. С другой стороны, рекламные агентства могут существенно сократить расходы на производство видеороликов, воспользовавшись лицензированием изображений.

Области использования дипфейков

IMG_5105.jpg

Технология дипфейк находит применение в различных областях и среди различных пользовательских групп:

  1. Реклама: Дипфейк широко используется в рекламной индустрии для создания видеороликов без привлечения реальных знаменитостей.
  2. Приложения для создания сторис: Обычные пользователи могут использовать дипфейк для вставки своего лица в готовые изображения, создавая уникальные сторис в социальных сетях.
  3. Анимация изображений: Технология дипфейк может служить инструментом для создания простых анимаций из статичных изображений.
  4. Астрофизика: Дипфейк применяется в астрофизике для улучшения качества фотографий далеких космических объектов.
  5. Кино: В киноиндустрии технология используется для экономии на актёрах и позволяет воссоздавать образы уже ушедших актёров или осуществлять эффектное омоложение.

Как распознать дипфейк

Распознавание дипфейков может представлять собой сложную задачу, однако внимательный наблюдатель может выявить несколько признаков, которые могут указывать на искусственную обработку видеоматериала:

  • Странные движения губ и глаз: Губы могут двигаться несоответственно произносимым словам, а глаза могут мигать неестественно или в неподходящие моменты.
  • Дергание объектов: Видео может создавать впечатление, что объекты или лица в нём резко дергаются в сторону.
  • Глаза разного цвета: Ошибки в обучении генератора и дискриминатора могут привести к тому, что цвета глаз различаются.
  • Отсутствие бликов в глазах и на зубах: Дипфейк может не передавать естественные блики в глазах или на зубах.
  • Тени и размытие: При использовании слабого оборудования для генерации могут появляться неестественные тени на лице или общее размытие изображения.

Заключение

Дипфейк предоставляет возможность создавать видеоролики и фотографии с использованием лица человека, даже без его фактического участия в съёмке. Эта технология открывает новые горизонты в области производства контента и рекламы, предоставляя более гибкие и эффективные варианты создания мультимедийных материалов. Однако важно учитывать потенциальные риски, связанные с использованием дипфейка в мошеннических целях. Для использования изображения человека в дипфейке необходимо получить его разрешение, чтобы избежать нарушения личных прав и обеспечить соблюдение приватности.

#Видео#OpenAI#Этика#Аудио#Тренды