Фальшивая реальность: как работает программа замены лиц

Приложение Face Swap — это веселое развлечение: всего один клик — и ваше собственное лицо уже красуется вместо лица друга, кинозвезды или персонажа. Даже Facebook, Yahoo! и Microsoft предлагают собственные программы для замены лица в один клик. Но новое ПО Deepfakes еще больше усугубляет и без того напряженную ситуацию с достоверностью и правовым статусом личности в Интернете.

В начале января пользователь Reddit/u/deepfakes выпустил программное обеспечение, с помощью которого даже непрофессионал может заменить лицо в видео. Результат кажется обманчиво реальным: новое лицо сливается с головой оригинала и образует достаточно правдоподобный гибрид. Фейк перенимает даже мимику оригинала.

Пересадка лица с препятствиями

На основании двух исходных видео FakeApp рассчитывает оптимальное размытие для двух лиц. Процесс длится часами
На основании двух исходных видео FakeApp рассчитывает оптимальное размытие для двух лиц. Процесс длится часами

Все, что требуется, — это два видео: одно с «донором» лица, а другое с «реципиентом»; в обоих видео соответствующие лица должны быть четко видны. Замена лиц сопровождается некоторыми техническими сложностями. Программа работает только на компьютерах на базе операционной системы Windows и с видеокартой NVIDIA (наиболее поздней и мощной модели), а воспользоваться ПО и попробовать себя в пересадке лица может тот, у кого есть достаточно терпения, чтобы следовать пространным инструкциям на YouTube, имеется несколько часов времени и умение справляться с разочарованием.

И, конечно же, чаще всего такие эксперименты начинаются с порно. После того как лица известных голливудских актрис были пересажены с помощью FakeApp на головы звезд эротического жанра, это развлечение для «ботаников» стало очень популярным. Но что же станет с реальностью, если ее так легко подделать?

И тут есть о чем задуматься: уже несколько лет научно-исследовательские группы работают над программным обеспечением, которое позволит свободно изменять не только изображения и видео, но также голосовые и звуковые записи. В конце ноября компания Adobe представила свою программу Voco, с помощью которой можно переписывать, сокращать, копировать и даже дополнять новым текстом речь — и все это с сохранением оригинального голоса. Так что есть основания опасаться, что в сочетании с приложениями перестановки лиц могут быть созданы такие видео, где реальными людьми будут манипулировать словно говорящими куклами.

Фейковые новости и «альтернативные» факты подтверждают, что эти опасения стоит рассматривать как тревожный сигнал о том, что уже давно начался процесс потери достоверности информации. И можно верить прогнозу Google о том, что такое понятие, как Deepfake (образованное от Deep learning — машинное обучение с применением нейросетей и fake — подделка), находится в процессе стремительного развития.

Правдивая история о лжи

В 2016 году научно-исследовательская группа из Германии продемонстрировала, как в реальном времени можно перенести мимику одного человека на лицо другого
В 2016 году научно-исследовательская группа из Германии продемонстрировала, как в реальном времени можно перенести мимику одного человека на лицо другого

Здесь стоит упомянуть три вещи: во-первых, хотя видео, созданные с помощью приложения FakeApp, впечатляют, до полной убедительности им пока далеко. Видео могут обмануть зрителя, только если просматривать их в формате нечеткой GIF-анимации или в низком разрешении на YouTube. К тому же на исходном видео должно быть хорошее освещение, и должны быть видны только отдельные лица с ограниченной мимикой и, прежде всего, без резких движений. Такой фейк можно рассматривать скорее как трюк, который исполняется только в определенных условиях.

То, что замена была настолько успешно испытана именно в случае с порновидео, объясняется не только тягой к вуайеризму, но и эстетическими особенностями производства порнофильмов: ярко освещенные лица актрис с кукольным гримом хорошо подходят для таких экспериментов.

Во-вторых, создать подобное видео не так просто. Если искать видео на deepfake-форумах (уже удаленных), в основном можно найти лишь неудачные попытки подделок и массу вопросов с просьбами о помощи: почему мой фейк так плох? Для создания фейка длительностью в несколько секунд необходимо потратить много часов на освоение алгоритма.

Отдельные кадры в тренировочном материале могут повлиять на весь результат. И независимо от того, насколько хороши условия, в конечном счете у зрителя всегда остается ощущение «здесь что-то не так» — типичный признак симуляции реальности, которая хоть и хороша, но недостаточно.

Третье и, пожалуй, самое главное: манипуляции с изображениями, в том числе и движущимися изображениями, и даже сделанные непрофессионалами, не являются чем-то новым. Фальсификации и инсценировки существовали с самого начала развития фотографии. Одна из первых известных манипуляций с изображениями как раз заключалась в схожей пересадке головы Авраама Линкольна на тело Джона К. Кэлхона – монтаж, с помощью которого Линкольн должен был выглядеть красивее, чем был на самом деле. Изображения не отражают реальность, а только дают представления о ней.

«Что всегда проявляется на изображении, — пишет культуролог Гельмут Летен в своем удостоенном наград эссе «Тень фотографа», — вызывает скепсис относительно того, не является ли то, что мы видим, лишь подделкой, инсценировкой или, по меньшей мере, модифицированной формой действительности».

Ложь, кажущаяся правдой, или правда, кажущаяся ложью, — это даже не побочный аспект фотографии, но одна из ее постоянных величин: в фотографии и кино всегда ведется игра с визуализацией и притворством — здесь реализм постоянно будет являться ложью. И именно это делает подобное искусство настолько захватывающим.

Когда картинки научились лгать

Это неприятное чувство только усиливается с развитием цифровой фотографии. То, что воспроизводится в файле изображения, является в высшей степени искусственным продуктом: артефакт алгоритмической интерпретации реальности, следствие технически сложного отбора с учетом психологии восприятия, когда устройство должно интерпретировать и выводить потоки данных. Парадоксальным образом в эпоху массового производства изображений растет и ожидание того, что на фотографиях и в кино отражается все более реалистичная действительность: если создание изображений стало повсеместным, не будет ли и мир отражен все точнее и правдивее?

С Deepfakes и такими приложениями, как Voco, возникает вопрос: каким изображениям еще можно доверять, а каким нет?  Но эта ситуация не является исключительной, ведь конфликт возникает снова и снова, когда появляются новые формы для отражения себя и окружающего мира. И тогда, как и в случае с другими техническими инновациями, возникают социальные вопросы, связанные с новыми возможностями.

Поскольку машинная обработка изображения оставляет следы, будут появляться новые технологии, которые помогут различить действительное и фальшивое. Намного сильнее, чем когда-либо, получат развитие новые методы восприятия, как и в случае с новыми технологиями записи и редактирования изображения и звука.

И даже несмотря на нынешние горячие дискуссии о потенциальных возможностях фальсификации появляется достаточно возможностей для творческого самовыражения. К этому относится и FakeApp, ведь это просто фантастическая игрушка. И следствием ее появления станет не потеря реальности, а ее укрепление.

Читайте также:

Фото: Wikimedia/DPA/Picture Alliance/Douliery Olivier/ABACA; TUM Visual Computing Group/www.niessnerlab.org

ПОДЕЛИТЬСЯ


Предыдущая статьяМикро-компьютер габаритами всего 12х12 см почти в 2 раза мощнее MacBook Pro 13
Следующая статьяASUS представила невероятно крутой игровой смартфон ROG Phone
КОММЕНТАРИИ


Загрузка...