Подмена лиц с помощью нейросетей: стоит ли опасаться?

Подмена лиц с помощью нейросетей: стоит ли опасаться?

Совсем недавно подменой лиц на фото и видео занимались профессионалы, выверяя и редактируя каждую деталь. Сейчас практически каждый обыватель может легко изменить лицо человека с помощью нейросетей, просто скачав программу FakeApp из интернета. Опасны ли для нас, обычных граждан, такие технологии?

Несколько дней назад руководитель лаборатории в Дартмутском колледже в США, профессор Хани Фарид, в интервью британскому изданию CBS News рассказал, что ролики с фальшивыми лицами разных глав государства могут стать причиной будущей ядерной войны. В доказательство к своим словам ученый привел в пример возможность появления видео, которое содержит в себе объявление президента о запуске ядерной ракеты. В таком случае страна, которой угрожает «первое лицо» на ролике, должна тут же ответить своей ракетой, посланной в сторону противника. Такой сценарий грозит человечеству новой ядерной войной.

Программа, с помощью которой возможно создание таких видео, называется FakeApp и выпущена пользователем Reddit с ником Deepfakes 26 января 2018 года. После этого события сеть наполнилась разнообразными роликами с измененными лицами. Особенно популярными оказались видео непристойного содержания «с участием» знаменитых голливудских актрис.

Можно ли распознать фальсификацию лица на видео?

Мы попросили экспертов прокомментировать ситуацию и выяснили, что большинство опрошенных едины во мнении: технологии, в которых применяются нейросети, еще не умеют качественно заменять реальность, подделку всегда видно невооруженным глазом.

Человека, который не знаком с технологией нейросетей, обмануть подменой лиц можно. В этом уверен Илья Якидими, основатель и директор компании «Защитный модуль»: «Если делать ставку на невежество населения — то да, можно кого-то шантажировать, предоставлять так называемые «доказательства», портить репутацию».

Но также эксперты отвечают, что пока бояться слишком реалистичных фейков рано.

Андрей Беляев, главный эксперт по компьютерному зрению в в Neurodata Lab, комментирует: «Большинство алгоритмов сейчас работают в «идеальной» модели мира — без помех, шумов, теней. Если алгоритму, который заменяет лица, дать обработать фотографию с лицом в очках, или с маленьким лицом, или фотографАндрей Беляевию, сделанную во время дождя — он не справится, и даже если подменит лица, то невооруженным взглядом будет видна синтетичность фотографии. Существующим технологиям очень далеко до работы в реальных условиях». Также он считает, что работа нейросетей по замене лиц на фото и видео ничем не отличается от «ручной работы мастера», поэтому «возможностей распознать нейрофальсификацию ровно столько же, сколько и возможностей распознать фальсификацию ручную».

С ним согласен Владимир Тушканов, Junior Data Scientist в «Лаборатории Касперского». Он считает, что «распознать подделку по смазанным или прыгающим фрагментам кадра все еще несложно». Но даже несмотря на это, эксперт предупреждает, что опасность использования нейросетей для изменения лиц в быту существует: «Куда страшнее то, что она может запустить новый виток кибербуллинга — когда «героями» фейковых видео становятся простые люди (например, школьники), а видео распространяется среди друзей и знакомых: это чревато тяжелыми психологическими последствиями вне зависимости от качества подделки».

Чем грозит подмена лиц в жизни?

Говоря об ответственности, которая может наступить при использовании замены лиц с помощью нейросетей, нужно понимать, какую цель преследует человек. Если она безобидна, то вероятность получить наказание за свои действия крайне мала. Но существует и ряд случаев, в которых законом РФ они предусмотрены. Перечислим некоторые из них:

  • Если вы увидели выложенные в сеть фотографии или видеоматериалы, которые носят оскорбительный характер, то вправе обратиться в суд. Например, ваше лицо использовали для создания материалов непристойного содержания. За оскорбление будет назначен административный штраф от 1 до 3 тысяч рублей (КоАП РФ Статья 5.61).
  • Если против вас сфальсифицированы доказательства по уголовному делу в суде, то самое меньшее наказание, которое может получить автор этих материалов — это штраф от 104 до 300 тысяч рублей. Самое большее — арест на срок до четырех месяцев. Фальсификация доказательств по уголовному делу о тяжком или об особо тяжком преступлении карается лишением свободы на срок до 7 лет (УК РФ Статья 303).

Также нужно знать, что если вы или ваш ребенок подверглись кибербуллингу с помощью замены лиц через нейросети, то нужно действовать так:

  • Сделать скриншот видео или фото.
  • Заверить распечатанный на бумаге скриншот у нотариуса для подтверждения факта травли.
  • Подать в суд на основании этого документа, чтобы потребовать с обидчика компенсацию морально вреда.

Читайте также:

Теги видео
Рекомендуем