Подмена лиц с помощью нейросетей: стоит ли опасаться?
Совсем недавно подменой лиц на фото и видео занимались профессионалы, выверяя и редактируя каждую деталь. Сейчас практически каждый обыватель может легко изменить лицо человека с помощью нейросетей, просто скачав программу FakeApp из интернета. Опасны ли для нас, обычных граждан, такие технологии?
Несколько дней назад руководитель лаборатории в Дартмутском колледже в США, профессор Хани Фарид, в интервью британскому изданию CBS News рассказал, что ролики с фальшивыми лицами разных глав государства могут стать причиной будущей ядерной войны. В доказательство к своим словам ученый привел в пример возможность появления видео, которое содержит в себе объявление президента о запуске ядерной ракеты. В таком случае страна, которой угрожает «первое лицо» на ролике, должна тут же ответить своей ракетой, посланной в сторону противника. Такой сценарий грозит человечеству новой ядерной войной.
Программа, с помощью которой возможно создание таких видео, называется FakeApp и выпущена пользователем Reddit с ником Deepfakes 26 января 2018 года. После этого события сеть наполнилась разнообразными роликами с измененными лицами. Особенно популярными оказались видео непристойного содержания «с участием» знаменитых голливудских актрис.
Можно ли распознать фальсификацию лица на видео?
Мы попросили экспертов прокомментировать ситуацию и выяснили, что большинство опрошенных едины во мнении: технологии, в которых применяются нейросети, еще не умеют качественно заменять реальность, подделку всегда видно невооруженным глазом.
Человека, который не знаком с технологией нейросетей, обмануть подменой лиц можно. В этом уверен Илья Якидими, основатель и директор компании «Защитный модуль»: «Если делать ставку на невежество населения — то да, можно кого-то шантажировать, предоставлять так называемые «доказательства», портить репутацию».
Но также эксперты отвечают, что пока бояться слишком реалистичных фейков рано.
Андрей Беляев, главный эксперт по компьютерному зрению в в Neurodata Lab, комментирует: «Большинство алгоритмов сейчас работают в «идеальной» модели мира — без помех, шумов, теней. Если алгоритму, который заменяет лица, дать обработать фотографию с лицом в очках, или с маленьким лицом, или фотографию, сделанную во время дождя — он не справится, и даже если подменит лица, то невооруженным взглядом будет видна синтетичность фотографии. Существующим технологиям очень далеко до работы в реальных условиях». Также он считает, что работа нейросетей по замене лиц на фото и видео ничем не отличается от «ручной работы мастера», поэтому «возможностей распознать нейрофальсификацию ровно столько же, сколько и возможностей распознать фальсификацию ручную».
С ним согласен Владимир Тушканов, Junior Data Scientist в «Лаборатории Касперского». Он считает, что «распознать подделку по смазанным или прыгающим фрагментам кадра все еще несложно». Но даже несмотря на это, эксперт предупреждает, что опасность использования нейросетей для изменения лиц в быту существует: «Куда страшнее то, что она может запустить новый виток кибербуллинга — когда «героями» фейковых видео становятся простые люди (например, школьники), а видео распространяется среди друзей и знакомых: это чревато тяжелыми психологическими последствиями вне зависимости от качества подделки».
Чем грозит подмена лиц в жизни?
Говоря об ответственности, которая может наступить при использовании замены лиц с помощью нейросетей, нужно понимать, какую цель преследует человек. Если она безобидна, то вероятность получить наказание за свои действия крайне мала. Но существует и ряд случаев, в которых законом РФ они предусмотрены. Перечислим некоторые из них:
- Если вы увидели выложенные в сеть фотографии или видеоматериалы, которые носят оскорбительный характер, то вправе обратиться в суд. Например, ваше лицо использовали для создания материалов непристойного содержания. За оскорбление будет назначен административный штраф от 1 до 3 тысяч рублей (КоАП РФ Статья 5.61).
- Если против вас сфальсифицированы доказательства по уголовному делу в суде, то самое меньшее наказание, которое может получить автор этих материалов — это штраф от 104 до 300 тысяч рублей. Самое большее — арест на срок до четырех месяцев. Фальсификация доказательств по уголовному делу о тяжком или об особо тяжком преступлении карается лишением свободы на срок до 7 лет (УК РФ Статья 303).
Также нужно знать, что если вы или ваш ребенок подверглись кибербуллингу с помощью замены лиц через нейросети, то нужно действовать так:
- Сделать скриншот видео или фото.
- Заверить распечатанный на бумаге скриншот у нотариуса для подтверждения факта травли.
- Подать в суд на основании этого документа, чтобы потребовать с обидчика компенсацию морально вреда.
Читайте также: