Искусственный интеллект может создавать двойников человека в видео, изображениях и аудиозаписях. Такие двойники называются дипфейками. Иногда дипфейки помогают режиссерам, сценаристам или актерам озвучки. А иногда их используют мошенники, чтобы обмануть людей.
В статье подробно разбираем плюсы и минусы использования дипфейков. А также рассказываем, как отличить подделку от оригинала и как защитить себя от дипфейков.
Что такое дипфейки и откуда они взялись
Представьте, что вы смотрите видео, на котором ваш любимый актер говорит что-то невообразимое. Или появляется в фильме, в котором на самом деле не снимался. Это называется дипфейк ( от deep learning – «глубокое обучение» и fake – «подделка») — поддельное видео, аудио или фото, созданное нейросетями.
Пример дипфейка — видео с Томом Крузом. Видео настолько реалистичное, что люди оставляют под видео комментарии «На самом деле немного страшно, насколько это реально выглядит» или «фейк Тома здесь машет руками, поправляет прическу и плавно надевает очки. Никаких глюков и мерцаний вообще нет».
Дипфейк Тома Круза настолько реалистичен, что зрителям становится жутковато от осознания, что перед ними не оригинал
Дипфейки стали активно появляться с 2017 года, когда пользователи Reddit начали экспериментировать с новой технологией машинного обучения. Тогда с помощью ИИ они подменяли лица девушек в роликах 18+ на лица известных актрис.
С тех пор нейросети поумнели, а создавать дипфейки стало проще.
Зачем создают дипфейки
В основном дипфейки используют в кинематографе и развлекательных роликах. В них с помощью дипфейков омолаживают актеров, улучшают качество лиц или заменяют одних актеров на других.
Например, в фильме «Изгой-один. Звездные войны: Истории» воссоздали Питера Кушинга, который сыграл гранд-моффа Таркина.
Другой пример — «омолодевшие» Роберт Де Ниро, Джо Пеши и Аль Пачино в фильме «Ирландец». По сюжету, герои картины появляются в фильме в возрасте 24, 36, 41, 42, 47, 55, 76 лет. И чтобы не использовать гримм, режиссер фильма Мартин Скорсезе использовал программу Face Finder для искусственного омоложения актеров.
Еще один кейс использования дипфейков — озвучка фильмов и сериалов на разных языках. Дипфейки помогают менять движения губ так, чтобы при дубляже не было рассинхронизации и закадровый голос всегда совпадал со словами героя.
Но иногда дипфейки используют в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.
В случае с обманом, мошенники копируют голос жертвы, генерируют копию его голоса в нейронке с просьбой перевести деньги или что-то в этом роде. А потом звонят родственникам и друзьям жертвы, включают сгенерированный голос и ждут чуда.
Иногда мошенники идут дальше: взламывают социальные сети жертвы и пишут от её имени кому попало из контактов с просьбой занять денег. А в подтверждение того, что это пишет сама жертва — присылают голосовые сообщения. А если пишут в Telegram или WhatsApp — могут даже круглые видео прислать. И сразу подделку не заметить — кружок реально выглядит так, будто его записал тот самый человек.
В итоге жертва переводит деньги на счёт мошенников и те бросают аккаунт.
С шантажом все проще: злоумышленники могут сделать дипфейк с участием любого человека. А затем написать жертве и угрожать, что выложат дипфейк в сеть, если жертва не отправит деньги.
Некоторые злоумышленники создают фальшивые обращения политиков, в которых те якобы высказывают экстремистские или противоречащие их реальной позиции взгляды. Поддельные заявления быстро распространяются в социальных сетях и вводят людей в заблуждение.
Например, в 2018 году злоумышленники создали дипфейк с бывшим президентом США Бараком Обамой, в котором он оскорбляет нового президента Дональда Трампа. Ролик стал вирусным и быстро разлетелся по соцсетям — люди возмущались, пока не поняли, что это дипфейк.
Примеров фишинга тоже много. Например, в 2019 г. в Великобритании мошенники создали аудиодипфейк голоса директора немецкой энергетической компании. Позвонили его подчиненному и потребовали в течение часа перевести €220 тыс. венгерскому поставщику. Сам пострадавший менеджер сказал, что узнал по телефону слабовыраженный немецкий акцент своего начальника и общий тон его голоса. Поэтому и перевел деньги.
Как создают дипфейки
Сильно вдаваться в технологии не будем, объясним общий принцип.
Сначала нейросеть обучают на настоящих записях человека: голосовых сообщениях, фотографиях и видео. Нейронка анализирует эти данные и создает математическую модель человеческого лица. Запоминает, как выглядит «типичное» лицо, его пропорции, как оно меняется при разных эмоциях, как и с какой интонацией человек разговаривает. По ним нейронки учатся подделывать лицо, мимику и голос. И когда в нейросеть загружают нужное фото, ИИ распознает черты лица, а затем переносит данные из базы на статичный портрет.
Пример такой нейронки — разработка Samsung и «Сколково». Программисты сделали нейросеть, которая может «оживлять» статичные изображения лиц.
Как отличить дипфейк от оригинала
Отличить дипфейк от настоящего видео сложно. Технологии развиваются, скиллы мошенников тоже. Если раньше в фейковых видео было много явных косяков, то сейчас их почти не найти.
Но есть несколько признаков, по которым можно вычислить дипфейк:
- Лицо размытое и нечеткое. Особенно это заметно возле рта и по краям лица. Как будто лицо немного плывет и его края сливаются с фоном.
- Тени и блики на лице выглядят неестественно. Они могут быть слишком резкими или, наоборот, размытыми. Цвет кожи может меняться на разных участках лица.
- Человек на видео очень редко моргает. Или вообще не моргает. Это потому, что нейросетям пока сложно правильно имитировать моргание.
- Зубы похожи на одно белое пятно. Не видно отдельных зубов и прикуса. Как будто рот — это просто дырка с белой полосой внутри.
- Одежда и фон вокруг человека могут выглядеть странно. На них могут быть искажения, размытия, неестественные тени и переходы цветов.
Это самые распространенные проколы нейронок, по которым можно вычислить дипфейк. Но даже если вы не заметили этих признаков, это не значит, что видео настоящее.
Поэтому главный совет — всегда включайте критическое мышление. Не верьте даже самым правдоподобным роликам. Особенно, если они вызывают у вас сильные эмоции — шок, возмущение или страх. Именно на таких эмоциях пытаются играть мошенники. Они хотят снизить вашу бдительность и обмануть вас.
А если видео кажется вам подозрительным, сделайте фактчекинг, поищите эту же информацию в других источниках. Посмотрите, что пишут об этом серьезные СМИ и эксперты. Если нигде про это не написано, скорее всего, новость — фейк.
Как защитить себя от дипфейков
Чтобы мошенники сделали дипфейк, им нужно получить как можно больше фото, видео и записей голоса человека. Найти информацию они могут двумя способами: скачать что-то из открытых соцсетей или взломать аккаунт человека и скачать информацию из переписок.
Чтобы защититься, соблюдайте несколько правил:
- Не загружайте свои фото, видео и аудиозаписи на сторонние ресурсы. Постарайтесь ограничить доступ к контенту со своим лицом.
- Загружайте контент с водяными знаками. Благодаря водяным знакам злоумышленникам будет сложнее создать дипфейки. Все потому, что водяные знаки портят качество материала и мешают нейросетям правильно обучаться. Кроме того, по водяному знаку можно отследить, откуда взялось фото или видео и кто его настоящий владелец.
- Придумайте кодовое слово для общения в переписках. Это должно быть какое-то необычное слово или фраза, которую знаете только вы и собеседник. И если вам пришлют подозрительное видео, попросите собеседника сказать ваше кодовое слово.
- Надежно храните пароли. Записывайте их на листочек или добавляйте в облачное хранилище паролей. Придумывайте сложные пароли, которые сложно взломать. При этом для каждого сервиса придумывайте разные пароли.
- Настройте двухфакторную аутентификацию.
- Используйте антивирусы, чтобы вредоносное ПО не крало информацию с ПК.
Что в итоге
Дипфейки — это видео, аудио или фото, созданные нейросетями на основе большого количества реальных записей человека.
Дипфейки используют в кинематографе для омоложения актеров, улучшения качества лиц или замены одних актеров на других. Их также применяют для озвучки фильмов и сериалов на разных языках, чтобы избежать рассинхронизации.
Иногда дипфейки используют и в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.
Отличить дипфейк от настоящего видео сложно, но есть несколько признаков: размытое и нечеткое лицо, неестественные тени и блики, редкое моргание, зубы, похожие на белое пятно, странный вид одежды и фона. Главное — всегда включайте критическое мышление и не верьте даже самым правдоподобным роликам. Особенно тем, что вызывают сильные эмоции.
Чтобы защититься от мошенников, не загружайте свои фото, видео и аудиозаписи в интернет. Используйте водяные знаки, придумайте кодовое слово для общения в переписках, надежно храните пароли и настройте двухфакторную аутентификацию.




