Что такое дипфейк простыми словами
Перейти к содержимому

Что такое дипфейк простыми словами

  • автор:

Информационно-психологическая операция России. Что такое дипфейк и как его распознать

Информационно-психологическая операция России. Что такое дипфейк и как его распознатьФото: Что такое дипфейк и как его распознать (Getty Images)

Сегодня искусственный интеллект может приносить не только пользу, но и вводить людей в заблуждение и быть использованным во время информационной войны. В частности, речь идет и о дипфейке — технологии, которая способна размывать линию между реальностью и чем-то фантастическим.

Что такое дипфейк, как его распознать и почему этой технологией может воспользоваться оккупант — в материале РБК-Украина.

Что же такое дипфейк?

Это технология, которая применяет искусственный интеллект для создания фальшивых изображений или видеороликов с «реальными» людьми, благодаря наложению и сочетанию отдельных фрагментов на другие изображения и видеоролики.

Впервые технология стала популярной еще в 2017 году, когда ее применяли для мести другим людям, или же для воспроизведения порнографических роликов.

В конце концов, ее начали использовать и в поддельных новостях, или же в злонамеренных заблуждениях.

Например:

  • бывшего президента Аргентины Маурисио Макри в свое время «подменили» Гитлером;
  • актер Джордан Пил создал фейковое видео с бывшим президентом США Бараком Обамой с целью предупреждения об опасности технологии.

Приведенные примеры были созданы еще в 2018-м году. За последние годы технология успела развиться еще дальше, в связи с чем иногда выявить качественно воспроизведенную фальсификацию становится все труднее.

В то же время большинство платформ, таких как Twitter, Reddit, Discord уже давно начали бороться с технологией, удаляя любой контент, содержащий в себе дипфейк и блокируя пользователей, которые его опубликовали.

Эксперты считают, что подобные сфабрикованные видео могут стать настоящим оружием во время информационной войны.

Как отличить дипфейк?

Сегодня же немало ученых работают над уникальными алгоритмами, которые должны выявлять сфабрикованные видеоролики. Однако почти ни один из них не обладает 100% точностью работы.

К сожалению, надежных способов отличить дипфейк нет. В большинстве случаев приходится полагаться на свои же глаза. Однако не все так и плохо.

Например, во время покадрового просмотра можно увидеть плохие признаки генерирования и наложения изображения на видеоролик. Особое внимание стоит обратить на:

  • лицо не всегда может пропорционально «накладываться» на тело;
  • в области бровей и глаз могут быть неестественные тени;
  • очки или же аксессуары могут иметь странные блики, а особенно это заметно на фотографиях;
  • искусственный интеллект плохо работает с волосами, которые на видео не выглядят естественно. Они могут быть «размытыми», или же иметь неправильную линию роста;
  • иногда же брак могут выдавать и глаза, речь идет об их движении, бликах света и прочем;
  • мимика и движение в целом могут казаться неестественными.

Важно добавить, что технологию дипфейка почти всегда используют с подменой голоса.

Попробовать распознавать дипфейки можно на сайте энтузиастов Массачусетского технологического института по ссылке.

Может ли Россия прибегнуть к использованию технологии?

Ответ: да.

Как сообщает Центр стратегических коммуникаций и информационной безопасности, сегодня агрессор может прибегнуть ко всем попыткам дезориентировать наших граждан, или же заставить их упасть духом.

В том числе речь идет и об использовании технологии дипфейк в якобы «официальных заявлениях» президента Украины Владимира Зеленского о, например, капитуляции.

«Знайте — это фейк! Его цель — дезориентировать, посеять панику, сломить граждан и склонить наши войска к сдаче. Будьте уверены — Украина не будет капитулировать«, — пишет пресс-служба центра.

Помните, важно получать информацию исключительно из проверенных источников, особенно сегодня. Не дайте врагу ввести вас в заблуждение.

Война России против Украины продолжается седьмой день. Все подробности российской агрессии, ситуация в городах и международная реакция – в текстовом онлайне РБК-Украина.

Срочные и важные сообщения о войне России против Украины читайте на канале РБК-Украина в Telegram.

Что такое Дипфейк и почему это будет трендом ближайшее время?

ИИ распознает людей людей по позам, жестам, походке, генерирует лица людей и может воссоздать настоящего человека (смотри наш пост о «тренде 2020 — искусственный человек»). Дипфейки, создаваемые нейросетями, которые сами учатся, анализирую и воспроизводят информацию, активно обсуждаются в последнее время.

Дипфейк — это видеоролик, на котором лицо одного человека заменяется лицом другого. Хотели бы себя ощутить Ведьмаком, странствующего по королевствам, сражаться с чудовищами и покоряя сердца чародеек? Или той самой чародейкой, помогающей главному герою? Deepfake (deep learning — глубокое обучение, fake — подделка) поможет тебе в этом.

В основе дипфейков заложены генеративно-состязательные нейросети. Простым языком — одна часть алгоритма изучает фотографии определенного человека и создает изображение. А вторая часть состязается с ней, пока первая не создаст идеальную картинку человека.

С помощью дипфейков подделывают лица, котов и даже квартиры на Airbnb. Эту технологию можно использовать во зло. Исследователи Вашингтонского университета создали компьютерного брата-близнеца Барака Обамы. На видео ниже можешь посмотреть.

В сети есть несколько дипфейков с политиками, где их выступления монтировали и меняли смысл высказывания. Трамп, выступающий против климатических инициатив, а также Обама, который в одном из роликов назвал Трампа complete dipshit (засранцем). Конечно, в реальности никто из них этого не делал, но доказали это не сразу.

В США запретили политические дипфейки с участием кандидатов в президенты перед выборами в этом году. За отредактированные видео можно сесть с тюрьму сроком до одного года.

Но в данной технологии есть и свои плюсы. Британская компания Synthesia сняла социальный ролик об опасности малярии. В ролике снимается бывший футболист Дэвид Бекхэм, который говорит на 9 языках. Помогли ему это сделать девять людей, выживших после малярии.

Почему же дипфейк будет трендом ближайшее время?

Киноиндустрия будет использовать эту технологию еще долго. При съемках «Форсаж 7» Пол Уолкер, погибший в автокатастрофе, оказался снова на экране благодаря этой технологии.

Дипфейки развиваются, и в Снэпчате или Инсте, ты уже давно можешь заменить свое лицо на чье-либо по соседству или морду кота. Дипфейк хайпит благодаря различным умельцам по всему миру. Не бывает плохих или хороших технологий. Бывают технологии. А плохими или хорошими их делает человек.

Остерегайтесь подделки: как устроен дипфейк и какие у него перспективы применения

Фото Getty Images

Дипфейк — это метод создания поддельного медиаконтента (аудио, изображения или видео), с помощью алгоритмов глубокого обучения. Первые дипфейки заключались в простом «натягивании» лица какой-нибудь медийной персоны на лицо другого человека с помощью технологии FaceSwap, основанной на генеративно-состязательных сетях (Generative adversarial network, GAN).

GAN состоит из двух частей: генератора и дискриминатора. Одна модель генерирует реплики из набора данных образцов изображений, а другая пытается определить, действительно ли новое изображение является фейковым. Когда вторая модель затрудняется ответить, тогда дипфейк, вероятно, достаточно правдоподобен и для зрителя. Если немного дообучить GAN на небольшой базе фотографий (а в эпоху соцсетей сбор такой базы проблемы не представляет), то можно запросто генерировать реалистичные смешные, провокационные или порочащие фотографии.

Эта простая технология, созданная для развлечения и ретуши лиц в Instagram (принадлежит Meta, которая признана экстремистской и запрещена в России), причиняет массу неудобств подвергшимся атаке людям. Но технологии шагнули еще дальше и уже сейчас позволяют без специальной аппаратуры создать полноценную цифровую копию человека, передавая не только его лицо, мимику, фигуру, одежду, но даже голос. Это влечет за собой еще больше опасностей, так как события последних лет показали, что люди сильно подвержены влиянию дезинформации, которая очень быстро может распространяться в соцсетях. Особенно, когда она якобы исходит от известного «ньюсмейкера».

Эволюция технологии

Последние 20 лет в кинематографе для создания полноценного цифрового клона используется технология CGI (Computer Generated Imagery). Чаще всего она применяется для отрисовки реалистичных анимированных 3D-моделей персонажей, позволяя передавать движения и мимику реального актера 3D-модели с помощью системы меток и высокоскоростных камер. Одним из канонов применения CGI является персонаж Голлум из трилогии «Властелин колец». Он стал первым компьютерным персонажем, который взаимодействовал с реальными актерами. Создатели фильма использовали технологию захвата движения, чтобы сделать Голлума реалистичным и живым. А в эпоху первого «Аватара» была создана технология facial motion retargeting для переноса человеческой мимики на трехмерных героев — раньше при съемках подобных фильмов система захвата движений была общей.

Сегодня в большинстве фантастических фильмов используют эти технологии для тысяч кадров, или 90% киноленты. Благодаря этой же технологии фанаты видеоигры Cyberpunk 2077 увидели Киану Ривза в образе одного из персонажей.

Но нейросетевые технологии позволили существенно снизить затраты на создание цифровых аватаров. Используя видеоряд, снятый на обычную цифровую камеру, модели машинного обучения позволяют покрыть полный спектр задач, решаемых с помощью CGI: трекинг, захват движений и мимики, построение карты глубины, построение 3D-модели, наложение текстур, копирование голоса, подстройка движения губ и мимики модели под синтезированную аудиодорожку и многое другое. Это все существенно удешевляет создание дипфейков, дает импульс для развития целых «фабрик» цифровых двойников и открывает совершенно новые возможности для их использования, к сожалению далеко не всегда, направленные на созидание.

Что такое дипфейк и как он используется

Что это? Дипфейк – технология, основанная на работе нейросети, позволяющая замещать лица на фотографиях и видео синтезированными изображениями. Если раньше такие возможности были только у киностудий и игровой индустрии, то сейчас они доступным всем.

Где используется? Дипфейк воспринимается как развлечение. Согласитесь, забавно видеть лицо актера или известного политика в непривычной обстановке, ситуации. Но есть у технологии и более практичные сферы применения.

Что такое дипфейк простыми словами

Многие люди не знают, что такое дипфейк. Это слово было сформировано из двух выражений: deep learning («глубокое обучение» — термин, использующийся в сфере обучения искусственного интеллекта) и fake («подделка, фальшивка»). Таким образом, deepfake — это поддельные видео и фотографии, которые сделаны с использованием искусственного интеллекта. Проще говоря, лицо одного человека заменяется лицом другого.

Данная технология начала активно разрабатываться ещё в конце девяностых. В 1997 году компания Video Rewrite выпустила программу, с помощью которой пользователь мог создать видео, где движения лица синхронизировались с заранее сформированной аудиодорожкой. Таким образом, моделировались артикуляционная мимика говорящего человека.

Что такое дипфейк

Технология совершенствовалась долгие годы. На сегодняшний день человек может обрабатывать голос, объединять компьютерную графику с реальным видео и т.д. В наиболее продвинутых вариантах применяется искусственный интеллект.

Павел Симонов - исполнительный директор Geekbrains

Скачивайте и используйте уже сегодня:

Павел Симонов - исполнительный директор Geekbrains

Топ-30 самых востребованных и высокооплачиваемых профессий 2023

Поможет разобраться в актуальной ситуации на рынке труда

doc иконка

Подборка 50+ бесплатных нейросетей для упрощения работы и увеличения заработка

Только проверенные нейросети с доступом из России и свободным использованием

ТОП-100 площадок для поиска работы от GeekBrains

Список проверенных ресурсов реальных вакансий с доходом от 210 000 ₽

Поначалу такие программы не были особо популярны. О них знал только небольшой круг специалистов. Однако в 2009 году вышел фильм под названием «Аватар». Огромное количество зрителей увидели технологию в действии. В 2014 году Одри Хепберн «почувствовала» в рекламной кампании шоколада. Её лицо «перенесли» на лицо актрисы. В фильме «Ирландец» 2019 года выпуска лица актёров сделали гораздо более молодыми при помощи ИИ.

С каждым годом искусственный интеллект становится всё более функциональным. Он может выполнять рутинную работу человека, которому нужно лишь подготавливать исходные файлы и управлять программой. Теперь на видеохостингах можно найти огромное количество дипфейков.

Чтобы создать упрощённую модель лица, подойдет обычная фотография. Это является самым популярным способом создания дипфейков. В этом случае следует сформировать точную 3D-модель исходного лица.

После этого нужно отследить всю его мимику и движения. Затем исходное лицо меняется на другое, однако мимика остается той же. Чтобы добиться хорошего результата, необходимо провести тонкую настройку. Кроме того, потребуются большие процессорные мощности. Если же попытаться упростить задачу, то итоговое видео будет менее качественным.

Изначально создателями дипфейков являлись обычные люди, которые хотели получить видео развлекательного характера. Через некоторое время такой контент начал обрастать своей аудиторией. Теперь люди готовы отдавать свои деньги за подобные ролики. За небольшое видео среднего уровня качества человек может получить как минимум 50 долларов. Дипфейки используются не только для развлечения, но и в качестве инструмента, позволяющего снизить затраты на привлечение реальных актёров.

С точки зрения законодательства такие ролики не нарушают никаких правовых норм, если они не создаются с целью введения зрителя в заблуждение. Если же дипфейк используется для обмана людей, то автора могут привлечь к ответственности. Чтобы избежать юридических проблем, необходимо указать в титрах, что ролик является фейковым.

Причём неважно, какое лицо вы будете использовать в своих видео. Это может быть очень известный человек, который выступает против такой деятельности. Учтите, что доказать причинение вреда дипфейком крайне трудно.

Лидеры рынка дипфейк-технологий

Синтетические медиа — это быстро развивающаяся отрасль, которая интересна многим современным компаниям. К примеру, Amazon постоянно совершенствует голос Алексы, а Disney старается улучшить технологию замены лица в фильмах. Производители оборудования также заинтересованы в подобных решениях. Яркий пример — Nvidia. Эта компания постоянно расширяет границы синтетических аватаров и услуг для кинопроизводства и телевидения.

Большая часть программного обеспечения, использующегося для создания дипфейков, имеет открытый исходный код. Благодаря этому синтетические медиа могут применяться даже небольшим компаниями. К таким проектам относятся Wombo, Аvatarify, FaceApp, Reface, MyHeritage и т.п.

Усложненные версии этих технологий используются в локальных и облачных решениях. Например, Synthesia — крупнейший поставщик синтетических аватаров, которые применяются для обучения, обслуживания клиентов, создания видео и некоторых других задач. Пользователь может работать с готовыми аватарами либо создать свой собственный вариант.

Технология реалистичной генерации голоса используется в самых разных сферах. Например, при работе с клиентами, автоматическом переводе и т.д. Одними из самых успешных компаний в этой сфере являются Respeecher и Resemble AI. В первом случае пользователь может заменить собственный голос голосом другого человека. При этом у него есть возможность настроить возраст и язык. Resemble AI также позволяет клиентам генерировать дипфейки своего голоса.

Лидеры рынка дипфейк-технологий

Variational Autoencoder (VAE) — это генеративная модель, которая нередко используется в данной сфере. Она позволяет создавать новые человеческие лица, генерировать музыку и многое другое. Кроме того, с помощью VAE можно быстро переносить особенности мимики и артикуляции человека на компьютерную 3D-модель. Технология VAE появилась много лет назад, однако сформированные с её помощью ролики легко отличить от настоящих.

В 2017 году были разработаны генеративные состязательные сети (GAN). В этой технологии объединены две нейросети, одна из которых (её называют дискриминатором) оценивает реалистичность модели, сформированной другой нейронной сетью. В результате пользователь получает гораздо более правдоподобный дипфейк.

Однако стоит отметить, что GAN является гораздо более сложной технологией, чем может показаться на первый взгляд. Помимо двух основных, в ней применяются и другие нейросети и элементы. На выходе получается очень реалистичная модель. На сайте This Person Does Not Exist опубликованы примеры работ, созданных с помощью GAN. Там вы можете увидеть лица людей, которые никогда не существовали в реальности.

Данная технология также применялась для создания цифрового двойника Сальвадора Дали. Эта модель используется в музее Дали. Она рассказывает посетителям о биографии и достижениях художника.

6 дипфейк-инструментов, доступных каждому

Поняв, что такое дипфейк, нужно разобраться с инструментами, которые позволяют создавать качественные подделки. Практически все нижеперечисленные программы и приложения не требуют от компьютера больших мощностей.

Doublicat

Платформа: Android / iOS

С помощью этого приложения вы можете создать дипфейк развлекательного характера. Для этого вам нужно лишь сделать селфи и поместить фото на мем или GIF в своей библиотеке. Через считанные секунды ваше лицо будет наложено на лицо Брэда Питта, Леонардо Ди Каприо или Тейлор Свифт.

Получившаяся модель хорошо копирует мимику оригинала. Дипфейк можно отправить друзьям или выложить в социальных сетях.

FaceApp

Платформа: Android / iOS

Это российское приложение создано компанией Wireless Lab. Программа работает на основе нейронных сетей, с помощью которых выполняется преобразование лиц на фотографиях. Результат получается очень реалистичным.

Загрузив в приложение своё лицо, вы сможете поэкспериментировать с его мимикой, возрастом, половой принадлежностью (из-за этой возможности в 2018 году FaceApp привлек много внимания со стороны сексуальных меньшинств) и т.д. Кроме того, программа позволяет накладывать татуировки, фон, виньетки и размытие объектива.

Конфиденциальность пользовательских данных в FaceApp ставится под вопрос. Эта тема не раз обсуждалась в социальных сетях и прессе.

Deepfakes web β

Этот сервис позволяет конструировать дипфейк-видео в режиме онлайн. При этом процесс обучения здесь дольше, чем в других вариантах.

Сначала пользователю нужно пройти регистрацию. После этого необходимо загрузить видео и приступить к работе. Моделирование осуществляется в облаке. Чтобы изучить видео / изображения и смену лиц, придётся потратить около 4 часов. С помощью обученной модели можно изменить лицо за 30-40 минут.

Deepfakes web β

Полученный результат может иметь разный уровень качества. Все зависит от значений «потерь». Чем ниже этот показатель (при обучении из загруженных видео), тем реалистичнее будет модель. Просматривать итоговый дипфейк и учебные данные может только владелец аккаунта.

DeepFaceLab

DeepFaceLab считается одной из лучших программ для создания дипфейков. В ней применяются современные нейросети. Данное ПО можно найти на GitHub.

Разработчики утверждают, что более 95 % высококачественных дипфейков создаются именно в этой программе. Стоит отметить, что DeepFaceLab используется несколькими крупными каналами на YouTube. Например, Ctrl Shift Face, iFake и Shamook.

ТОП-100 площадок для поиска работы от GeekBrains
20 профессий 2023 года, с доходом от 150 000 рублей
Чек-лист «Как успешно пройти собеседование»

Чтобы зарегистрироваться на бесплатный интенсив и получить в подарок подборку файлов от GeekBrains, заполните информацию в открывшемся окне

Чтобы работать с программой, вам потребуются технические знания. DeepFaceLab позволяет использовать большое количество командных файлов. В папке «workspace» размещены все обучающие модели, исходные видео и выходные данные. Программа работает с определенными именами и местоположениями файлов. Благодаря этому пакетный файл может функционировать.

FaceSwap

Платформа: Windows | MacOS | Linux

Эта программа напоминает DeepFaceLab. Однако в FaceSwap больше функций. Кроме того, это ПО предоставляет лучшую документацию и онлайн-поддержку. Ещё одним немаловажным преимуществом FaceSwap является кроссплатформенность (инструмент можно использовать не только в Windows, но и на Mac и Linux).

Программа имеет открытый исходный код. Чтобы работать с дипфейками, вам потребуется производительная видеокарта. В противном случае процесс замены лица будет выполняться очень медленно.

Faceswap работает на Python, Keras и Tensorflow. В интернете можно найти большое количество учебников, которые помогают освоить программу.

Платформа: Android | iOS

Многофункциональное приложение, предоставляющее множество видеоклипов и нарядов. С помощью Zao вы сможете сгенерировать голоса известных людей, наложить на их лица свою фотографию. Вам будет доступно огромное количество причёсок, одежды и макияжа.

Приложение получило большую популярность в 2019 году. Пользователи смогли вставлять свои лица в сцены со знаменитыми актёрами. Буквально за один месяц Zao заняло лидирующую строчку в списке самых скачиваемых приложений в Китае. Однако пользователи много критиковали политику конфиденциальности программы.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *