Технология глубинных фейков: как глубокая ложь может инкорпорироваться в нашу жизнь?
KOGDATA.RU — Искусственный интеллект позволяет сейчас создавать поддельные видео, которые выглядят почти как настоящие. Как это происходит и куда нас это может привести?
Дональд Трамп снялся в фильме «Назад в будущее», Николас Кейдж стал главным героем всех американских блокбастеров одновременно, а Эмма Уотсон пошла в порно-актрисы. Звучит невероятно? Благодаря современным технологиям подделки видео такие новости вполне реальные, и кое-что уже можно увидеть на просторах интернета (вот пример ). Так называемые глубинные фейки (deep fakes) становятся не просто развлечением, которая может испортить репутацию, но и реальной кибер-угрозой.
Срок deep fakes - это сочетание слов «глубинное обучения» (deep learning) и «фейк» (fake). Глубинные фейки начали появляться несколько лет назад благодаря одной из технологий машинного обучения, называется « генеративная соревновательная сеть » (generative adversarial network, GAN), а также технологии изображений, сгенерированных компьютером (computer-generated imagery, CGI).
Первый метод был введен только в 2014 году, и его суть заключается в создании серии искусственных фотографий и наложении их на имеющееся видео. Тогда как второй метод используется в анимации уже несколько десятилетий: например, мультфильм «История игрушек» (1995) от студии Pixar риализованный полностью по технологии CGI. В общем, метод синтеза и редактирования лиц на видео не является новым, просто стал пока доступным. Автор: Артем Маслов
Смотрите видео ниже ►
Обычно плеер запускается за 3-9 секунд... Или — обновите страницу F5 | ⛔ Видео не работает??Сохраните в соц.сети, ок?Плеер #2: или вторая часть эфира.
Откуда ноги растут
В декабре 2017 года о глубинных фейки заговорили после серии порно-видео, где вместо порно-актрис были якобы настоящие звезды или героини фильмов. Первый такой случай произошел в сообществе Reddit, когда пользователь с ником Deepfake опубликовал порно-видео с главной героиней экшн-ленты Гадот ( «Чудо-женщина»). Впоследствии появились видео с другими киногероями и актрисами. В феврале 2018-го платформа Reddit забанила соответствующую сообщество за распространение фейковых видео. Однако автор этих фейков уже успел распространить инструмент FakeApp, что бесплатно позволяет создавать фейковые видео. Конечно, финальный продукт получается невысокого качества, но достаточной, чтобы ввести кого-то в заблуждение.Звезды часто становятся объектами deep fakes, потому что в свободном доступе существует много фотографий и видео с их лицами. Нейросеть обучается на основе этих изображений, создает маску с лицом знаменитостей, после чего она не может заменять любое лицо в уже отснятом видео на сгенерированное. То же касается и других публичных лиц, например, политиков.
Три способа, как создать искусственное видео
Программа Face2Face была предложена группой исследователей в 2016-м. В этом видео они показывают, как меняют, например, видео с Джорджем Бушем в реальном времени. Они приняли специальное устройство, считывал мимику актера- «источника» и сразу накладывал ее на актера в видео, который был «целью» такой манипуляции.В июле 2017 года на ежегодной конференции SIGGRAPH исследователи Университета Вашингтона представили видео с Бараком Обамой, который говорит то, чего он никогда не говорил. Исследователи использовали уже имеющиеся видео с Обамой для того, чтобы научить нейросеть синтезировать движение губ со звуком.
Проще говоря, Барак Обама открывал рот так, чтобы соответствовать входной звуковой дорожке. Технология получила название Learning Lip Sync from Audio . Интересно, что на создание такого инструмента авторов вдохновил проект, позволяющий узнать правду о Холокосте от тех, кому удалось выжить. Об этом рассказывает в своем выступлении на TED Супасорн Суваджанакорн (Supasorn Suwajanakorn) - один из ученых исследовательской группы, которая работала над этим проектом.
Через год, в 2018-м, на той же конференции SIGGRAPH исследователи уже из Стэнфордского университета предложили технологию глубинных видеопортрет (deep video portraits). В своем проекте они демонстрируют, как можно перенести любую мимику (движение бровей, головы, улыбку и т.п.) от «лицо-источники» на любое другое лицо. В видео ниже исследователи также сравнивают свои разработки с другими имеющимися технологиями.
Что касается подделки голоса, то в этом случае так же применяется технология GAN. Например, стартап Lyrebird записывает только одну вашу фразу и на основе этих метаданных может создавать любые другие речи вашим голосом. Речь звучит настолько реалистично, что по телефону вас не узнает даже родная мама. Смотрите об этом подробнее в сюжете Bloomberg .
Для чего можно использовать технологию глубинных фейков?
Если раньше считалось, что журналист в камере нужен для того, чтобы засвидетельствовать зрителю, что он / она были на месте происшествия, а видеоматериал было качественным подтверждением того, что определенное событие произошло, то теперь это под большим вопросом.Конечно, есть опасность, что глубинные фейки будут использованы как массовый инструмент для пропаганды и дезинформации. Но пока создание такого продукта является довольно дорогим удовольствием. Любая технология нейтральна сама по себе, а дальше все зависит от намерений того, кто планирует ею воспользоваться.
Первоначально эта технология имеет большой потенциал для кино-индустрии, в том числе для дубляжа. Представьте, что любимые актеры в голливудских фильмах начнут говорить якобы украинский.
Во-вторых, ее можно использовать для создания необходимых кадров с актерами, локациями, создавать нужную погоду в кадре и тому подобное. Актер Пол Волкер погиб до завершения съемок в своем последнем фильме «Форсаж-7». Однако фильм удалось завершить, несмотря на отсутствие необходимых кадров с ним. Это произошло благодаря использованию подобной технологии, которая позволила сгенерировать нужные видео с Полом Волкером для логического завершения фильма.
Это также интересная ниша для бизнеса, а не только для кино и порно-индустрии. Например, компания Synthesia использует ее для автоматического перевода. В этом случае алгоритм также генерирует движение губ в соответствии с языком и меняет видео.
Технология еще не идеальна. Если вы внимательно пересмотрите видео, то увидите, что движение губ не всегда соответствует движению шеи. Пространство для развития очевиден.
Есть противодействие глубинным фейкам?
Глубинные фейки, как и обычные фейки, - это всегда попытка повлиять и манипулировать человеческой мыслью. Поэтому медиаграмотность и критическое мышление остаются важными компетенциями для современного человека - которых можно научиться на бесплатном онлайн-курсе «Фактчек: доверяй-проверяй» .Среди других инструментов для создания защиты от подобных фейков важную роль играет законодательство страны. Если Франция ввела закон об изъятии фейковых новостей в СМИ во время выборов , а британское правительство предлагает отказаться от употребления слова «фейк» , то в Украине все еще остается большое поле для манипуляций.
Большую роль также играют корпорации вроде Google, YouTube, Facebook и других, где могут быстро распространяться видео с глубинными фейк. Поэтому для таких компаний важно разработать прозрачную политику жесткого регулирования подобных случаев, чтобы они могли так же банить пользователей за распространение фейковых видео, как, например, Reddit. Коллективный бан конкретных видео некоторыми платформами будет кумулятивный эффект, но насколько это будет действенно, пока говорить рано.
Ученые также не остаются в стороне от этой проблемы. Те же исследователи, которые создали видео с Обамой, вместе с другими учеными, которые работают над искусственным интеллектом, создали Фонд искусственного интеллекта. В рамках фонда они планируют бороться с распространением deep fakes в обществе. Сейчас ученые разрабатывают плагин для браузера, который сможет сразу идентифицировать поддельное видео. Для того, чтобы не пропустить выход этого инструмента, можно подписаться на их рассылку .
Распространение глубинных фейков является также вопросом национальной безопасности. Так, в ноябре 2018-го стало известно, что научно-исследовательское агентство при Министерстве обороны США ( Defense Advanced Research Projects Agency ) в течение последних двух лет работает над созданием технологии, которая бы могла обнаруживать подобные высокотехнологичные подделки. За это время на научные разработки было потрачено около $68 млн.
Категория: Новости о онлайн-медиа и IT-корпорациях Ваш IP записан: 3.135.200.121 (14.02.19)
Да 1873 нет :(
Оставить комментарий +25 баллов
Смотреть видео +20 баллов
«попробуйте оставить ваш первый комментарий здесь — это проще, чем кажется!»