просмотров 1278

Порно и информационные войны. Что такое DeepFake и чем он опасен?

Опубликовано: 05 Ноября 2018 Автор: Тимур АУБАКИРОВ | Астана
Порно и информационные войны. Что такое DeepFake и чем он опасен?
Николас Кейдж вместо Эми Адамс / Кадр с YouTube.com

Пару месяцев назад в Интернете появилось видео, на котором экс-президент США Барак Обама нецензурно выражался и оскорблял нынешнего президента Дональда Трампа. На самом деле, конечно, Обама ничего подобного не делал, а видео было создано медиакомпанией BuzzFeed. Лицо экс-президента просто наложили на лицо актера Джордана Пила. Получилось невероятно правдоподобно, и что самое интересное – для того чтобы повторить подобный трюк, не нужны какие-то глубокие познания в области видеомонтажа. На дворе XXI век, теперь всю сложную работу на себя берут компьютер и искусственный интеллект. Имя которому – DeepFake. Как считают эксперты, он еще не раз будет использован в информационных войнах.

Что такое DeepFake? Если просто, то это технология, которая позволяет наложить на лицо одного человека лицо другого. При этом не только на фото, но и на видео, причем даже в прямом эфире. Для этого нужно просто «скормить» специальному алгоритму фотографии обоих людей, а дальше программа проанализирует мимику, жесты и манеры речи, выдав не всегда идеальную, но достаточно убедительную подделку.

Разумеется, на деле все не так легко. Нужно закачать от 300 до 2 000 фотографий нужного человека с разных ракурсов и желательно с разной мимикой. Создание фейк-видео занимает от 48 до 72 часов. Правда, после того как алгоритм навострится подделывать лица, последующие превращения займут уже на 20–50% меньше времени.

Где и для чего используют DeepFake? Это еще очень молодая технология, но ей уже нашли кучу применений. Например, при производстве фильмов. У Голливуда есть аналоги подобных программ, но они гораздо дороже. Использование искусственного интеллекта позволит в будущем снимать в сценах одних актеров, а потом просто «приклеивать» им лица других. Считаете, что Терминатора гораздо лучше сыграл бы Сталлоне? Пожалуйста, просто нажмите кнопку!

Еще DeepFake используют в социальных приложениях. Любимые всеми Snapchat-фильтры применяют как раз эту технологию, пририсовывая пользователям смешные рожи и собачьи уши.

Но нельзя забывать, что в Интернете любой новинке тут же находят нелегальное применение. Например, год назад глобальную Сеть буквально взорвала новость о том, что, используя этот алгоритм, неизвестные пользователи «приклеили» лицо исполнительницы роли Чудо-Женщины Галь Гадот к телу порноактрисы. Это было полноценное видео, которое некоторые даже приняли за настоящее. В последующие месяцы еще больше знаменитостей стали жертвами DeepFake-порно. На сегодняшний день этот тренд только набирает обороты.

Но самым опасным использованием фейковых лиц может стать информационная война, когда злоумышленники будут заменять не лица актеров и певцов, а политиков и руководителей компаний.

Это легкая и доступная технология, ее может использовать любой, ­– заявила исполнительный директор агентства Success K Айко Токен на прошедшем в Астане семинаре по проблемам недостоверной информации в СМИ. – Представьте, какую опасность она представляет для политиков, которых теперь можно заставить «сказать» все, что угодно. А с другой стороны, какую опасность DeepFake представляет для журналистов, ведь любой человек теперь может заявить: «Я этого не говорил, меня подставили».

Сегодня продвинутые технологии используют для создания видео для взрослых и замены лиц актеров в популярных фильмах. Но во что они превратятся в будущем? Этому алгоритму всего пара лет, а некоторые видео уже почти невозможно отличить от настоящих. С годами программное обеспечение будет улучшаться, а искусственный интеллект станет умнее. Тогда отличить фейк от реальности станет еще сложнее, а ведь мы до сих пор не придумали, как установить подлинность DeepFake-видео со стопроцентной вероятностью.

Последние новости Казахстана и мира читайте на нашем Telegram-канале