Проблема Deepfake (глубинных фейков) – сравнительно нова для интернета и медиасреды. Особенно если соотносить ее с потоком традиционных фейковых новостей, от которого страдает медиапространство уже больше пяти лет. Первые примеры реализаций Deepfake-видео были опубликованы на сайте Reddit в конце 2017 года, в 2018 году в Сети появились первые видеоподделки с известными людьми (Барак Обама, голливудские актеры).
В конце 2018 года авторы «прогноза пессимиста» из Bloomberg назвали Deepfake-видео одной из проблем, способной серьезно повлиять на будущее, в том числе и на глобальную политическую ситуацию в мире, пишет издание StopFake.
В 2019 году Deepfake-видео привлекли внимание экспертов из ИТ-сферы и едва ли не впервые за историю борьбы с фейками проблему Deepfake стали пытаться активно решать и ученые, и крупные технологические компании.
Deepfake настолько впечатлили всех – и специалистов по фактчекингу, и медиаэкспетов, и обычных людей, что серьезность этой проблемы никто не поддавал сомнению.
В борьбу с Deepfake стали инвестировать немалые деньги и за 2019 год было создано множество инструментов, которые с тем или иным успехом научились определять Deepfake. Эти инструменты – это пока лишь тестовые образцы, которые тем не менее с достаточно высокой вероятностью находят видеоподделки. Сам принцип создания Deepfake такой, что борьба с этим видом фейков усложнена используемой при их создании технологией. Иными словами, Deepfake – один из наиболее технически совершенных на сегодняшний день видов фейков, поэтому их поиск и идентификация – это сложнейшая задача в техническом плане.
С одной стороны, проблема Deepfake-видео усугубляется приближающимися выборами президента США в 2020 году. Аналитики считают, что фейковые новости в целом, равно как и фейковые видео в частности станут для социальных сетей и Facebook серьезной проблемой в 2020 году. Если фейки 2016 года были примерами примитивной манипуляции и попыткой эмоционально сыграть на болезненных темах американского общества, то Deepfake образца 2020 года могут превратиться в потоки лжи и компромата, законно рекламируемого в соцсети, тем более, что политика Facebook относительно политической рекламы будет этому способствовать (подробнее мы об этом расскажем в одной из наших следующих статей).
Дополнительной проблемой, усложняющей борьбу с Deepfake, является изменение способов медиапотребления в современном интернете. Все больше людей, особенно молодежи – представителей так называемого поколения Z – предпочитают видео тексту. Доля интереса к Facebook практически сравнилась со временем, которое тратится на YouTube.
Это означает рост потенциальной аудитории Deepfake-видео. А в условиях скорости распространения контента в современных соцсетях эта проблема становится более чем актуальной для всех.
Эксперты сравнивают появление Deepfake-видео со взломами компьютеров и компьютерных сетей, от которых страдает и бизнес, и правительства в последние 15 лет. Однако благодаря Deepfake-видео мир сталкивается с новым аналогом таких взломов, с новым проявлением кибервойны – «взломом людей в социальных сетях, который распространяет идеи», — поясняет проблему Питер Сингер, стратег по кибербезопасности.
Нэнси Пелоси, Facebook и “глубокая” проблема «глубинных» фейков
В конце мая на YouTube, а потом и на Facebook появилась и с огромной скоростью распространилась видеозапись, на которой спикер Палаты представителей США Нэнси Пелоси якобы выглядит пьяной. Число просмотров видео приблизилось к 3 млн раз, а количество репостов превысило 50 тыс (на данный момент пост недоступен).
Журналисты The Guardian сравнили оригинал и опубликованный ролик и пришли к выводу: это подделка.
Анализ, который провели журналисты The Washington Post показал, что видео было намерено замедлено на 75%. Это привело к сильному искажению речи и высоты голоса и создавало впечатление, что Пелоси была пьяна.
Тем не менее, это не помешало многим известным политикам, в том числе Дональду Трампу прокомментировать скандальное видео, а сам Трамп опубликовал еще одно видео, где Пелоси тоже «запинается».
“PELOSI STAMMERS THROUGH NEWS CONFERENCE” pic.twitter.com/1OyCyqRTuk
— Donald J. Trump (@realDonaldTrump) May 24, 2019
С YouTube ролик и его копии были удалены. Вначале администрация Facebook отказалась удалять видео, пообещав разобраться. Через 1,5 суток компания сообщила, что понижает его приоритетность выдачи, ибо его удаление будет цензурой, позже при попытке опубликовать видео компания стала показывать уведомления в том, что этот ролик – это подделка.
Сама Нэнси Пелоси назвала Facebook «добровольным пособником вмешательства в американские выборы».
Как видно на данный момент, видео все же было удалено со страниц Facebook, однако тот факт, что социальная сеть так долго реагировала на такой спорный контент, даже при наличии косвенных доказательств его поддельности, лучше чем что-либо другое демонстрирует серьезность проблемы Deepfake-видео да и любых других подделок в целом. Можно сказать, что опасность Deepfake-видео – это проблема обычных фейков, возведенная в степень, а все это — благодаря скандальности контента помноженная на скорость его распространения в соцсети на фоне отсутствия реакции со стороны администрации Facebook.
История с Нэнси Пелоси – всего лишь один пример того, почему проблеме Deepfake в последний год уделяется так много внимания. В этой статье мы проанализировали, что изменилось и какие появились наработки, направленные на борьбу с «глубинными» фейками.
Deepfake-статистика: проблема для всех и каждого
Бытует мнение, что прямыми жертвами фейковых новостей являются политики, которые теряют избирателей. Однако Deepfake- это пример технологии, которая может затронуть буквально всех и каждого. Вспомним, что Deepfake появились как инструмент порномести – добавления изображения обычного человека в порно-видео. Ситуация не изменилась и сегодня. По данным исследователей из компании Deeptrace, больше 95% Deeptrace-подделок – это порно-видео, а героями таких роликов в 99% являются женщины.
В этом же исследовании отмечается, что за последние полгода количество Deepfake-видео удвоилось по сравнению с прошлым годом и насчитывает уже более 14,5 тыс видеороликов. Интересно, что 2% из них содержат корпоративные секреты. И есть уже примеры Deepfake-подделок, которые успешно применялись для выманивания денег у компаний, сотрудники которой были уверены, что шлют деньги контрагенту, хотя на самом деле они их перевели мошенникам.
Почему проблема Deepfake сложнее, чем кажется
Deepfake-видео являются результатом работы GAN – генеративно-состязательной нейроной сети (generative adversarial network). Эта сеть состоит из двух нейросетей, первая занимается тем, что генерирует фейк, а вторая его определяет. Если вторая обнаруживает фейк, первая отбрасывает созданный ею вариант или усовершенствует его до тех пор, пока не создаст практически совершенный фейк.
Это означает, что применение аналогичных нейросетей для идентификации Deepfake-видео рано или поздно столкнется с алгоритмом GAN и фактически научит его обходить созданный алгоритм определения фейков, так же, как вторая нейросеть обучает первую. Таким образом, детектор определения Deepfake-видео по сути создает новые Deepfake-видео, которые невозможно обнаружить. Этот парадокс ученые назвали дилеммой современной области искусственного интеллекта, являющегося на сегодняшний день инструментом с открытым исходным кодом, то есть доступным для всех желающих.
Как Google, Facebook, Twitter борются с глубинными фейками
Современный социальный интернет – идеальное место для распространения скандальных видео. Именно поэтому и Google, и Facebook занялись борьбой с Deepfake.
В сентябре 2019 года компания Google собрала базу данных, в которую вошли 3 тыс видеороликов. Эта база данных будет использована для определения фейковых видео. При создании базы данных компания использовала самые известные публичные алгоритмы создания Deepfake.
Однако когда сотрудники компании Dessa решили проверить работу этого датасета (этой базы данных), то оказалось, что он в 40% случаев не смог решить поставленную перед ним задачу. Главный вывод сделанный специалистами, был таковым: «Несколько сотен синтетических видео недостаточно для решения проблемы, потому что они необязательно разделяют характеристики поддельных видео, распространяемых сегодня, а тем более в ближайшие годы».
Компании Facebook, Amazon и Microsoft (и ряд ведущих американских университетов) решили провести конкурс Deepfake Detection Challenge на лучший способ определения Deepfake-видео. Компании готовы инвестировать в большие призовые, например, Facebook планирует выделить $10 млн.
Уже в начале января Facebook сообщила о собственных мерах борьбы с deepfake-видео. Компания заявила, что будет удалять видеоконтент, отредактированный инструментами на основе нейронных сетей и искусственного интеллекта. Кроме того, в сообщении в блоге компании сказано, что к поддельному контенту она отнесет такой, в котором содержатся слова, не произнесенные героями видео в реальной жизни. В Facebook пообещали изучить контент, генерируемый ИИ, равно как и продолжить поиск их авторов и осознать глобальную цель усилий таких людей.
Весьма положительно, что компания озвучила четкие критерии видео, которые будут удаляться. К таким видео относятся ролики, которые были отредактированы или синтезированы не с целью улучшения качества, а с целью введения в заблуждения аудитории видео. Иными словами, если видео подправлено, чтобы зрители получили лучшую картинку или звук, это не будет проблемой. Если же в уста героя ролика вложены чужие слова, это видео будет удаляться. Второй критерий – если видео станет предметом работы нейронных сетей и искусственного интеллекта.
В то же время, к этим критериям добавляется объяснение – компания не будет реагировать на пародийный контент или сатиру, которые «были отредактированы для того, чтобы пропустить или изменить порядок слов». Это уточнение говорит о том, что компания не будет реагировать на манипулятивный контент. И, вероятнее всего, упомянутое выше видео с Ненси Пелоси не подлежит удалению согласно обновленным критериям.
Такое объявление со стороны Facebook – это, безусловно, шаг вперед. Однако нужно понимать, что решение было озвучено за несколько дней до слушаний в Конгрессе США по поводу дезинформации и фейков.
Тем не менее, у новой anti-deepfake-политики Facebook есть еще один положительный момент – она будет применяться как к обычным, так и к рекламным сообщениям.
Между тем, новые правила Facebook некоторые эксперты называют полумерами, утверждая, что «Политика Facebook не затрагивает ключевой вопрос о том, как их платформа используется для распространения дезинформации, а скорее о том, насколько профессионально эта дезинформация создается».
Twitter объявила о том, что планирует внести изменения в свою политику работы с данными и запретить использование «любого фото, аудио или видео», которое было значительным образом изменено. Это же требование будет касаться Deepfake-видео. Компания определяет Deepfake как «любое фото, аудио или видео, которое было значительно изменено или создано таким образом, чтобы вводить людей в заблуждение или изменять его первоначальное значение». Анонс был сделан в сентябре, а в ноябре компания представила черновик новой политики относительно фальсификаций, публикуемых на ее платформе.
Deepfake-видео в будущем
Скорость, с которой мир узнал о том, что такое Deepfake-видео, впечатляет и экспертов, и обычных людей. Именно поэтому борьба с Deepfake не может ограничиться только созданием автоматических инструментов и работой фактчекеров. Без поддержки социальных платформ, а может и государств, вынужденных реагировать на Deepfake-видео в законодательном поле, эта борьба наверняка будет проиграна и так называемые «прогнозы пессимиста» могут стать реальностью.
Автор: Надежда Баловсяк; StopFake