Что такое deepfake и как с ним бороться? Технические ухищрения не помогут людям, если они верят в фейки, отвечающие их настроениям

deepfake

Мы живем в мире, где тебе могут показать видео, на котором ты делаешь какие-то недопустимые вещи – и ты знаешь, что их не делал. И могут дать прослушать аудио, где ты говоришь то, что на самом деле никогда не говорил. И ты даже не можешь вразумительно объяснить: твой ли голос там звучит?

Целая куча компромата (буквально на каждую более-менее известную личность) высыпается на нас из соцсетей и интернет-ресурсов, пишет Укринформ. И он настолько качественно состряпан, что у рядового пользователя, зрителя и слушателя даже мысли не возникает, что это фейк. Ведь перед тобой аудио или видео-документ – как же ему не верить?

Но все-же – это фейк. «Deepfake». Википедия так объясняет этот недавно появившийся термин: «синтез слов «глубинное обучение» и «подделка», методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики».

Самым знаменитым фейковым видео (далее – deepfake) стало сфальсифицированное выступление Барака Обамы, где он обзывал Дональда Трампа засранцем.

Миллионы людей зашли на YouTube послушать слова президента, которых тот никогда не говорил. Никакого скандала не было, тут же в кадре появился режиссер Джордан Пил, автор подделки, который объяснил, что этой творческой выходкой он попытался привлечь внимание к цифровой дезинформации. Надо сказать, что ему удалось. Научиться пользоваться программами и редакторами, создающими вот такие видео, не составит труда пользователю Интернета. О революции фальсификаций стали писать не только в технических журналах.

Еще одним хрестоматийным примером глубинного фейка стала ситуация, когда Министерство обороны России «доказало» сотрудничество США с ИГ с помощью скриншота из компьютерной игры. В 2017 году Минобороны РФ опубликовало несколько постов в Твиттере и Фейсбуке, где якобы содержалось «неоспоримое подтверждение» сотрудничества США с боевиками ИГ. На самом деле – это был обрезанный скриншот из промо-видео к мобильной игре «AC-130 Gunship Simulator», а также видео работы ВВС Ирака по боевикам ИГ в 2016 году.

Научно-исследовательское агентство при Минобороны США в течение последних двух лет работает над созданием технологии, которая бы могла обнаруживать подобные высокотехнологичные подделки. Медиа пишут, что на научные разработки было потрачено около $68 млн.

Аудио и видеопрослушка становятся чем-то обычным, медиа часто спешат их распространить, не углубляясь в то, может ли это быть правдой. Сможем ли мы вообще со временем доверять аудио и видеозаписям? Могут ли им доверять правоохранители, учитывая, как дешево сейчас их сфальсифицировать. Как системно бороться с дипфейками, которые станут нормой жизни?

Эти вопросы мы задали известным украинским специалистам по информационной безопасности, участникам недавно прошедшей 15-й международной конференции по кибербезопасности UISGCON.

DEEPFAKE СТАВЯТ ИНТЕРЕСНЫЕ ЗАДАЧИ ПЕРЕД ПРОИЗВОДИТЕЛЯМИ ТЕХНИКИ

Кирилл Гобреняк, специалист в информационной безопасности:

– Понятие deepfake появилось недавно. Нам могут передать изображение человека – и он говорит то, чего ранее никогда не говорил, визуализирует для нас то, чего не происходило.

Тут интересная задача – идентифицировать то устройство, с которого якобы велась компрометирующая запись. Говорил или не говорил данный человек обнародованный и компрометирующий текст – тут возможен лишь один ответ. И получить (подтвердить либо опровергнуть) его поможет информация: с этого ли устройства велась данная запись?

В конце концов, в современных реалиях устройство может уникальным ключом подписывать файлы. И таким образом достоверность записи будет в какой-то степени гарантировать то, что оно сделано именно этим устройством. Я думаю, что это интересный вызов для производителей камер – подумать над системой ключей (технологиями), которые дадут такую опцию их продукту.

В банке мы подписываем ЕПЦ как доказательство благодаря нашему ключу. Точно также на камере должна быть возможность подписи снятого с нее видеоматериала, который будет доказывать, что этот материал снят только с этой камеры. И тогда дипфейк не пройдет. Как бы сама камера доказывает, что именно с нее был снят материал.

ГЛУБИННЫЙ ФЕЙК НЕ ВЫДЕРЖИТ НИ ОДНОЙ ГЛУБИННОЙ ПЕРЕПРОВЕРКИ ИНФОРМАЦИИ

Андрей Логинов, специалист по информационной безопасности:

– Я думаю, что вопрос дипфейков снимается, если выработать привычку диверсифицировать информацию. Получили носитель с какой-то информацией – и тут же стали искать другую, которая поможет скоррелировать ее с видеозаписью.

Например, мы знаем, что в данный промежуток времени произошло (либо могло произойти) событие, но мы не уверены: произошло оно или нет. Набираем статистически значимое количество информации из разных источников – и сравниваем.

Подделать все источники одновременно очень трудно, а иногда невозможно. Если выпало несоответствие информации, мы понимаем, что ее надо перепроверять более глубоко.

Давайте рассмотрим пример. Есть перекресток, где висит 12 камер, там произошло столкновение, полиция приехала, сняла видео с камер и зафиксировала. Как нам убедиться, что это не 3D-модель, не тот же фейк? Берем другие источники, информацию очевидцев, видео с камеры, которая установлена не на перекрестке, а у жильца.

Действительность той или иной информации всегда может подкрепить оперативная информация. Системно бороться с дипфейками не нужно, нужно иметь методики, подходы для того, чтоб понимать – модифицирована ли, «подготовлена» ли специальным образом полученная информация.

При наличии инструментария и дополнительных источников информации мы всегда сможем подтвердить либо опровергнуть события с вероятностью 70 либо 90 процентов.

Например, если есть канал компрометации, и видео, либо аудиозапись было скомпрометировано, то 70 процентов нам недостаточно для того, чтоб принять то или иное решение для оперативно розыскных действий либо поверить, что это правда. А 89 процентов – это достаточно. Если у нас есть достаточное количество информации, то мы можем верить и подписаться под этим. Если нет, то можем перепроверить и не использовать.

Меня с точки зрения сегодняшнего дня спрашивают, можно ли было проверить достоверность записей, например, кассетного скандала Леонида Кучмы и утверждение, что запись велась диктофоном? Трудно. Поскольку был только один источник. Но если бы я записал условного Кучму или любого другого один-два-три раза, имел семплы голоса, прогнал через алгоритм сопоставления, и получил 89% достоверности, то при наличии второго свидетеля или источника информации можно было бы доверять ей больше.

Могу ли я представить, что персонажем фейка могут стать значимые лица державы. Могу. Но, опять же, тут встает вопрос ответственности журналистов или других людей, которые распространяют это. Да, сейчас мир меняется, и никому и ничего нельзя доверять. Но он просто диктует нам новые подходы к информации. Подход недоверия нужно культивировать во всех.

Я БЫ НЕ ПРЕУВЕЛИЧИВАЛ ЗНАЧЕНИЕ DEEPFAKE

Сергей Дяченко, эксперт в сфере кибербезопасности:

– Я бы не преувеличивал значение deepfake. Хотя в этой теме пересекаются самые разные направления. Киберсоставляющая, цифровая дезинформация и информационная война как распространение фейкового контента. Плюс – оперативно-розыскная деятельность и ее скромная оперативно-техническая составляющая.

Убежден, что оперативная работа живого специалиста, которая базируется на правильной работе с агентурой, дезавуирует любые попытки создать и раскрутить deepfake. Глупо как излишне надеяться на технику, так и очень ее бояться.

Любую видео- и аудиозапись можно подделать – это правда. Но так же легко можно доказать, что она подделана.

Оперативная работа – основа достоверности, а все остальное – техническое обеспечение. Любые модные программы и графические редакторы – лишь дополнения. Одной только органолептикой можно посмотреть: врет или не врет данный персонаж. Эмоции, поведенческие реакции (когда ему забрасывается будоражащая информация), стереотипы говорят правду больше, чем подкинутое видео. Куда больший вызов – заставить людей работать.

Поверьте мне, как человеку, у которого есть раскрытые уголовные дела и по линии коррупции, и по разглашению гостайны. Если б я занимался исключительно техникой, то ни одного из этих результатов бы не было. Техника – подспорье, инструмент. За любой техникой, любым действием стоит человек. А против человека может работать только человек.

Конечно, журналисты подогревают скандалы с прослушками, которые в свою очередь тянут вопросы достоверности опубликованных записей. Журналистика – на то и журналистика, чтоб обострять и подогревать, но если речь идет о качестве, то тут нужно перепроверять.

В КАКОЙ-ТО МОМЕНТ ФОТОГРАФИИ И ВИДЕО МОГУТ ПЕРЕСТАТЬ ПРИНИМАТЬСЯ В СУДЕ

Алиса Миллер, программист, специалист по информбезопасности:

– Согласна, что deepfake – это вызовы сегодняшнего дня и для пользователей, и для правительств. И для производителей, которые уже пытаются на эти вызовы отвечать. Компания Adobe уже работает в этом направлении: они выпустили обновленную версию фотошопа, которая позволяет узнать – было ли видео или изображение отредактировано, и если да, то какая именно часть редактировалась.

Мне кажется, что в Украине это очень большая проблема. Потому что фейковые видео не имели бы никакого веса, если б их не публиковали СМИ, которые таким образом их легализуют.

В общем-то, проверка информации и так должна быть стандартом, но сейчас это становится просто сверхважным! Украина, к сожалению, не готова к таким проблемам.

Всем пишущим и снимающим нужна кибергигиена. Не сохраняя личные данные, вы подставляете под угрозу тех, чьи контакты у вас есть. Не перепроверяя информацию и публикуя ее, вы подставляете под угрозу ваше издание.

Весь персонал госструктур должен проходить обучающие тренинги, в том числе по перепроверке фактов.

Но проблема рискует стать системной, потому что в какой-то момент фотографии и видео могут перестать приниматься в суде. Поэтому работа по противодействию deepfake – это и проблема пользователей, и проблема государства, и проблема производителей. Искусственный интеллект нужно развивать не только в сторону создания фейков, но и для их обнаружения.

DEEPFAKE: РАЗВИВАТЬ НУЖНО НЕ ТОЛЬКО ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, НО И СОБСТВЕННОЕ КРИТИЧЕСКОЕ МЫШЛЕНИЕ

Алексей Барановский, преподаватель КПИ:

– Deepfake, образно говоря, – черный кит, который приплыл внезапно, но виден был издалека.

Любой инструментарий сначала используется теми, кем он задумывался с целью, для которой предназначался. Потом расширяется круг тех, кто пользуется и цели, для которых используется. Своего рода цифровая диалектика.

В 2011-2012 годах наши недруги стали массированно использовать информоперации. Для их проведения привлекали целые батальоны людей – для создания и продвижения неправдивого контента. Но потом к такой информации выработался определенный иммунитет. Появились способы быстро проверять информацию. Встала задача, как делать фейки, чтоб они были правдоподобными.

Чему верит человек? Тому, что кажется правдой. Он начинает верить фейку, когда его ожидания тут же подтверждаются, в том числе видео- и аудиозаписями. Правильно подготовленный фейк (скрепленный «видео», «аудио-подтверждениями») соответствует настроениям.

Чтобы глубоко разбираться в фейках, следует развивать критическое мышление, потому что большинство людей верит в то, что просто кажется им правдой.

Звучат предложения о том, чтобы подумать над этим производителям. Но какие-либо «водяные знаки» не решат проблему готовности и желанию людей верить в то, что подпитывает их настроения.

Развитие искусственного интеллекта не решит проблему развития интеллекта и мышления у людей – потребителей фейков.

Автор: Лана Самохвалова, Киев; УКРИНФОРМ

You may also like...