Все используют ботов: иностранные злоумышленники, внутриполитические группы, даже сами кандидаты. И скоро вы не сможете отличить ботов от живых людей.
Кампания по выборам президента США официально стартовала, что означает в свою очередь обилие странных и коварных способов, которыми технология искажает политику. Одна из самых больших угроз — искусственные личности, с жаром участвующие в политических спорах. С одной стороны технология генерации текста на основе искусственного интеллекта развивается как никогда быстро, с другой стороны чат-боты в социальных сетях практически достигли совершенства. Эти сгенерированные компьютером «люди» скоро заглушат реальные человеческие дискуссии в сети.
Программное обеспечение для генерации текста достаточно хорошо развито, чтобы обмануть почти любого. Компьютер отлично пишет новости, особенно на тему спорта и финансов, консультирует клиентов на сайтах, посвящённых инвестициям, пишет убедительные статьи по другим темам в новостях (хотя есть ограничения).
При этом уже существуют алгоритмы, которые могут генерировать контент, неотличимый от записей простых пользователей. В 2017 году Федеральная комиссия по связи проводила общественные обсуждения своих планов по отмене сетевого нейтралитета. По данной теме было получено ошеломляющее количество комментариев – более 22 миллионов. Многие из них — возможно, половина — были фейковыми, злоумышленники использовали краденные данные удостоверений личности. Часть комментариев были грубыми, 1,3 миллиона оказались сгенерированы из одного шаблона – в них некоторые слова были изменены, дабы сделать сообщения уникальными.
И технологии в этой сфере активно развиваются. В своём эксперименте специалист из Гарварда Макс Вайс использовал программу генерации текста, чтобы создать 1000 комментариев в ответ на инициативу правительства по Medicaid. Все эти комментарии были уникальными и выглядели будто написанные настоящими людьми, выступающими в поддержку определённой политической позиции. Им удалось обмануть администраторов сайта Medicaid.gov, которые приняли их за искренние опасения реальных людей. В ходе исследования Вайс впоследствии раскрыл поддельность комментариев и попросил их удалить. Но другой человек или группа злоумышленников, которые пойдут по этому пути, навряд ли будут столь же высокоморальными.
Чат-боты на протяжении многих лет присутствовали в дискуссиях социальных сетей. По одной из оценок, около пятой части всех твитов о президентских выборах 2016 года были опубликованы ботами, по голосованию за Брексит в том же году – около трети. В отчете Оксфордского университета за прошлый год исследователи обнаружили доказательства того, что боты используются для распространения пропаганды в 50 странах. Как правило, это были простые программы, бездумно повторяющие лозунги: например, четверть миллиона просаудитских твитов «Мы все верим в Мохаммеда бен Салмана» после убийства Джамала Хашогги в 2018 году. Обнаружение более совершенных ботов гораздо сложнее. И измерить эффективность этих ботов сложно. Все они искажают общественное мнение и веру в аргументированные политические дебаты. По сути, мы все находимся в разгаре нового социального эксперимента.
За прошедшие годы у алгоритмических ботов появились целые личности. У них есть фальшивые имена, фальшивые биографии и фальшивые фотографии, иногда сгенерированные компьютером. Вместо того, чтобы бесконечно извергать пропаганду, они публикуют сообщения лишь изредка. Исследователи могут обнаружить, что это боты, а не люди, основываясь на шаблонах публикаций, но технология ботов все время совершенствуется, опережая попытки их отследить. Боты будущего будут лучше маскироваться под социальные группы людей, пропаганда будет тонко вплетена в твиты на темы, относящиеся к этим социальным группам.
Вскоре персонажи, управляемые программой, смогут писать персонализированные письма в газеты, в личку выборным должностным лицам, представлять индивидуальные комментарии для процессов общественного нормотворчества и разумно высказываться по политическим вопросам в социальных сетях. Они смогут комментировать посты в социальных сетях, новостные сайты и т. д. Будут созданы постоянные персонажи, которые покажутся реальными даже тому, кто их изучает. Они смогут представлять себя в социальных сетях и отправлять персонализированные тексты. Они будут тиражироваться миллионами и круглосуточно посылать миллиарды сообщений, длинных и коротких. Вместе они смогут заглушить любые реальные дебаты в Интернете. Не только в социальных сетях, но и везде, где есть комментарии.
Возможно, эти персонажи будут контролироваться иностранными злоумышленниками. Может быть, это будут внутриполитические группы. Может быть, это будут сами кандидаты. Скорее всего, этим будут пользоваться все. Самый важный урок выборов 2016 года о дезинформации состоит не в том, что дезинформацию удалось опубликовать; но в том, что людей дезинформировать дешево и легко. Будущие технологические усовершенствования сделают все это еще более доступным.
Наше будущее будет состоять из бурных политических дебатов, где боты в основном будут спорить другими ботами. Это не то, что мы представляем себе, когда хвалим рынок идей или какой-либо демократический политический процесс. Для правильной работы демократии необходимы две вещи: информация и представительство. Искусственные персонажи бьют по обоим вещам.
Решение проблемы пока неочевидно. Мы можем попробовать регулировать использование ботов — предлагаемый закон штата Калифорния требует, чтобы боты идентифицировали себя — но это эффективно только против законных кампаний влияния, таких как реклама. Скрытое влияние будет намного сложнее обнаружить. Наиболее очевидной защитой является разработка и стандартизация лучших методов аутентификации. Если социальные сети будут уверены, что за каждым аккаунтом стоит реальный человек, то они смогут лучше отсеивать фальшивых персон. Но фальшивые аккаунты уже регулярно создаются с использованием данных реальных людей без их ведома или согласия. У нас нет системы аутентификации, которая защищала бы конфиденциальность и могла охватить миллиарды пользователей.
Мы можем лишь надеяться, что наша способность идентифицировать искусственных личностей догонит способность маскировать их. Но пока злоумышленники всегда на шаг впереди.
В конце концов, любые решения должны быть нетехническими. Мы должны признать ограничения политических дебатов в Интернете и снова отдать приоритет личному общению. Его сложнее автоматизировать, и мы знаем, что люди, с которыми мы разговариваем, являются настоящими людьми. Но пока этот культурный сдвиг кажется совершенно нереальным решением, а попытки дезинформации распространены по всему миру и проводятся более чем в 70 странах. Это нормальный способ пропаганды в странах с авторитарными режимами, и он становится способом ведения политической кампании.
Искусственные персонажи — будущее пропаганды. И хотя они могут быть неэффективными в приведении дискуссии к определённому знаменателю, они легко могут полностью заглушить дискуссию.
БРЮС ШНЕЙЕР — научный сотрудник и преподаватель Гарвардской школы Кеннеди.
Автор: Брюс Шнайер; The Atlantic
Перевод и адаптация: The Idealist