Издание Intelligencer проанализировало мировой интернет трафик, чтобы определить, какую его часть генерируют боты.
Эта проблема влияет на достоверность метрик. На первый взгляд, метрики — самая надёжная вещь в интернете: их можно посчитать, отследить и верифицировать. Но точные цифры не может собрать даже Facebook: недавно на соцсеть подали в суд за фальсификацию времени просмотра пользователями видеороликов. По словам Facebook, она преувеличивала данные лишь на 60-80 процентов, по мнению обвинителей — на 150-900 процентов. Согласно MarketingLand, за последние два года соцсеть публиковала множество фальшивой статистики о просмотрах и трафике. Например о том, что на Facebook Watch 75 млн человек смотрели по крайней мере минуту видео в день. Позже компания признаёт, что эти 60 секунд не обязательно должны были быть просмотрены непрерывно.
По словам Intelligencer, на YouTube «процветает» продажа фейковых просмотров, хотя видеохостинг заявляет, что боты генерируют лишь мизерную их часть. Как пишет Times, 5 тысяч просмотров (длительностью не менее 30 секунд) на YouTube можно купить за $15. Многие покупатели думают, что трафик будут создавать реальные люди, но в основном это не так. Некоторым платформам просмотры и скачивания генерируют «клик-фермы» — сотни смартфонов на полках, «смотрящих» одно и то же видео.
I never tire of looking at videos of Chinese click farms. It’s just so surreal to see hundreds of phones playing the same video for the purposes of fake engagment. pic.twitter.com/bHAGLqRqVb
— Matthew Brennan (@mbrennanchina) 10 декабря 2018 г.
Кроме того, есть боты-инфлюенсеры в соцсетях, таких как Instagram: с фальшивыми профилями и фотографиями, но реальным влиянием.
В отдельных случаях не совсем очевидно, считать ли трафик настоящим: например, когда видео смотрят интернет-тролли, которые притворяются кем-то другим и используют чужие данные, или же когда люди выставляют себя за высокоинтеллектуальных ИИ-ассистентов, например в компаниях, которые хотят похвастать «передовыми технологиями».
Также Intelligencer отмечает сложность в определении автора генерируемого в сети контента. Так, в последнее время распространились созданные искусственным интеллектом порнографические ролики и картинки deepflakes, на которых лица актёров заменены лицами знаменитостей. Nvidia недавно представила технологию, которая позволяет создавать неотличимые от настоящих человеческие лица. По мнению издания, в будущем проблемой может стать не только то, что люди верят поддельным фотографиям, но и то, что они могут перестать верить настоящим.