Искусственный Интеллект (ИИ) в роли преступника

Двадцать шесть экспертов по последствиям безопасности новых технологий совместно разработали новаторский доклад, в котором звучит тревога о потенциальном злонамеренном использовании искусственного интеллекта (ИИ) изгоев, преступников и террористов. Прогнозирование быстрого роста киберпреступности и злоупотребления беспилотными летательными аппаратами в течение следующего десятилетия — а также беспрецедентный рост использования «ботов» для манипулирования всем, начиная с выборов и заканчивая новостной повесткой дня и в социальных сетях, —  явная и настоящая опасность, присущая множеству приложений ИИ.

 

Причины и условия возможных преступлений Искусственного Интеллекта (ИИ) пока что в корне отличаются от человеческих.

 

1) Первое ключевое отличие в том, что:

— у людей эти причины и условия определяются личностью преступника — совокупностью социально-психологических свойств и качеств человека,

— а у современных ИИ-систем, к счастью, личности пока что нет и в ближайшие годы не предвидится.

Тем не менее, одна из присущих людям основ возникновения преступного поведения у современных ИИ все же смогла сформироваться. 

В криминологии она называется Теория дифференциальной ассоциации. 

Ее суть в том, что девиантному поведению учатся — человек становится потенциальным преступником в результате обучения противоправному поведению в социальных микрогруппах (семья, улица, школа и т. д.). Попросту говоря, Теорию дифференциальной ассоциации, применительно к человеку, можно упрощенно резюмировать народной мудростью «с кем поведешься — от того и наберешься».

С ИИ несколько по-другому. Так уж получилось, что ключевым свойством современного ИИ является то, что его не программируют, а он учится сам в процессе анализа предоставляемых ему для обучения тренировочных наборов данных. И здесь Теория дифференциальной ассоциации выражается в том, что «на каких данных поучишься – того и наберешься».

Примеров того, как в результате обучения ИИ обретали сексистские, нацистские или хамские черты, множество. Про предвзятость и прочие когнитивные заморочки, — что и говорить.

В итоге понятно, что если обучать ИИ на «Майн Кампфе» Гитлера, дневниках Чикатило и подобной тренировочной базе данных, то как и у людей, ничего хорошего из него не получится.

2) Другое ключевое отличие причин и условий возможных преступлений человека и ИИ определяется абсолютной недоразвитостью последнего — отсутствием у него свободы воли и хоть каких-то этических и моральных принципов.

Из этого следует, что, попадая в руки людей, имеющих преступные замыслы (диктаторы, криминал или террористы), ИИ со 100%ной вероятностью будет способствовать исполнению их преступных намерений. 

Иными словами, — попадая в руки преступников ИИ, сколь бы он ни был умен, обязательно превращается в наитупейшее орудие преступлений. И степень злобности, безнравственности и бесчеловечности последствий применения такого ИИ определяется лишь личностью применяющего его преступника. Если это что-то типа Гитлера или Чикатило, последствия могут быть сколь угодно ужасными и необратимыми. И от ИИ здесь вообще ничего не зависит.

Названные два ключевые отличия преступлений ИИ распространяются на все три сферы криминальной деятельности:

✔️ Цифровые преступления

✔️ Физические преступления

✔️ Политические преступления

Однако, специфика ключевых отличий преступлений ИИ существенно расширяет криминальный ландшафт, порождая 3 новых класса криминальных угроз:

1. ухудшенные и усиленные варианты уже существующих угроз;

2. принципиально новые угрозы;

3. изменение типичного (привычного) характера, как существующих, так и только вообразимых угроз.

➡️  Обо всем этом можно прочесть в 100 страничном отчете «Злонамеренное использование ИИ: прогнозирование, предотвращение и смягчение последствий» (https://maliciousaireport.godaddysites.com/), выпущенном 26ю экспертами из 14 организаций в феврале 2018 и с тех пор, к сожалению, почти что не упоминавшийся в российских медиа.

Резюме отчета в 2х взаимодополняющих статьях: 1я (https://www.cam.ac.uk/Malicious-AI-Report) и 2я (https://www.securityweek.com/malicious-use-artificial-intelligence-cybersecurity)

Резюме (банальное как сама жизнь):

Вся польза и весь вред от технологий ИИ в долгосрочной перспективе зависят не от технологий, а от того, как люди предпочтут их применять

Автор: Сергей Карелов; Малоизвестное интересное

 

Читайте также: