Искусственный Интеллект (ИИ) в роли преступника
Двадцать шесть экспертов по последствиям безопасности новых технологий совместно разработали новаторский доклад, в котором звучит тревога о потенциальном злонамеренном использовании искусственного интеллекта (ИИ) изгоев, преступников и террористов. Прогнозирование быстрого роста киберпреступности и злоупотребления беспилотными летательными аппаратами в течение следующего десятилетия – а также беспрецедентный рост использования «ботов» для манипулирования всем, начиная с выборов и заканчивая новостной повесткой дня и в социальных сетях, – явная и настоящая опасность, присущая множеству приложений ИИ.
Причины и условия возможных преступлений Искусственного Интеллекта (ИИ) пока что в корне отличаются от человеческих.
1) Первое ключевое отличие в том, что:
— у людей эти причины и условия определяются личностью преступника — совокупностью социально-психологических свойств и качеств человека,
— а у современных ИИ-систем, к счастью, личности пока что нет и в ближайшие годы не предвидится.
Тем не менее, одна из присущих людям основ возникновения преступного поведения у современных ИИ все же смогла сформироваться.
В криминологии она называется Теория дифференциальной ассоциации.
Ее суть в том, что девиантному поведению учатся – человек становится потенциальным преступником в результате обучения противоправному поведению в социальных микрогруппах (семья, улица, школа и т. д.). Попросту говоря, Теорию дифференциальной ассоциации, применительно к человеку, можно упрощенно резюмировать народной мудростью «с кем поведешься — от того и наберешься».
С ИИ несколько по-другому. Так уж получилось, что ключевым свойством современного ИИ является то, что его не программируют, а он учится сам в процессе анализа предоставляемых ему для обучения тренировочных наборов данных. И здесь Теория дифференциальной ассоциации выражается в том, что «на каких данных поучишься – того и наберешься».
Примеров того, как в результате обучения ИИ обретали сексистские, нацистские или хамские черты, множество. Про предвзятость и прочие когнитивные заморочки, – что и говорить.
В итоге понятно, что если обучать ИИ на «Майн Кампфе» Гитлера, дневниках Чикатило и подобной тренировочной базе данных, то как и у людей, ничего хорошего из него не получится.
2) Другое ключевое отличие причин и условий возможных преступлений человека и ИИ определяется абсолютной недоразвитостью последнего – отсутствием у него свободы воли и хоть каких-то этических и моральных принципов.
Из этого следует, что, попадая в руки людей, имеющих преступные замыслы (диктаторы, криминал или террористы), ИИ со 100%ной вероятностью будет способствовать исполнению их преступных намерений.
Иными словами, – попадая в руки преступников ИИ, сколь бы он ни был умен, обязательно превращается в наитупейшее орудие преступлений. И степень злобности, безнравственности и бесчеловечности последствий применения такого ИИ определяется лишь личностью применяющего его преступника. Если это что-то типа Гитлера или Чикатило, последствия могут быть сколь угодно ужасными и необратимыми. И от ИИ здесь вообще ничего не зависит.
Названные два ключевые отличия преступлений ИИ распространяются на все три сферы криминальной деятельности:
✔️ Цифровые преступления
✔️ Физические преступления
✔️ Политические преступления
Однако, специфика ключевых отличий преступлений ИИ существенно расширяет криминальный ландшафт, порождая 3 новых класса криминальных угроз:
1. ухудшенные и усиленные варианты уже существующих угроз;
2. принципиально новые угрозы;
3. изменение типичного (привычного) характера, как существующих, так и только вообразимых угроз.
➡️ Обо всем этом можно прочесть в 100 страничном отчете «Злонамеренное использование ИИ: прогнозирование, предотвращение и смягчение последствий» (https://maliciousaireport.godaddysites.com/), выпущенном 26ю экспертами из 14 организаций в феврале 2018 и с тех пор, к сожалению, почти что не упоминавшийся в российских медиа.
Резюме отчета в 2х взаимодополняющих статьях: 1я (https://www.cam.ac.uk/Malicious-AI-Report) и 2я (https://www.securityweek.com/malicious-use-artificial-intelligence-cybersecurity)
Резюме (банальное как сама жизнь):
Вся польза и весь вред от технологий ИИ в долгосрочной перспективе зависят не от технологий, а от того, как люди предпочтут их применять
Автор: Сергей Карелов; Малоизвестное интересное
Tweet