Искусственный интеллект. Большие данные. Преступность
Шрифт:
Идея использовать робота как орудие убийства [20] – тривиальная. Первым человеком, погибшим от робота, стал американский рабочий С. Форд в 1970-е гг. Он работал на автоматизированном предприятии, выполнявшем покрасочные работы для автомобильной индустрии. В результате нарушения программы, отвечающей за координацию автоматических манипуляторов одного из роботов, последний вместо дверцы схватил за шею рабочего и удушил его. В 2016 г. произошло первое целенаправленное убийство с использованием робота. В палате интенсивной терапии госпиталя ордена иезуитов в Сан-Мигеле больной
20
Подробно эти проблемы рассмотрены в работе: Е. Ларина, В. Овчинский. Роботы-убийцы против человечества. Киберапокалипсис сегодня. М., 2016.
В течение 2015–2016 гг. агенты под прикрытием и осведомители ФБР и полиции США неоднократно сообщали, что преступные синдикаты по-прагматичному серьезно обсуждали различные варианты убийств, используя насыщенные электроникой автомобили, умные дома, медицинские комплексы и т. п. Поскольку у преступников обычно мысли не расходятся со словом, а слово – с делом, вполне можно ожидать появления в Америке принципиально нового явления.
ФБР всерьез готовится к появлению подпольного синдиката, специализирующегося на заказных высокотехнологичных убийствах, замаскированных под технические инциденты различного рода. Принимая во внимание объем рынка заказных убийств в США, составляющий около 2 млрд, долларов в год, мы ожидаем появление такого сетевого синдиката, а скорее всего не одного, а нескольких, во временном интервале одного-двух лет.
Главным инструментом подобных синдикатов должны быть не хакерские программы сами по себе, а ИИ. Тонкость здесь в следующем. Различного рода автоматизированные автономные системы в подавляющем большинстве управляются из единого вычислительного центра, функционирующего как ИИ. Это позволяет осуществлять роевое обучение. Соответственно, подключиться и заместить команды одного ИИ может только другой. Программисту это не под силу. Он будет распознан из-за большей медлительности и меньшей алгоритмичности действий и операций.
Плюс только ИИ под силу замаскировать злонамеренное отключение или выполнение несанкционированных действий техническим отказом. Несмотря на некоторую экстравагантность, в ближайшее время данный преступный промысел может стать реальностью.
§ 6. Этика ИИ
В 1942 г. великий Айзек Азимов в рассказе «Хоровод» сформулировал три коротких закона робототехники:
«1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
Эти три закона и являются этикой роботов и ИИ. Однако самонадеянные программисты, разработчики и деловые люди забыли об Айзеке Азимове. Сегодня не существует этики ИИ или роботов. Программы, написанные для экспертных систем или робототехники, не включают встроенные ограничители и не учитывают три закона робототехники Азимова.
Существует три принципиально разных типа реальных этических проблем, связанных с применением ИИ и неразрывно связанной с ним робототехники. Это:
• этические вопросы программирования ИИ;
• этические вопросы результатов и выводов, полученных ИИ;
• этические вопросы действия людей, принимающих решения на основе информации ИИ, а также автоматизированных робототехнических устройств, управляемых ИИ.
Практически каждая программа и приложение, тем более такие сложные как программы ИИ, содержат много ошибок. Часть из них устраняется в процессе эксплуатации, часть – остается необнаруженной в течение всего жизненного цикла программно-аналитического комплекса.
Ошибки при программировании бывают двух типов. Первый порожден некачественным кодом, т. е. просчетами и недостаточной квалификацией программистов. Здесь никаких этических проблем и вопросов юридического характера не возникает. Если программист ошибся, и его ошибки привели к тяжелым последствиям для отдельных граждан или компаний, то он несет административную или юридическую, вплоть до уголовной, ответственность. Согласно статистике в 2015 г. более 60 % открытых ФБР и полициями штатов дел, связанных с компьютерными преступлениями, было связано с деятельностью хакеров, а почти 15 % – с ошибками программистов и разработчиков, приведших к имущественному и иному ущербу. Это самая простая проблема. Она превратилась в рутину.
Второй тип ошибок гораздо более коварен. В его основе лежат неверные алгоритмы. Алгоритм представляет собой математически записанную последовательность операций и правил. Составители алгоритмов и программисты – это разные люди. Программист пишет кодом алгоритм, после чего последний превращается в работающую программу.
Главная проблема состоит в том, что алгоритмисты – это в 90 % случаев математики. Причем подавляющее число из них не имеет второго образования, и испытывают определенные сложности в общении с представителями гуманитарных знаний и профессий, включая юристов, врачей, экономистов, правоохранителей. Суть алгоритма состоит в построении цепочки действий на языке математики тех правил и закономерностей, которые сложились в реальной деятельности. Однако из-за того, что алгоритмисты и предметные специалисты зачастую не понимают друг друга, возникают ошибки в алгоритмах.
Вторая группа этических проблем связана с интерпретацией результатов программ человеком или автономным автоматизированным устройством. Если тема этики программирования обсуждается последние 15 лет, то вопрос неверных алгоритмов встал буквально в последние два-три года. Как любой сложный вопрос, он имеет множество акцентов. Главная проблемав том, что с массовым применением в программировании метода нейронных сетей даже разработчики, не говоря уже о предметниках, а тем более обычных профессиональных пользователях, как уже отмечалось, перестали понимать, почему программа делает именно такие выводы, а не иные.
Для того чтобы объяснить коллизию, придется в нескольких словах охарактеризовать отличие нейронных сетей от обычной программы. Обычная программ может быть записана на бумаге, как последовательность операций. Нейронная сеть – это самосовершенствующаяся программа. В ней задается исходно только архитектура и правила изменения удельных весов при принятии решения. Все остальное делает алгоритм. Грубо говоря, нейронные сети – это черные ящики. Известна только информация на входе и на выходе. И больше – ничего.