Вы арестованы за намерение. Как новейшие цифровые разработки помогают предсказывать и предотвращать преступления
В эпоху больших данных и мощных нейросетей неопределенность будущего становится чисто математической проблемой. Статистический анализ помогает вычислить паттерны поведения людей и их взаимоотношения, а алгоритмы — определить вероятность событий на основе данных о прошлом. Такие предсказания могут помочь человечеству избежать грядущих экономических кризисов, диагностировать и лечить еще не появившиеся болезни. Но самые передовые разработки предсказательного потенциала нейросетей направлены на системы безопасности, помогая военным эффективнее вести войну, а полицейским — предотвращать будущие преступления и ловить «латентных» преступников.
Чтобы предсказать преступление, нужно несколько параметров: определить место, время и тип будущего преступления, найти жертв будущего преступления и уточнить личности преступников.
Сами по себе эти методы статистического анализа не новы: картирование преступности, например, используется правоохранительными органами уже даже не первое столетие. Но теперь сбор информации и ее доступность стали беспрецедентными, а обработкой этих данных занимаются уже не люди, а совсем другие вычислительные мощности. Предсказательная криминалистика обещает избавить людей от страха, с помощью больших данных точно определяя, где и когда произойдут будущие преступления, — чтобы зарубить их на корню.
«Где мы, свободные от трудов
вернемся к природе,
обратно к зверям,
нашим братьям и сестрам
и все под присмотром
автоматов благодати и любви».
Ричард Бротиган
Какие данные помогают предсказать преступление
Основное правило сбора информации для предсказания преступлений — чем больше, тем лучше.
О каждом из нас можно собрать несколько типов данных: личная информация (возраст, пол, раса, национальность, вероисповедание), демографические данные (адрес проживания и места работы, зарплата, должность), информация о нашей активности (от любимых мест отдыха до участия в активистских движениях).
Сим-карта, биометрический паспорт, медицинская история, данные с видеокамер наблюдения, история активности в социальных медиа, кредитных карт и цифровых платежей — источники информации, которую законно собирать без разрешения.
Развитие технологий позволяет выжать всё больше информации из тех «следов», которые мы не задумываясь оставляем за собой по ходу повседневной жизни. Европейские законы о неприкосновенности личной информации — самые лояльные с точки зрения защиты приватности граждан, поэтому в Евросоюзе не усиливают слежку, а совершенствуют сбор данных из открытых источников. Ян Эллерман, старший специалист Европола по вопросам защиты данных, сказал так:
«Для более глубокого анализа информации из публичных источников, включая социальные медиа, Европол разрабатывает инструменты для снятия „отпечатка“ голоса, распознавания лиц, а также конвертации аудио в текст с дальнейшим переводом транскрипции на другой язык, например арабские тексты на английский».
В странах с военными конфликтами (как Израиль) или в более авторитарных режимах (вроде Китая) или же просто в странах, где баланс в вопросах приватности склоняется не в пользу граждан (как США), сбор данных о гражданах носит куда бóльшие масштабы.
Как предсказывают преступление
Полученные данные обрабатываются с помощью искусственного интеллекта с использованием машинного обучения. ИИ классифицирует собранные данные, попутно избавляясь от информационного шума, вырабатывает правила, по которым будет определяться исход будущих ситуаций, затем сопоставляет данные и делает вывод о вероятности тех или иных событий. Для этого используют математические модели и теории, на основании которых ИИ делает свои выводы и рассчитывает вероятности.
Одна из основных математических моделей, используемых в предсказании преступлений, называется «процесс Хоукса».
В основе этой модели — своеобразного антипода народной мудрости о том, что молния не бьет дважды в одно место — лежит идея плотной взаимосвязи событий: одно событие значительно увеличивает вероятность того, что вскоре последуют аналогичные события, а со временем их вероятность возвращается изначальному значению.
Хоукс разработал эту теорию, изучая землетрясения в 1970-х, и с тех пор ее успешно использовали для описания работы фондовой биржи, распространения эпидемий, электрических импульсов в мозге и даже при описании потока электронных писем внутри компаний. Эта же модель оказалась эффективной для предсказания времени и места ограблений и перестрелок между бандитами, и ее по сей день успешно используют в машинном предсказании преступлений.
Для предсказания ограблений также используется модель, позаимствованная криминальными экспертами из наблюдений за миром животных. Теория оптимального фуражирования утверждает: несмотря на то, что пища обеспечивает животных энергией, ее поиск и добыча требует и энергии, и времени, поэтому животные склонны выбирать такие стратегии поиска пищи, которые потребуют от них минимальных затрат.
Чтобы прокормиться, грабителю слишком накладно ездить из города в город, а иногда — даже посещать соседний район, чтобы поживиться чужим имуществом. Один из сторонников применения такой теории, профессор антропологии UCLA Джеффри Брантингем, утверждает, что «люди не настолько случайны, как нам кажется». Упрощение человека до городского «охотника-собирателя», движимого природными инстинктами, помноженное на статистику и машинное обучение, позволяет полиции эффективно предотвращать ограбления и ловить преступников. Сторонник теории оптимального фуражирования профессор Брантингем консультирует разработчиков и пользователей одной из самых авторитетных программ по предсказанию преступлений — PredPol (сокращенно от Predictive Policing).
Как появилась американская программа PredPol
«Один человек — неразрешимая загадка,
но в совокупности люди становятся математической достоверностью».
Артур Конан Дойл
Одним из главных идеологов предсказания преступлений считается Уильям Браттон, начавший свою полицейскую карьеру еще в 1970 году. В 80-х и 90-х он был основным сторонником применения полицией «теории разбитых окон»: «Если в здании разбито одно стекло и никто его не заменяет, то через некоторое время в этом здании не останется ни одного целого окна». Согласно этой теории, безнаказанность мелких преступлений вроде публичного пьянства, граффити и прыжков через турникеты в метро провоцирует более серьезные преступления вроде изнасилований, ограблений и убийств. Ее эффективность неоднократно подвергалась сомнению правозащитниками и, по мнению критиков, привела только к ужесточению наказаний за мелкие правонарушения и к еще большей криминализации афроамериканских общин.
В 1994 году Браттон занял пост начальника полиции Нью-Йорка и тогда же запустил программу CompStat (Compare Statistics), основанную на сборе и обработке статистических данных. Элементы этой программы можно увидеть в американском кино, когда копы наносят на карту отметки в местах, где орудовал маньяк, или когда на большой доске вывешивают фотографии преступников с подписями об их связях и злодеяниях. CompStat начал делать это в промышленных масштабах с использованием компьютеров, полиция Нью-Йорка год за годом улучшала свои показатели по раскрытию преступлений, и этот опыт стали перенимать копы по всему миру. Критики отмечали, что эта программа привела к ужесточению полицейских рейдов в бедных районах, в основном населенных афроамериканцами.
В 2008 году Браттон занимал пост начальника полиции уже в Лос-Анджелесе, а его методология перешла на следующий уровень. Он заявил, что теперь полиция будет не только реагировать на уже случившиеся преступления, но и активно перейдет к predictive policing — предсказанию и предотвращению будущих преступлений.
Браттон и его команда из ученых и полицейских стали заимствовать алгоритмы, разработанные американскими военными во время войны в Ираке: эти технологии отслеживали повстанцев, предсказывали места военных столкновений и заминированные зоны. Так на свет появилась программа PredPol, которая пользуется популярностью у копов и по сей день.
Город Санта-Круз в Калифорнии стал одним из первых городов, использующих PredPol.
Полицейским офицерам на планшеты каждый день заливали свежие карты с отмеченными на них красными квадратами, где указаны время, место и тип преступления, которое должно произойти сегодня. Полицейские должны патрулировать эти красные квадраты, чтобы либо поймать преступников с поличным, либо предотвратить преступление просто своим присутствием.
Зоны повышенной опасности — обычно их площадь составляет около 50 квадратных метров — отмечают специальные алгоритмы, которые для предсказаний используют базу данных о всех преступлениях в городе за последние 11 лет.
Как работают усовершенствованные базы данных Palantir
В 2009 году по инициативе Браттона Лос-Анджелес стал тестовой площадкой для еще одного гиганта в сфере предсказания преступлений — компании Palantir. Свое название эта компания позаимствовала из «Властелина колец»: там палантирами назывались стеклянные шары, в которых можно было увидеть прошлое, происходящее сейчас в другом месте, или выйти на связь с другими владельцами палантиров. Сторонники предсказания преступлений говорят, что «это звучит как фантастика — но это скорее научный факт».
Компания была создана в 2004 году, значительную часть стартового капитала выделило ЦРУ, а главным инвестором и владельцем стал Питер Тиль, американец немецкого происхождения. Свой стартовый капитал Тиль заработал, основав систему PayPal, которая затем поглотила аналогичный стартап X.com Илона Маска. Тиль также был первым внешним инвестором Facebook, в 2004 году купив 10 % стартапа Марка Цукерберга. И все же самым загадочным проектом Тиля стала частная компания Palantir, первое время специализировавшаяся на сотрудничестве с американскими военными и ЦРУ во время военных действий в Афганистане и Ираке.
Palantir не занимался непосредственно разведывательной деятельностью и не собирал данных — а анализировал их и упорядочивал в понятном для пользователей интерфейсе. С помощью Palantir военные выслеживали шпионов, террористов, раскрывали секретные локации и смогли найти и убить Усаму бен Ладена.
После военных испытаний разработчики из Palantir стали применять свои знания уже на гражданке, в том числе в Лос-Анджелесе. Их работа во многом сходна с работой PredPol: в основном это предсказание времени и места будущих преступлений, но с дополнительными возможностями. Например, если копы остановили машину с поломанной фарой и на пассажирском сиденье находился бывший преступник, то этот автомобиль мгновенно попадает в базу данных Palantir. Если через год происходит какое-то преступление и в радиусе 320 километров оказывается та же машина, которую заметили считывающие номерные знаки датчики, то копам сразу же передают информацию о том, что хронический нарушитель был неподалеку от места преступления.
Другая программа Palantir — «Готэм» (названа в честь родного города Бэтмена) — используется копами в «Операции „Лазер“», предназначенной для распознавания и задержания будущих преступников. Информация из протоколов задержаний, полицейских допросов и материалов уголовных дел загружается в единую базу данных, которая составляет список людей, считающихся рецидивистами и хроническими нарушителями спокойствия.
Этот список раздается полицейским: если человек из него находится рядом, тогда они должны под любым предлогом остановить и допросить его, даже если он не совершил никакого проступка.
Еще дальше пошли коллеги лос-анджелесских копов из Чикаго, где был составлен список из более чем 400 человек, которые с вероятностью более чем в 500 раз склонны к насилию и совершению преступлений в будущем. В список попали не только люди, уже совершившие преступления: часто туда попадают и те, у кого есть 2 и более знакомых из этого списка. Копы навещают молодых людей из этого списка и напоминают им, что они под присмотром и по первому же подозрению могут загреметь за решетку.
Палантировские системы также снабжены вторичной сетью наблюдения — паутиной контактов предполагаемых преступников, в которую входят их семья, друзья, приятели и половые партнеры. Эти данные доступны любому копу, использующему систему Palantir.
Кроме того, лос-анджелесские копы покупают личные данные у частных компаний: информацию из социальных медиа, закладных, дорожную информацию, видео с камер наблюдения в больницах, на частных стоянках, в университетах, даже информацию о доставке пиццы на дом.
В 2014 году Браттон вернулся на пост начальника полиции Нью-Йорка с уже отработанной методологией и отпраздновал свое возвращение масштабным полицейским рейдом, в котором были арестованы 103 человека. Основой для ареста стали два убийства, а также миллионы проанализированных постов в фейсбуке, по которым полиции удалось установить не только виновных в убийствах, но и их косвенных сообщников, а также людей, только собирающихся совершить преступления. Десятки молодых людей получили по 15 лет заключения за то, что планировали совершить преступления, которые так и не успели осуществить.
Как в Израиле предотвращают будущие теракты
Как правило, технологии, используемые для предсказания будущих преступлений, обкатываются в суровых боевых условиях, где возможность предсказывать будущее имеет более серьезные выгоды и последствия. Идеальной площадкой для тестирования таких технологий стал Израиль, в котором гражданская жизнь часто неотделима от жизни военных. Одну из ведущих ролей в цифровой слежке и предсказании преступлений в Израиле играет «Подразделение 8200» — подчасть израильской радиоэлектронной разведки.
В 2015 году Израиль захлестнула волна террористических актов, так называемая интифада ножей, когда молодые палестинцы, вооруженные холодным оружием, нападали на мирных израильтян. В ответ на эту волну израильские силовые структуры развернули кампанию по предсказанию преступлений, в которой одну из ключевых ролей сыграл мониторинг социальных сетей.
Начиная с 2015 года, часто на основании постов в социальных сетях, было задержано более 800 человек. Большинство из них задерживали на 4–6 месяцев без предъявления официальных обвинений, без суда и без прав на юридическую помощь, так как данные, касающиеся их дел, были строго засекречены.
Правозащитники, занимающиеся делами задержанных, приводят примеры оснований для задержания вероятных будущих преступников. В одном случае 14-летнюю палестинскую девочку арестовали после того, как она запостила на своей стене в фейсбуке сообщение с извинением “Please forgive me”: спецслужбы заподозрили, что она собирается совершить теракт и прощается со своими родными.
Другой палестинский молодой человек был задержан после того, как разместил на своей странице фотографию брата, застреленного израильскими военными двумя месяцами ранее. Министр разведки Израиля Исраэль Кац признает, что во время реакции на интифаду ножей благодаря использованию систем предсказания преступлений были арестованы и люди, не собирающиеся совершить теракты, но оно того стоило: «Были проведены аресты, число террористических атак сократилось, это значит, что это были те самые люди, никаких сомнений. Статистически мы арестовали нужных людей. Ну и что, что мы промахнулись тут или там в некоторых случаях? Цель оправдывает средства — предотвращение террористических атак».
Как предсказывают преступления в Китае
В США программы по предсказанию преступлений часто носят непубличный характер, когда граждан должны — но не предупреждают о том, что в их городе используются такие системы. Израильское правительство относится к своим программам еще серьезнее и держит все под грифом военной тайны. А тоталитарный по меркам западного мира Китай, наоборот, заявляет о своих программах во всеуслышание.
В июле 2017 года правительство КНР озвучило свои планы к концу 2030 года построить индустрию искусственного интеллекта с оборотом в 150 млрд долларов. По словам вице-министра науки и технологии Ли Мэнга, предсказание преступлений будет ключевой функцией искусственного интеллекта в правительстве Китая: «Если мы будем использовать наши умные системы и умное оборудование правильно, мы будем заранее знать, […] кто может стать террористом, кто может сделать что-то плохое».
Одна из самых амбициозных разработок Китая в этой области называется системой «Полицейское облако». Она собирает данные граждан из истории их покупок в супермаркетах, доставок еды и многого другого вплоть до плановых посещений больниц, во время которых забираются образцы ДНК.
Во многом эта система пересекается с методами сбора данных для определения социального рейтинга граждан, но идет дальше и выявляет скрытые от человеческих глаз паттерны — вроде того, какие подозрительные люди оказались в одном отеле или ехали на одном поезде. Полицейское облако интегрирует данные 63 типов из 43 государственных департаментов и отраслей промышленности. Туда же попадают рабочие данные граждан, их пользовательские имена, ip-адреса, аккаунты на интернет-форумах, все исходящие и входящие звонки, телефонные номера из записной книги, содержимое посылок и прочее.
Если в США значительная часть данных о пользователях принадлежит частным компаниям, то в Китае основным владельцем пользовательских данных выступает государство. Тем не менее «Полицейское облако» покупает данные о пользователях и у частных компаний, получает доступ к их интернет-истории, mac-адресам компьютеров и информации с их интернет-роутеров.
С помощью этих данных обучают мощные нейросети — и система выдает полицейским информацию обо всех подозрительных действиях граждан вплоть до ночевки в отелях рядом с местом их прописки или странного сочетания покупок в супермаркете.
В отдельных провинциях тестируются удобные для полицейских интерфейсы взаимодействия с «Полицейским облаком», например, в Шаньдуне действует программа «Утро в 8». Вся информация за вчерашний день, собранная «Полицейским облаком», анализируется, и на ее основе полицейских предупреждают о том, какая происходит необычная активность в их районе или где находятся так называемые фокусные персоны. В эту группу автоматически попадает семь категорий граждан: политические активисты, «подрывающие стабильность» люди, потенциальные и реальные террористы, крупные преступники, наркоторговцы и наркоманы, разыскиваемые люди и люди с психическими отклонениями. С помощью системы «Облачная прогулка» подозрительные лица распознаются камерами и с помощью 176 млн видеокамер наблюдения, расставленных по всему Китаю, их отслеживают во всех их перемещениях. Если такие «фокусные персоны» появляются в важных частях города, ближайшие к месту полицейские автоматически получают сигнал тревоги, чтобы взять ситуацию под контроль.
Как человеческие предрассудки проникают в машинные алгоритмы
В 1998 году суды США начали использовать программу Compas, которая на основании 137 источников информации должна предсказывать вероятность рецидивизма преступников. С помощью этой программы судьи решают, кому продлить наказание, кого можно отпустить на свободу или выпустить под залог и под какую сумму. Систему использовали уже больше миллиона раз, и пользуются ей и сегодня, но она вызывает массу нареканий. Исследователи из Дартмутского колледжа недавно провели эксперимент, доказавший, что люди всё еще предсказывают рецидивы преступников точнее алгоритмов. Для эксперимента они наняли 462 человека без юридического образования, снабдили их данными о криминальном прошлом преступников и попросили угадать, совершат ли они повторное преступление.
Оказалось, что предсказания случайно подобранных людей оказались верными в 67 % случаев, а предсказания Compas — в 65 %. Также было доказано, что, несмотря на одинаковую криминальную историю белого и чернокожего преступников, Compas в два раза чаще предполагает, что рецидивистом станет афроамериканец.
Проблема расовой предвзятости — один из самых очевидных и часто обсуждаемых недостатков систем предсказания преступлений. В США такие системы с особым подозрением относятся к афроамериканцам, в Израиле — к палестинцам, а в Китае — к уйгурам (десятимиллионному мусульманскому народу, живущему в КНР). Однажды попав в список подозрительных лиц, человек уже не может избавиться от слежки и подозрения со стороны системы. Если подозреваемыми могут стать целые народы и этнические группы, логично предположить, что дальше внимание машин может быть обращено на представителей целых экономических классов, жителей отдельных районов и даже городов, а в конечном итоге имеет потенциал превратиться в оружие дискриминации по любому удобному признаку.
Как контроль становится проблемой, которую нельзя контролировать
В 2009 году крупнейший финансовый холдинг США JPMorgan Chase начал сотрудничать с компанией Palantir для обеспечения своей внутренней безопасности. Palantir выделил 120 инженеров, которые под руководством Питера Кавиччиа — бывшего агента Секретной службы США, а на тот момент главы отдела по борьбе с внутренними угрозами — стали следить за другими сотрудниками JPMorgan.
Кавиччиа должен был выявлять среди работников холдинга мошенников, собирающихся провернуть махинацию. Для этого в базу данных собирались все электронные письма, истории браузеров, gps-данные со всех смартфонов компании и записи телефонных разговоров сотрудников. Затем эти данные обрабатывали с помощью алгоритма от компании Palantir, который помечал все подозрительные паттерны в поведении сотрудников и бил тревогу, если угроза мошенничества становилась ощутимой.
Уход с работы позже обычного, например, считался подозрительным признаком — и тогда слежка за этим работником усиливалась. Сотрудники со временем стали подозревать, что за ними следят, и стали специально упоминать в своих телефонных разговорах выдуманные истории, чтобы проверить, последует ли за этим реакция Кавичии — и она всегда следовала.
Эксперимент закончился, когда руководители холдинга поняли, что Кавиччиа следит и за ними. Его уволили, а контракт с Palantir расторгли. Людей, оплачивавших услуги Palantir, возмутил не факт слежки как таковой — а то, что следили за ними самими.
Какие новейшие разработки уже помогают наказывать за намерение
Следующим шагом после предсказания будущих преступлений должна стать система их предотвращения. В незатейливой рекламе компании IBM американский коп спокойно покупает кофе, смотрит на часы и не спеша едет в соседний район, где так же спокойно встречает преступника, собиравшегося ограбить магазин, как бы поднимая чашечку кофе за его здравие. Неудачливый преступник разворачивается и с досадой удаляется. Вот так полиция и корпорации, разрабатывающие искусственный интеллект, видят светлое будущее превентивной борьбы с преступностью.
Другой безобидный пример с использованием искусственного интеллекта для автоматического предотвращения преступления недавно представили в Китае. Эти электронные полицейские с помощью лазеров и камер распознают человека, собирающегося перейти дорогу не по правилам, — и распыляют на него воду.
Министерство внутренней безопасности США разрабатывает систему FAST (Future Attribute Screening Technology), которая мониторит «дыхание, активность сердечно-сосудистой системы, движение глаз, тепловые показатели и резкие движения тела». Эта система работает как детектор лжи, но в отличие от него она работает на расстоянии, чтобы «удаленно (а следовательно, и более безопасно) распознать плохие намерения (то есть намерения причинить вред)». Легко можно представить, как в ближайшем будущем автоматические системы будут блокировать цифровые устройства, если на них происходит подозрительная активность, двери вашей квартиры не будут открываться, если вы находитесь в возбужденном состоянии или в плохом настроении, а лифты откажутся везти вас на нужный этаж, если с собой у вас будет подозрительный набор продуктов.
Контроль над мыслями и эмоциями тоже может сыграть важную роль в предотвращении преступлений. В 2014 году Facebook опубликовал результаты эксперимента, показавшего, как через контроль новостной ленты можно управлять позитивными и негативными эмоциями пользователей. С развитием подобных алгоритмов станет возможно создание вокруг пользователей такой реальности, которая минимизирует вероятность реализации их преступных наклонностей в виде грабежей, насилия или несанкционированных политических протестов.
В исследовании 2015 года «Глубинное изменение — технологические переломные моменты и социальное воздействие» 82 % из 800 руководителей высшего звена технологических компаний крупных стран сошлись в прогнозе, что к 2025 году в продаже появится первый имплантируемый мобильный телефон.
Считывая волны мозга, он сможет передавать между пользователями потенциально невысказанные мысли и настроения. Среди негативных последствий были, как всегда, названы нарушение приватности жизни, потенциальное наблюдение и снижение безопасности пользовательских данных. Однако в деле предсказания и предотвращения преступлений такая технология может стать революционным средством, с помощью которого мы в реальности увидим борьбу с мыслепреступлениями.