Loch Earn / ShutterstockLoch Earn / Shutterstock
истории

Британские власти работают над алгоритмом для вычисления «будущих преступников» — например, по данным о гендере и расе Это не только узаконит дискриминацию уязвимых людей, но и вряд ли поможет полиции

Источник: Meduza

В начале апреля группа правозащитников и расследователей Statewatch рассказала о новом проекте Министерства юстиции Великобритании. Его цель — вычислять граждан, которые с высокой вероятностью могут совершить серьезные преступления. По словам официальных лиц, пока эта инициатива находится на стадии исследований и никаких конкретных планов по ее применению нет. Однако активисты считают методы властей неэтичными и опасаются, что они усугубят дискриминацию и без того уязвимых сообществ. «Медуза» рассказывает о спорах вокруг проекта, который его противники называют «антиутопическим», а также о том, чем заканчивались другие попытки использовать программы для прогнозирования преступлений.


Власти: программа поможет вычислить рецидивистов и обезопасить граждан. Активисты: это вторжение в частную жизнь — не только преступников, но также свидетелей и жертв

Официально британские власти не сообщали о разработке алгоритма, позволяющего обнаружить наиболее вероятных «будущих убийц». Участники Statewatch узнали об исследовании из документов, которые им удалось получить в соответствии с законом о свободе информации. Так, выяснилось, что изначально инициативу назвали «проектом по предсказанию убийств», но позже переименовали в «обмен данными для улучшения оценки риска». Разработку алгоритма санкционировал Риши Сунак, когда занимал должность премьер-министра. 

В комментарии Минюста говорится, что проект подразумевает «пересмотр характеристик нарушителей, которые увеличивают риск совершения убийства» и «поиск альтернативных инновационных методов анализа данных для оценки риска убийства». При составлении алгоритма власти использовали имена и даты рождения, а также гендерную и этническую принадлежность тех, кто раньше задерживался полицией. 

«Проект проводится исключительно в исследовательских целях, — заверил представитель Минюста. — В его основу легли данные тюремной службы и полиции об осужденных преступниках. Таким образом мы хотим оценить риски совершения насильственных действий у тех, кто выходит на свободу по УДО». Власти считают, что проект поможет государству более эффективно защищать население. По словам чиновников, когда исследование завершится, они опубликуют отчет с результатами. 

Узнав об этой инициативе, правозащитники заявили, что власти собираются использовать данные не только преступников, но и вообще всех, кто когда-либо контактировал с полицией — например, подозреваемых, чья вина не подтвердилась, жертв и тех, кто добровольно связывался с правоохранительными органами, чтобы помочь в расследовании. Известно, что Минюст действительно договорился о таком обмене данными с несколькими ведомствами, включая службу по условно-досрочным освобождениям и полицию Большого Манчестера

По словам активистов, помимо информации о предыдущих судимостях, власти собираются использовать сведения о возрасте, когда человек впервые был зарегистрирован в качестве жертвы (например, домашнего насилия) и впервые контактировал с полицией. В работе алгоритма также используются «особые категории личных данных» о психическом здоровье, зависимостях, суицидальных наклонностях и склонности к селфхарму, а также об ограниченных возможностях здоровья. Разработчики алгоритма считают, что такие сведения имеют «значительную предсказательную силу». 

Представительница Statewatch София Лайалл назвала попытку британских властей разработать программу по вычислению «будущих убийц» пугающей и антиутопической. «Исследования вновь и вновь показывают, что такие системы по умолчанию несовершенны, — добавила Лайалл. — Эта новейшая модель использует данные полиции и Министерства внутренних дел — двух структур, которым присущ институциональный расизм. Такой подход усилит структурную дискриминацию, и без того пронизывающую систему уголовного права». 

Лайалл считает, что от правительственного алгоритма неизбежно пострадают сообщества с низким достатком и расовые меньшинства. «Создание автоматического инструмента, который будет идентифицировать людей в качестве жестоких преступников, само по себе неправильно, — сказала правозащитница. — А использование личных данных о психическом здоровье, зависимостях и ограниченных возможностях является вторжением в частную жизнь». 

По данным Statewatch, изначально исследование должно было закончиться в декабре 2024-го, но этого не случилось. Когда завершится проект — неизвестно. 

Попытки прогнозировать преступления часто бывают неудачными. Но власти от них не отказываются  

В 2019 году британская полиция уже тестировала аналогичный алгоритм, основанный на машинном обучении. Тогда программа, запущенная по инициативе Министерства внутренних дел, должна была предсказывать места, в которых с высокой вероятностью произойдет преступление, а также идентифицировать людей, которые могут стать жертвами или преступниками. Проект обошелся в 48 миллионов фунтов. На одном из этапов тестирования каждому человеку на основе 34 характеристик присуждался уровень риска: высокий, средний или низкий. 

Программу начали или собирались применять ведомства 14 территориальных единиц, однако часть из них отказалась от нее, и дальнейшего развития проект так и не получил.

Основная претензия со стороны правозащитников к алгоритму тогда, как и сейчас, была в том, что он узаконивает предвзятость против людей определенных социальных групп, которая и так свойственна правоохранительным органам. Критики называли программу «черным ящиком», потому что широкой общественности оставалось неизвестно, как совокупность конкретных данных позволяет делать вывод, что человек, скорее всего, совершит преступление. Вероятно, именно обвинения в неэтичности вынудили британские власти не применять алгоритм на национальном уровне. 

В 2023 году издания Wired и The Markup опубликовали совместный репортаж о попытках внедрения аналогичного алгоритма в американском городе Плейнфилд, штат Нью-Джерси. Там полицейский департамент за 20,5 тысячи долларов оформил годовую подписку на программу Geolitica, которая должна была предсказывать место и время вероятного преступления. Журналисты проанализировали более 23,5 тысячи прогнозов о типе и месте гипотетического происшествия, сделанных алгоритмом с 25 февраля по 18 декабря 2018 года, и обнаружили, что сбылось менее ста из них. 

Одна из проблем, связанных с использованием программы, заключалась в том, что Geolitica прогнозировала около 80 правонарушений в день. В Плейнфилде, население которого составляет около 54 тысяч человек, за этот период ни разу не было зафиксировано более 22 преступлений в день. В других маленьких городах, где применяли программу, она иногда прогнозировала еще больше преступлений. Из-за этого полицейским порой приходилось патрулировать районы, где ничего не происходило, и безрезультатно расходовать и без того скромные ресурсы. 

«Прогнозирование преступлений там, где они не происходят, может иметь разрушительные последствия, — отметил криминолог Дэвид Вайсбурд. — Полиция — это государственная служба, но ее использование может привести к негативному результату. Если вы отправляете куда-то патруль, там может произойти что-то плохое». 

«Думаю, это показывает, насколько ненадежны инструменты, которые продают полицейским департаментам, — прокомментировал выводы журналистов правозащитник Диллон Райзман. — Мы видим это повсюду в Нью-Джерси. Полиция закупает непроверенные инструменты и надеется решить все свои проблемы. Но в конце концов все, что делают создатели таких программ, — это усугубляют полицейский произвол и вредят общественной безопасности». 

В 2024 году полиция в австралийском штате Новый Южный Уэльс свернула аналогичную программу, которая должна была вычислять потенциальных преступников, чтобы в будущем за ними можно было следить. Некоторым из предполагаемых правонарушителей было всего 10 лет. Тем не менее в стране продолжили применять похожие программы — одна из них анализирует поведение отсидевших в тюрьме австралийцев на предмет возможного рецидива. 

Правовед Татьяна Дэнси раскритиковала такой подход. Она уверена: называть человека вероятным преступником на основании его характеристик и биографических данных — значит отказываться признавать его свободу воли. «Когда мы наказываем кого-то из-за обстоятельств, на которые он не может повлиять, мы относимся к человеку так, будто он обречен принимать плохие решения», — добавила Дэнси. 

В начале 2025 года организация Amnesty International осудила попытки британских властей автоматизировать правоохранительную работу. По данным правозащитников, сейчас примерно три четверти полицейских подразделений в стране используют технологии, которые якобы помогают «прогнозировать преступления». Вот что говорится в заявлении организации:

Полиция в Британии и так с предубеждением относится к меньшинствам. Во многих структурах по умолчанию существует расизм. Когда к этому добавляются технологии, основанные на [личных] данных, мы получаем автоматизированный расизм. Инструменты для «предсказания преступлений» вредят нам всем, потому что усиливают социальную несправедливость. Из-за них к целым группам населения относятся как к потенциальным преступникам. 

Правозащитники призвали британские власти запретить использование этих технологий. Однако находки Statewatch и The Guardian говорят о том, что пока правительство не собирается этого делать. 

«Медуза»

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.