Человек уступает машине в оценке поведения преступников, если для оценки нужно анализировать много параметров.

Два года назад мы писали, что криминалистические программы предсказывают рецидивистов едва ли лучше, чем это делают люди. В том исследовании речь шла о программе COMPAS, которая по неким шести параметрам рассчитывала вероятность того, что преступник в течение двух лет после освобождения снова совершит что-то криминальное.

(Фото: alexraths / Depositphotos) 
Открыть в полном размере

С алгоритмом COMPAS соревновались 400 человек, которых набрали по объявлению в интернете и которые в своей жизни с уголовной криминалистикой ни разу или почти ни разу не сталкивались – они читали краткое описание биографии преступника до освобождения и пытались угадать, сделал ли он что-то противозаконное в течение двух лет после освобождения. Оказалось, что участники эксперимента предсказывали поведение потенциальных рецидивистов не хуже алгоритма.

Однако сотрудники Стэнфордского университета сумели реабилитировать компьютерную программу. Во-первых, они обратили внимание на то, что в том исследовании участник эксперимента сразу узнавал, правильно ли он угадал рецидивиста – а ведь в реальной практике ни судьи, ни сотрудники комиссий по условно-досрочному освобождению далеко не сразу узнают, правильно ли они рассудили в отношении преступника. Во-вторых, в соревновании с алгоритмом не делали различий между преступлениями – нужно было предположить, совершит ли преступник вообще нечто противоправное.

В новом исследовании эксперимент провели в нескольких вариантах. В одном случае – точно так же, как в прошлый раз, а в другом случае условия опыта несколько изменили: теперь и алгоритм COMPAS, и люди оценивали вероятность только насильственных преступлений, а людям, кроме того, не сообщали после каждого просмотренного дела, правильно ли они угадали (или не угадали) в нём рецидивиста. И если в первом случае люди и алгоритм угадывали, как и прежде, более-менее одинаково (с вероятностью 83% у людей и 89% у COMPAS), то во втором случае точность человеческих предсказаний сильно проседала – до 60%.

Очевидно, без обратной связи человек просто не мог скорректировать то, как он оценивает поведение других, так что и ошибок получалось больше. Кроме того, как пишет портал Science News, участники эксперимента были склонны переоценивать склонность преступников именно к насильственным преступлениям. То есть если речь идёт именно о чём-то, что связанно с насилием, то этого мы боимся сильнее, и потому склонны видеть опасность таких преступлений чаще, чем настоящие рецидивисты совершают их на деле.

Наконец, в третьем эксперименте вместо программы COMPAS использовали другой алгоритм, который может анализировать больше параметров – например, злоупотребляет ли потенциальный рецидивист алкоголем или наркотиками, какое у него образование, чем он занимается помимо противозаконной деятельности, и т. д. Как говорится в Science Advances, если нужно было анализировать криминальные дела по небольшому числу параметров, то люди угадывали рецидивистов с той же точностью, что и машина, но если число параметров увеличивалось, то машина работала точнее: среди тех, кого участники эксперимент предрекли повторное тюремное заключение, в тюрьме оказались лишь 58%, а среди тех, кому алгоритм предсказал тюрьму, туда отправились 74%.

Так что, с одной стороны, у криминалистических алгоритмов, предсказывающих поведение, есть какое-то будущее. С другой стороны, не будем забывать, что противниками алгоритмов в экспериментах были люди, никогда ни в каких условиях с криминалом не сталкивающиеся – среди них не было ни судей, ни сотрудников органов опеки, ни сотрудников правоохранительных органов. Наконец, 74% – всё-таки не такая уж большая точность, если иметь в виду, что тому, кого по ошибке записали в будущее рецидивисты, это может заметно испортить жизнь.