Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici

Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici. Ilustrační foto

Počítačový program pro identifikaci recidivistů rozhoduje stejně nepřesně jako naprostí laici. Ilustrační foto Zdroj: Shutterstock

Americkým soudcům pomáhají při rozhodování o podmíněných trestech či propuštění na kauci počítačové programy, které mají u obžalovaných odhalit pravděpodobnost recidivy. Nejnovější analýzy prokázaly, že počítač rozhoduje stejně nepřesně jako laik disponující minimem základních informací o obviněném. K bělochům je počítač shovívavější, na černochy je naopak o poznání přísnější.

 

Komu dát podmínku a kdo si má jít sednout za mříže? Kdo bude propuštěný na kauci a kdo v žádném případě nesmí opustit vazební věznici, protože by s vysokou pravděpodobností spáchal další zločiny?

Podobné otázky řeší soudci kriminálních případů dnes a denně. Americké justici přitom pomáhá například počítačový program COMPAS čili Correctional Offender Management Profiling for Alternative Sanctions. Má napomoci k tomu, aby soudce zbytečně nedržel za mřížemi člověka, který prostě jenom „ustřelil“ a víckrát už se proti paragrafům neproviní. A také má předejít tomu, aby soudce pustil z kontroly v rukou justice profesionálního kriminálníka, který si svůj život bez zločinu nedokáže představit.

Už dříve dostávali soudci o obžalovaných rozličné údaje. Měli přehled nejen o jejich trestním rejstříku, ale také o financích, zaměstnání, rodinných poměrech, o okruhu přátel a známých a o dalších okolnostech. Soudce mohl tato data při rozhodování brát do úvahy, ale také nemusel. Časem převzaly vyhodnocování dat počítačové algoritmy, z nichž mnohé jsou patentované a soudy je získávají nákupem licencí.

Je takové „strojní“ rozhodování lepší než rozhodování člověka? Ledacos naznačovalo, že algoritmy jsou zatížené nemalou chybou. COMPAS byl například obviněn z rasismu, protože se zdál k obviněným bělochům podstatně shovívavější, než odpovídalo jejich následné kriminální činnosti.

Jak to tedy s COMPASem je?

Informatici Julia Dresselová a Hany Farid z Dartmouth College se rozhodli COMPAS prověřit. Shromáždili data o 10 000 obviněných, získali hodnocení jejich rizikovosti pomocí programu COMPAS a k tomu posháněli data o trestných činech, kterých se tento soubor obžalovaných dopustil v následujících dvou letech. Následně naverbovali čtyři stovky dobrovolníků, kteří neměli praxi v soudnictví, ani neměli nic společného s provozem programu COMPAS.

Každému dobrovolníkovi poskytla Dresselová s Faridem profily padesáti obviněných prezentované sedmi naprosto základními údaji, jako je pohlaví, věk nebo počet předchozích trestů. Dobrovolníci měli určit pravděpodobnost, s jakou se obžalovaný dopustí recidivy. Předpovědi dobrovolníků a algoritmu COMPAS vědci porovnali se skutečností.

Výsledky publikované v předním vědeckém časopise Science Advances jsou bezesporu zajímavé. Naprostí laici s minimem údajů o obžalovaných určili správně recidivu v 63 až 67 % případů. COMPAS byl úspěšný v 65 % případů. To není nijak omračující úspěšnost.

Zajímavá byla i zhruba třetina případů, kdy se dobrovolníci i počítač zmýlili. Jak lidé, tak algoritmus COMPAS byli náchylní držet za mřížemi černocha, který se během následného pobytu na svobodě už recidivy nedopustil. A naopak, jak laici, tak i počítač byli náchylní pustit bělocha, který následně spáchal zločin.

Obecně rozšířené povědomí napovídalo, že sofistikované počítačové systémy pro hodnocení rizikovosti obviněných jsou zatíženy o poznání menší chybou než lidský rozum podléhající emocím a předsudkům. Jenže právě sofistikovanost algoritmů se ukázala jako silně pochybná. Dresselová a Farid sestavili primitivní prográmek, který zohledňoval pouze stáří obviněných a počet trestů, jež měli za sebou. S jeho pomocí dosáhli úspěšnosti odhadu recidivy obžalovaných 67 %.

Odborníci považují výsledky studie Julie Dresselové a Hanyho Farida za alarmující, protože velmi podobné algoritmy používají banky při schvalování půjček a úvěrů, úřady jimi hodnotí učitele a uplatňují se dokonce i při rozhodování, zda zahájit vyšetřování případů, kdy je vzneseno obvinění ze zneužívání nezletilých. Také v těchto případech zřejmě algoritmy nepodávají nijak omračující výkony a mohou se dopouštět systematické diskriminace některých skupin obyvatel.

Článek vyšel na serveru VTM >>>