top of page

Un esempio pratico di giustizia predittiva: l'algoritmo che calcola il rischio di recidiva dell'imputato

Una delle applicazioni più diffuse della giutizia predittiva è rappresentata dai risk assessment tools: si tratta di algoritmi che fanno uso dell’intelligenza artificiale per calcolare il rischio che l’accusato compia nuovi reati oppure si sottragga al processo. Il più celebre tra essi è COMPAS, un software largamente impiegato nelle corti statunitensi: si stima che l’applicativo, sviluppato nel 1998, sia stato utilizzato in oltre un milione di casi.

I dati che il programma riceve in ingresso comprendono le informazioni presenti nel fascicolo dell’imputato e le risposte al questionario da lui compilato (un esempio è consultabile qui). Al soggetto vengono poste 137 domande concernenti le seguenti tematiche: precedenti penali; passato violento; violenza attuale; frequentazione di pregiudicati; abuso di sostanze stupefacenti; difficoltà economica o povertà; difficoltà nell’istruzione e formazione; pensiero criminoso e personalità criminale; criminalità in famiglia; problemi di natura sociale; modalità di impiego del tempo libero; instabilità abitativa; difficoltà di socializzazione; isolamento sociale; opportunità criminali.

L’algoritmo adotta un approccio di tipo statistico per calcolare il rischio di recidiva del reo espresso sotto forma di punteggio. Tuttavia, COMPAS non è in grado di fornire la specifica probabilità di recidiva del singolo autore di reato: esso, invece, elabora una previsione basata sul confronto tra le informazioni relative all’individuo in questione e quelle concernenti un gruppo di soggetti con caratteristiche analoghe.

Inoltre, nonostante l’algoritmo non consideri esplicitamente l’etnia come fattore, questa può essere verosimilmente inferita da aspetti quali il livello d’istruzione, l’area di residenza, lo status socioeconomico e l’instabilità familiare. Ciò ha sollevato una serie di dubbi sul rispetto del principio costituzionale statunitense del giusto processo.


Nel 2016 COMPAS è stato oggetto di un’approfondita inchiesta di ProPublica, un’organizzazione non governativa che ha lo scopo denunciare abusi di potere da parte di istituzioni pubbliche e private. La ricerca ha interessato un campione di oltre settemila individui arrestati tra il 2013 e il 2014 e i relativi punteggi di rischio calcolati dal risk assessment tool in esame (i risultati sono pubblicati qui).

Secondo lo studio, il sistema sarebbe notevolmente inaffidabile nel prevedere la commissione di reati violenti nei due anni successivi alla condanna. Infatti, soltanto il 20% degli individui a cui era stato attribuito un alto tasso di recidiva violenta avrebbe effettivamente compiuto crimini violenti nell’arco temporale considerato. Dalla ricerca sarebbe altresì emerso che, a causa della formula utilizzata, l’algoritmo ha alte probabilità di etichettare erroneamente come futuri criminali gli imputati afroamericani, con una percentuale quasi doppia rispetto agli imputati bianchi. Questi ultimi, al contrario, tenderebbero a essere considerati meno rischiosi di quanto effettivamente siano. Infatti, il 48% dei bianchi etichettati come soggetti a basso rischio sarebbe in realtà stato recidivo nei due anni successivi. Per quanto riguarda gli afroamericani, invece, tale cifra ammonterebbe al 28%. Tuttavia, la società produttrice del software ritiene che ProPublica abbia commesso diversi errori tecnici e statistici nella sua ricerca e che l'applicativo abbia previsto correttamente i casi di recidiva sia dei bianchi sia dei neri.

Comments


bottom of page