Giustizia predittiva: l’eventuale ammissibilità dei risk assessment tools nell’ordinamento italiano
- Francesco Magagna
- 15 lug 2024
- Tempo di lettura: 11 min
Aggiornamento: 6 ago 2024
Tra le implementazioni più diffuse della giutizia predittiva rilevano i risk assessment tools. Si tratta di software che, avvalendosi dell’intelligenza artificiale (IA), consentono di calcolare il rischio che l'indagato o imputato compia nuovi atti criminosi ovvero si sottragga al processo. Nel presente articolo, si esaminerà l'eventuale ammissibilità di tali strumenti nel processo penale italiano.
1. Il principio di eguaglianza e non discriminazione
Tra i principi potenzialmente coinvolti nell’uso di tali algoritmi, assume fondamentale rilievo quello di eguaglianza. Ai sensi dell’art. 3 della Costituzione, «tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali». Ne consegue che, sul piano formale, a ciascun consociato è garantita in egual maniera l’astratta titolarità dei diritti fondamentali. A ciò si accosta la proiezione sostanziale del principio di eguaglianza, la quale è sancita nel secondo comma del menzionato articolo. Tale norma impone che i soggetti più deboli (ad es. coloro che si trovano in situazioni di difficoltà economica o di emarginazione sociale) siano messi nella condizione di poter effettivamente godere dei diritti che astrattamente detengono. Si tratta di un’eguaglianza c.d. di risultato: al fine di giungere al medesimo esito, è necessario che la legge tratti in modo uguale situazioni giuridiche uguali e in modo diverso situazioni diverse. Questo enunciato sembra essere espressione della logica matematica secondo cui, effettuando le medesime operazioni sui medesimi dati, il risultato sarà sempre lo stesso. Per tale motivo è possibile ritenere che, se fossero esenti da bias e programmati in maniera etica, gli algoritmi assolverebbero appieno detta funzione.
Rileva inoltre il principio di non discriminazione ex art. 14 della Convenzione europea dei diritti dell’uomo (CEDU), il quale vieta qualunque forma di discriminazione nel godimento dei diritti e delle libertà riconosciuti dalla Convenzione (nel caso in esame interessa soprattutto il diritto a un equo processo). Un analogo divieto è rinvenibile all’art. 21 della Carta dei diritti fondamentali dell’Unione europea (CDFUE), che prevede ulteriori motivi di discriminazione quali la disabilità e l’orientamento sessuale.
Pertanto, alla luce dei riferimenti normativi considerati, non è ammissibile l’uso di algoritmi di valutazione del rischio che operino discriminazioni fondate su elementi come l’etnia, il sesso e lo status socioeconomico dell’indagato o imputato. Ciò assume particolare rilevanza se si considerano le violazioni lamentate da ProPublica e Loomis in riferimento all’applicativo COMPAS.
2. Il principio del giusto processo
Ai fini di stabilire l’idoneità dei risk assessment tools ad essere ammessi nell’ordinamento italiano, è necessario considerare il principio del giusto processo di cui all’art. 111 Cost., così come modificato dalla legge costituzionale n. 2 del 1999. Ivi viene sancito che «ogni processo si svolge nel contraddittorio tra le parti, in condizioni di parità, davanti a giudice terzo e imparziale» (secondo comma). Dal dettato normativo è individuabile il principio del contraddittorio, che impone al giudice di non pronunciarsi su alcuna domanda se la parte contro cui essa è proposta non viene regolarmente citata oppure non compare in udienza. Vi è poi uno specifico riferimento al processo penale, il quale è regolato dal «contraddittorio nella formazione della prova» (quarto comma). Ciò significa che, nella fase delle indagini preliminari, il difensore dell’indagato ha diritto ad essere presente agli atti di indagine o a conoscerne il verbale e che, nella fase dibattimentale, la prova è ritenuta valida soltanto se è stata formata oralmente all’interno dell’esame incrociato. Ai fini della presente indagine rileva altresì il terzo comma, il quale, nel riconoscere il diritto di difesa, riproduce sostanzialmente le garanzie espresse nell’art. 6 CEDU: il diritto dell’accusato di essere informato «riservatamente della natura e dei motivi dell’accusa elevata a suo carico», di disporre «del tempo e delle condizioni necessari per preparare la sua difesa», di poter «interrogare o di far interrogare le persone che rendono dichiarazioni a suo carico», di ottenere «l’acquisizione di ogni mezzo di prova a suo favore» e di essere assistito da un interprete qualora non conosca la lingua impiegata nel processo. Infine, dal sesto comma dell’art. 111 cit. si ricava l’obbligo di motivazione di tutti i provvedimenti giurisdizionali.
Un importante corollario del giusto processo è il principio di parità delle armi che la Corte europea dei diritti dell’uomo ha da tempo inferito dalla nozione di «processo equo» ex art. 6 della Convenzione. Detto principio può essere ricavato anche dal secondo comma dell’art. 111 Cost., il quale lo riconduce espressamente al principio del contraddittorio. La c.d. parità delle armi impone che debba essere garantito un giusto equilibrio tra accusa e difesa. Nello specifico, è richiesto che ciascuna parte abbia la possibilità di conoscere le allegazioni e le argomentazioni della controparte, al fine eventuale di contestarle e falsificarle.
Le garanzie del giusto processo sono riconosciute anche dal diritto dell’Unione europea, in particolare all’art. 47 CDFUE.
Per quanto concerne i risk assessment tools, i diritti maggiormente in pericolo sembrano essere quello di difesa e quello di parità delle armi. Infatti, qualora il codice sorgente dell’algoritmo e il suo funzionamento non fossero resi noti (vedasi il software COMPAS), l’indagato o imputato non avrebbe la possibilità di seguirne il ragionamento ed eventualmente confutare la validità del risultato. Alcune problematiche residuerebbero anche nel caso in cui lo sviluppatore dell’applicativo decidesse di pubblicarne il codice. In primo luogo, la difesa necessiterebbe di un’elevata specializzazione tecnica ai fini dello studio e dell’analisi dell’algoritmo: tale attività sarebbe accessibile solo ai soggetti in possesso di considerevoli mezzi economici. In secondo luogo, in relazione agli algoritmi di machine learning, «non pare del tutto chiaro se l’accesso al codice sorgente sia sufficiente a consentire una completa conoscibilità dei meccanismi di funzionamento dello strumento» (L. Notaro, 2020).
Inoltre, vi è il rischio – come si è visto nel caso Loomis – che il risultato dell’algoritmo condizioni eccessivamente il giudice, pregiudicandone così l’imparzialità. Ciò sarebbe dovuto all’eccessiva fiducia che l’uomo tende a riporre nelle macchine, ossia alla c.d. fallacia dell’automazione.
Da ultimo, l’impiego dei risk assessment tools da parte dei tribunali è idoneo a incidere anche sull’obbligo di motivazione delle pronunce giurisdizionali, in virtù del quale i provvedimenti debbono essere sorretti da motivazioni analitiche, chiare ed esaustive. A tal proposito, si ritiene che l’organo giudicante sarà tenuto a illustrare perché intende conformarsi al risultato dello strumento di giustizia predittiva.
3. Il principio di personalità della responsabilità penale
Un ulteriore profilo di violazione che potrebbe derivare dall’impiego degli algoritmi di valutazione del rischio riguarda il principio di personalità della responsabilità penale. Tale principio trova fondamento nell’art. 27, commi 1 e 3, Cost. e stabilisce che soltanto l’autore del reato possa essere chiamato a rispondere dello stesso. La Corte costituzionale, nella sentenza n. 50 del 1980, si è espressa sull’importanza del principio in questione, affermando che l’individualizzazione della pena è volta a «tenere conto dell’effettiva entità e delle specifiche esigenze dei singoli casi» e «si pone come naturale attuazione e sviluppo di principi costituzionali» (Corte cost., 2 aprile 1980, n. 50, par. 3 – Considerando in diritto). Parallelamente, per quanto concerne le fasi precedenti all’emanazione della sentenza, è stato individuato – a partire dagli artt. 13 e 27, comma 2, Cost. – il principio di individualizzazione delle misure cautelari.
Poiché, come si è già visto, i risk assessment tools determinano il tasso di recidiva del singolo individuo sulla base di generalizzazioni statistiche, vi è la possibilità che si assista alla violazione della garanzia di individualizzazione del trattamento sanzionatorio. Si aprirebbe così la strada a un inammissibile diritto penale del profilo d’autore, in cui la pericolosità di una persona viene calcolata prendendo in considerazione le condotte commesse in passato da altri individui.
D’altro canto, è opportuno «chiedersi se da tale vincolo di individualizzazione si possa desumere una vera e propria regola di esclusione della valutazione di pericolosità» compiuta dagli algoritmi predittivi (S. Quattrocolo, 2020). A ben vedere, già ora i giudici sono chiamati ad operare valutazioni prognostiche avvalendosi di massime di esperienza che sono frutto della generalizzazione delle vicende di altri soggetti: la differenza è che gli algoritmi hanno la capacità di compiere inferenze statistiche prendendo in considerazione un numero assai più ampio di esperienze passate.
4. I giudizi prognostici in sede di applicazione delle misure cautelari e di commisurazione della pena
Nello stabilire le condizioni secondo cui le misure cautelari possono essere disposte dal giudice, l’art. 274 del codice di rito richiede a questi di svolgere una serie di valutazioni di carattere predittivo circa la pericolosità del prevenuto. In particolare, la disposizione fa riferimento al pericolo d’inquinamento probatorio, al pericolo di fuga e al pericolo di reiterazione del reato. Quest’ultimo va valutato – oltre che sulla base delle «specifiche modalità e circostanze del fatto» – in relazione alla «personalità della persona sottoposta alle indagini o dell’imputato, desunta da comportamenti o atti concreti o dai suoi precedenti penali» (art. 274, lett. c), c.p.p.).
In materia di esigenze cautelari, rilevano altresì i criteri di scelta delle misure ex art. 275 c.p.p. Anche detta norma impone un giudizio prognostico, il quale riguarda sia la sanzione che «si ritiene possa essere irrogata» sia la possibilità che «con la sentenza possa essere concessa la sospensione condizionale della pena» (art. 275, commi 2 e 2-bis, c.p.p.).
Per quel che concerne la fase di quantificazione della pena, il codice penale, all’art. 133, sancisce che il giudice debba tenere conto della gravità del reato e della capacità a delinquere del soggetto. Quest’ultima deve essere desunta «dai motivi a delinquere e dal carattere del reo», «dalla condotta e dalla vita del reo, antecedenti al reato», «dalla condotta contemporanea o susseguente al reato» e, infine, «dalle condizioni di vita individuale, familiare e sociale del reo» (art. 133, comma 2, c.p..).
A prima vista, gli elementi che l’organo giudicante è chiamato a valutare nelle suddette prognosi non sembrano differire molto da quelli considerati dal software COMPAS nell’elaborazione dei punteggi di rischio. Non sarebbe dunque ragionevole impedire al giudice di avvalersi dell’IA al fine di compiere le valutazioni predittive richieste dalla legge in sede di applicazione delle misure cautelari e di commisurazione della pena. L’unico profilo di complessità potrebbe porsi in riferimento alla determinazione della proporzionalità della misura cautelare ex art. 275, comma 2, c.p.p. Tale attività, infatti, richiede «supplementi valutativi in termini di “equità”» che nessun algoritmo è – al momento – in grado di imitare: si renderebbe ancor più necessaria, in questo senso, la supervisione dell’essere umano (P.P. Paulesu, 2022).
4.1. L’autonoma valutazione delle esigenze cautelari
Ai sensi dell’art. 292, comma 2, lett. c), c.p.p., l’ordinanza di misura cautelare deve contenere «l’esposizione e l’autonoma valutazione delle specifiche esigenze cautelari e degli indizi che giustificano in concreto la misura disposta». Questa prescrizione non solo assicura l’imparzialità del giudice evitando che egli si appiattisca al pubblico ministero, ma consentirebbe altresì di scongiurare un eventuale cieco affidamento al software predittivo. Invero, il giudice che si avvarrà della prognosi del risk assessment tool al fine di disporre la misura cautelare sarà tenuto a indicare gli elementi a sostegno del risultato algoritmico.
5. Il divieto di perizia criminologica
È diffusa l’idea che il nostro legislatore processuale abbia sempre avuto una scarsa fiducia nei confronti della scienza psico-criminologica. Con ogni probabilità si deve a ciò il dettato dell’art. 220, comma 2, c.p.p., il quale stabilisce che, «salvo quanto previsto ai fini dell’esecuzione della pena o della misura di sicurezza, non sono ammesse perizie per stabilire l’abitualità o la professionalità nel reato, la tendenza a delinquere, il carattere e la personalità dell’imputato e in genere le qualità psichiche indipendenti da cause patologiche». Tale norma mira a impedire la sovrapposizione tra valutazione della personalità e valutazione della responsabilità penale.
Al fine di determinare se il divieto in questione sia estendibile agli strumenti di valutazione del rischio, è necessario comprendere se l’impiego di questi algoritmi sia classificabile come perizia criminologica. In dottrina si è affermato che una tale assimilazione non sia così scontata, in quanto non sembra che i risk assessment tools «siano finalizzati specificamente a scandagliare il foro interiore dell’interessato» onde stabilire gli elementi di cui al secondo comma dell’art. 220 cit. (in tal senso, M. Gialuz, 2019). Parrebbe dunque opportuno escludere l’applicabilità della disposizione in questione. Diversamente, vi è chi ritiene che, essendo basati su teorie psico-criminologiche, tali software non possano trovare ingresso nella fase cognitiva del processo penale (sul punto, S. Quattrocolo, 2021). Viceversa, alla luce del tenore letterale della norma, può ritenersi pacifica l’ammissibilità di detti tools in fase esecutiva (L. Notaro, 2020).
6. Il decreto legislativo n. 51 del 2018
Specifiche garanzie in ambito penale sono dettate dal decreto legislativo 18 maggio 2018, n. 51, il quale recepisce nell'ordinamento italiano le disposizioni della direttiva UE 680/2016. L’atto normativo si applica al trattamento dei dati personali da parte delle autorità a fini di prevenzione, investigazione e repressione di reati (art. 1 d.lgs. 51/2018). Si tratta di una tipologia di trattamento che esula dall’ambito di applicazione materiale del regolamento UE 679/2016 (c.d. GDPR).
L’art. 8 d.lgs. 51/2018 introduce il divieto generale di «decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, che producono effetti negativi nei confronti dell'interessato». Tali decisioni sono invece ammissibili qualora «siano autorizzate dal diritto dell’Unione europea o da specifiche disposizioni di legge». All’interessato deve essere riconosciuto, in ogni caso, il «diritto di ottenere l’intervento umano» (art. 8, commi 3 e 4, d.lgs. 51/2018.). Inoltre, se le decisioni interamente automatizzate si basano sulle categorie particolari di dati personali ex art. 9 GDPR, debbono essere previste misure adeguate a salvaguardia dei diritti, delle libertà e dei legittimi interessi dell’interessato. Infine, la norma si riferisce esplicitamente al citato art. 21 della Carta dei diritti fondamentali dell'UE e scongiura la discriminazione degli individui sulla base delle categorie particolari di dati personali.
Quanto ai risk assessment tools, appare convincente l’idea secondo cui il loro impiego non costituisca una decisione basata unicamente su un trattamento automatizzato, a patto che tali algoritmi siano utilizzati soltanto come supporto decisionale e che la decisione finale sia presa dal giudice umano. A tal proposito, si è rilevato anche il dovere del giudice di valutare l’output dell’applicativo congiuntamente ad altri elementi probatori a supporto dell’attendibilità dello stesso.
Un’altra disposizione di rilievo è l’art. 23 del suddetto decreto. Esso richiede che, prima di procedere al trattamento, il titolare compia una valutazione d’impatto sulla protezione dei dati nel caso in cui «il trattamento, per l’uso di nuove tecnologie e per la sua natura, per l’ambito di applicazione, per il contesto e per le finalità, present[i] un rischio elevato per i diritti e le libertà delle persone fisiche» (art. 23, comma 1, d.lgs. 51/2018.). Chi scrive ritiene che, considerati l’idoneità degli strumenti di valutazione del rischio a incidere sulla libertà personale dell’accusato, l’alto rischio di discriminazioni e la natura sensibile dei dati personali utilizzati, il trattamento operato da tali software rientri nella fattispecie dell’art. 23 cit.
7. Conclusione
Tenuto conto delle norme esaminate sinora, non è da escludersi aprioristicamente l’ammissibilità dei risk assessment tools nel processo penale italiano. Sarebbe «irragionevole – oltre che antistorico – rinunciare alle componenti positive che lo sviluppo tecnologico offre al sistema penale» (V. Manes, 2020). Invero, gli algoritmi in questione potrebbero fungere da utile contrappeso ai «temuti e criticati errori umani» (P.P. Paulesu, 2022). Sarà doveroso, tuttavia, garantire il giusto equilibrio tra l’apporto della c.d. machina sapiens e l’operato del giudice, preservando un approccio antropocentrico all’intelligenza artificiale.
Occorrerà senz’altro assicurare la piena trasparenza dell’algoritmo: solo così l’indagato o imputato avrà l’effettiva possibilità di contestare l’output dello strumento predittivo. Sarà poi necessario impedire che si verifichino o acuiscano discriminazioni di ogni natura, al fine di rispettare il principio di eguaglianza. Da ultimo, la valutazione del software dovrà costituire un mero supporto informativo alla decisione umana, sì da garantire l’imparzialità del giudice e la sua autonoma valutazione.
Bibliografia
Camerlengo Q. – Furlan F., Lezioni di diritto costituzionale vivente, CEDAM, Padova, 2021, pp. 301 s.
Ferrua P., Il processo penale dopo la riforma dell'articolo 111 della Costituzione, in Questione giustizia, 1/2000, p. 1.
Gialuz M., Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Diritto penale contemporaneo, 2019, p. 16-21.
Grossi L., Software predittivi e diritto penale, in C. Chinnici (a cura di), Intelligenza artificiale e giustizia penale, Paruzzo, Caltanissetta, 2020, pp. 179 s.
Lupo E., Le garanzie di contesto: la parità tra le parti, in La legislazione penale, 10/2020, p. 20.
Manes V., L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Discrimen, 15 maggio 2020, p. 19.
Notaro L., Intelligenza artificiale e giustizia penale, in C. Chinnici (a cura di), Intelligenza artificiale e giustizia penale, Paruzzo, Caltanissetta, 2020, p. 125.
Paulesu P.P., Intelligenza artificiale e giustizia penale. Una lettura attraverso i principi, in Arch. pen. web, 1/2022, pp. 6-9 e 14.
Quattrocolo S., Processo penale e rivoluzione digitale: da ossimoro a endiadi?, in MediaLaws, 3/2020, pp. 128 s.
S.n., Giusto processo, in Enciclopedia on line, Treccani, https://www.treccani.it/enciclopedia/giusto-processo/.
S.n., Principio del contradittorio. Diritto processuale penale, in Enciclopedia on line, Treccani, https://www.treccani.it/enciclopedia/principio-del-contradittorio-diritto-processuale-penale.
Viola L., Giustizia predittiva, in Diritto on line, Treccani, 2018, https://www.treccani.it/enciclopedia/giustizia-predittiva_%28Diritto-on-line%29/.
Commentaires