Giudicati da una Intelligenza Artificiale?

27 marzo 2019 | commenti: Commenta per primo |

Si può essere giudicati in tribunale da una Intelligenza Artificiale?

A decidere se un soggetto è recidivo o meno, e quindi deliberare se lasciarlo in prigione o concedere la libertà provvisoria potrebbe essere una Intelligenza Artificiale (IA) e non più solo un giudice.

Non è uno scenario di fantascienza ma una realtà attiva negli USA e in alcuni paesi europei dove si sta sperimentando con sempre maggiore frequenza l’uso delle IA nel supportare (per adesso) le decisioni di un tribunale.

Ma sono tantissime le realtà dei tribunali, anche italiani, dove progressivamente le IA stanno iniziando a supportare le decisioni dei togati o anche le linee difensive degli avvocati, sia analizzando precedenti sentenze che interrogando i social per trovare prova di specifiche azioni come, ad esempio, lo stalking.

Se le IA avranno l’obiettivo di snellire la burocrazia, allora ben vengano.

Ma se la loro progettazione si dovesse basare su dati contenenti elementi di pregiudizio (il colore della pelle, l’etnia, le tendenze sessuali, ecc.), ci troveremo di fronte a un sistema giudiziario ben distante dal concetto di “tutti i cittadini sono uguali di fronte alla legge“.

La preoccupazione dei potenziali danni che le IA potrebbero arrecare se inserite in modo approssimativo nelle procedure giudiziarie (sia per incompetenza di giudici e avvocati ma anche per eccesso di spregiudicatezza commerciale degli sviluppatori) non è un grido di allarme lanciato da anziani magistrati culturalmente avversi alle tecnlogie. Tutt’altro.

Il problema è stato posto con competenza e senza pregiudizi proprio dalla Commissione Europea per l’efficienza nella Gustizia (CEPEJ), preoccupata dall’uso non proprio consapevole che si sta effettuando nei tribunali delle IA, senza un reale controllo di quali siano i potenziali errori (bias) che potrebbero annidarsi in un processo di analisi dei dati e nei dati stessi che vengono utilizzati per “addestrare” le IA.

La Carta Etica Europea

Non è un caso, infatti, che nello scorso dicembre del 2018 sempre la Commissione ha adottato la CARTA ETICA EUROPEA SULL’USO DELL’INTELLIGENZA ARTIFICIALE NEI SISTEMI GIUDIZIARI E NEL SUO AMBIENTE[2], sia per assumere decisioni giudiziarie ma anche per l’utilizzo di strumenti specialistici da parte di avvocati od operatori del sistema legale (definiti quest’ultimi con il termine “ambiente”, ma che potremmo molto più correttamente tradurre con il termine italiano “filiera”).

È importante evidenziare come la carta etica sia finalizzata primariamente non tanto e non solo a orientare i legislatori e i membri togati del sistema giudiziario, ma soprattutto a fornire specifici orientamenti alle start-up Legaltech, agli sviluppatori di App e alla “filiera” di professioni che utilizza i predetti strumenti di IA per lo svolgimento della loro professione legale: magistrati, notai, avvocati.

Se da una parte, infatti, la CEPEJ è consapevole che l’utilizzo delle IA può realmente aumentare l’efficienza dei sistemi giudiziari, nel contempo è altrettanto consapevole che gli operatori della “filiera” devono garantire un approccio “responsabile e rispettoso dei diritti fondamentali”, tra cui, soprattutto, il diritto alla non discriminazione, proprio a sottolineare il pericolo principale che si annida nei data set e negli algoritmi che operano “sotto” le interfacce degli utenti che utilizzano le applicazioni digitali.

La CEPEJ, di conseguenza, ha definito i cinque principi che dovrebbero essere linee guida prescrittive nel campo della AI applicata alla giustizia:

Rispetto dei diritti fondamentali, assicurandosi che il design, la realizzazione e l’applicazione di nuovi servizi e App basate su AI siano con compatibili con il rispetto dei diritti fondamentali che ogni legislazione assegna ai cittadini di uno stato-comunità;

Principio di non discriminazione, in particolare prevenendo lo sviluppo o la intensificazione di qualsiasi forma di discriminazione tra individui o gruppi di individui, soprattutto per quel che riguarda l’etnia, la religione, le idee politiche o gli orientamenti sessuali;

Principio di qualità e sicurezza, soprattutto con riguardo ai processi di predisposizione di data set e di elaborazione delle decisioni, utilizzando fonti certificate e con l’apporto multidisciplinare di diverse competenze.

La raccomandazione è che il trattamento dei dati debba avvenire sulla base di originali certificati ed integri in ogni fase (ossia non modificati da intervento umano o digitale post certificazione), garantendo così i principi di Cybersecurity;

Principio di trasparenza, imparzialità e correttezza, ossia la necessità imprescindibile di rendere accessibili i modelli e gli algoritmi utilizzati nelle decisioni giudiziarie, fornendo gli strumenti di lettura che li rendano comprensibili e, soprattutto, a disposizione di audit di autorità indipendenti (è interessante notare che anche in questo caso la predisposizione di un sistema di certificazione sarebbe auspicabile);

Principio del “Under User Control” (UUC), che si può anche definire come della garanzia dell’intervento umano, ossia precludere un approccio deterministico nell’utilizzo delle App, garantendo che gli attori della “filiera” dell’ambiente della giustizia siano pienamente consapevoli e possano tornare padroni della propria decisione.

Quest’ultimo principio è particolarmente strategico in ambito giudiziario, poiché il giudice deve mantenere il potere di verificare l’output intelligente rispetto al singolo caso specifico, per garantire l’effettiva applicazione del diritto vigente anche qualora l’addestramento dell’algoritmo non lo avesse preso in considerazione.

D’altra parte, ogni soggetto indagato deve avere a sua volta il diritto di essere informato sulla natura della sentenza proposta tramite IA, come anche sulle possibili opzioni e sul diritto di ricorso.

Le applicazioni pratiche

Dal punto di vista delle applicazioni pratiche, è opportuno segnalare l’Appendice IV al corposo documento della Commissione, in cui viene proposto un semplice approccio di metodo per verificare l’applicazione dei principi della Carta Etica all’interno dei singoli sistemi di gestione delle attività processuali.

scala di valutazione etica di una IA in ambito giudiziario

L’approccio semplificato di autovalutazione propone una scala del livello di integrazione per ognuno dei 5 principi della carta etica: si va dal massimo dell’integrazione (box a sinistra) alla mancata integrazione (box a destra).

Per ogni principio dovrà essere “spuntato” uno dei cerchi, in base a quello che si ritiene il livello di integrazione attuato.

Alla fine del processo, nella riga finale dello schema di valutazione, dovranno contarsi il numero dei cerchi “spuntati” per ogni singolo livello (alto, medio, nessuno), così da individuare il valore complessivo dell’effettiva integrazione di tutti i principi etici della Carta elaborata dalla Commissione.

Si potrà così definire un livello di piena compatibilità, un livello intermedio e un livello in cui si rileva la totale assenza di compatibilità con quanto indicato dalla Carta.

tabella dei punti da valutare per ogni singolo principio etico della IA nei sistemi giudiziari

È evidente che è un metodo qualitativo e non potrà che basarsi su un lavoro di ascolto e confronto tra i vari attori della “filiera”, senza che questo possa portare a una eventuale “certificazione” del sistema.

È però indubbio che in una fase storica come questa, dove solo da poco tempo si inizia a prendere consapevolezza delle potenzialità e dei rischi delle IA, l’approccio semplificato proposto dalla Commissione può essere un’ottima base di partenza per intraprendere un percorso valutativo di comprensione se l’efficientamento del sistema giudiziario viene ottenuto senza per questo rinunciare all’applicazione dei diritti fondamentali di qualsiasi sistema democratico.

[1] Commission Européenne pour l’Efficacité de la Justice (CEPEJ) – European Commission for the Efficiency of Justice.
[2] European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment. Adopted by CEPEJ during its 31th Plenary Meeting (Strasbourg, 3-4 December 2018).

di Daniele Verdesca

Tutti i diritti sono riservati. Qualsiasi riproduzione, anche parziale, senza autorizzazione scritta è vietata. Legge 633 del 22 Aprile 1941 e successive modifiche.

Le immagini delle checklist sono tratte dal documento della Commissione Europea

Altre immagini Pixabay in Creative Commons CC0

L’etica della IA in Europa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.