il problema
Mai sopravvalutare le capacità dell’IA negli ambiti sensibili
L’Intelligenza Artificiale è certamente un’innovazione potentissima, ma bisogna essere estremamente attenti a non sopravvalutarne le capacità, soprattutto in un ambito sensibile come quello giudiziario
Nel suo bell’intervento sulla Gazzetta dell’altro giorno, Ugo Patroni Griffi, a proposito del testo di Durrenmatt in scena al Kismet oggi e domani, rileva giustamente come l’opera si presti a riflettere sul possibile uso delle decisioni automatizzate nell’esercizio dell’azione giudiziaria.
Il tema non è affatto nuovo: Richard Susskind, uno dei massimi esperti internazionali sul tema, nel suo ultimo libro ricorda di aver cominciato a lavorarci nel lontano 1981. All’epoca si parlava di «sistemi esperti» in molte discipline, e nei decenni successivi le relative tecniche sono enormemente migliorate (anche grazie all’esponenziale aumento delle potenzialità di memoria e di calcolo disponibili), ma l’idea di base resta sostanzialmente la stessa: riprodurre – nel computer – i processi logici che portano l’esperto della relativa disciplina a fare le sue valutazioni e le relative scelte decisionali. Attraverso le reti neurali artificiali (Hopfield e Hinton hanno ricevuto il Nobel per la Fisica 2024 per i loro lavori sul tema) è possibile «caricare» sulla macchina, opportunamente «addestrata», l’esperienza di un gran numero di professionisti. Lo strumento si è già rilevato molto potente in diversi ambiti: molto citato è il caso della diagnostica per immagini; se il singolo radiologo sviluppa la propria esperienza in un ampio arco temporale che può portarlo a valutare centinaia o migliaia di immagini (radiografie, TAC, ecc.), il computer può, in pochissimo tempo, unire alla memoria dei suoi referti quella di migliaia di suoi colleghi, simulando una «esperienza» che – essendo «maturata» su milioni, e non migliaia, di casi – non sarebbe mai umanamente conseguibile.
I risultati sono considerati all’altezza dei migliori radiologi. Situazioni analoghe possono essere individuate anche in ambito giudiziario. Un esempio sperimentato, e molto discusso, negli USA è quello del risk assessment in ambito penale: il giudice che deve valutare la possibilità di concedere la libertà su cauzione all’indagato, o la scarcerazione anticipata al condannato, deve fare una valutazione probabilistica dei relativi rischi di eccessiva generosità o severità.
Anche in questo caso, addestrare il computer con decine di migliaia di precedenti, caricando una serie di dati individuali (precedenti, età, sesso, razza, reddito, residenza, ecc.) dei soggetti interessati, dà la possibilità al magistrato di supportare la propria decisione su dati statistici che, per quanto solo probabilistici, hanno comunque un supporto più oggettivo del solo, inevitabilmente soggettivo, intuitu personae.
Ci sono però dei rischi: è stato infatti evidenziato che, in alcuni casi, il sistema esperto – proprio a causa dei casi caricati – penalizzava pesantemente l’appartenenza razziale o addirittura lo zip code (codice di avviamento postale) del soggetto interessato, quasi che la residenza in quartieri ghetto costituisca di per sé fattore di rischio sociale. Stiamo così imparando che la costruzione, tramite Intelligenza Artificiale, di sistemi esperti non è immune da errori, e pregiudizi, inevitabili nelle umane valutazioni; gli studiosi parlano di B.I.B.O. (Bias In, Bias Out): se i dati «storici» con i quali il sistema viene addestrato sono viziati da pregiudizi, la macchina li incorporerà nei propri «ragionamenti».
L’Intelligenza Artificiale è certamente un’innovazione potentissima, ma bisogna essere estremamente attenti a non sopravvalutarne le capacità, soprattutto in un ambito sensibile come quello giudiziario.