Minority Report è l’immediato riferimento nell’immaginario comune per la giustizia predittiva, ossia lo strumento di machine learning, il software, che si utilizza per prevedere l’esito di un processo attraverso una elaborazione statistica delle decisioni passate. È uno strumento utilizzato soprattutto negli Stati Uniti – o comunque in quei sistemi giuridici (cd. di common law) caratterizzati dall’autorità del precedente giudiziale: i principi tratti dalle decisioni passate sono fonti del diritto – ad opera dei grandi studi legali per elaborare degli scenari processuali e, conseguentemente, adottare delle strategie o elaborare decisioni probabilistiche.
È uno strumento di natura statistica che può supportare, con la capacità di elaborare una grandissima mole di informazioni, l’elaborazione di scenari processuali.
Ma così come può essere utilizzato da avvocati per individuare la probabilità di alcune decisioni, potrebbe essere utilizzato anche per sostituire il giudice? Se dando in pasto ad una macchina tutta la giurisprudenza ne uscisse fuori un’alta probabilità per, ad esempio, una condanna, si potrebbe procedere “in automatico” e quanto dovrebbe essere alta questa probabilità? E il contesto delle decisioni passate è da considerare rilevante e, quindi, influente per il risultato? Dalla statistica alla stocastica…
Si “potrebbe” adottare in automatico quella decisione o si “dovrebbe”? Quanta forza argomentativa può avere un singolo giudice per distaccarsi dal risultato decisionale fondato sull’elaborazione di una mole di documenti non umanamente processabile a livello individuale? Non dimentichiamo che l’elaborazione della cultura, e della cultura giuridica, è un processo collettivo non solo perché siano garantiti i “settanta volti” ma anche perché un solo uomo non potrebbe elaborare tutte quelle informazioni.
E questo potrebbe minare l’indipendenza del giudice, come ha sottolineato la Commissione Europea per l’Efficienza della Giustizia (CEPEJ) del Consiglio d’Europa nelle sue “Linee guida sulla cybergiustizia”.
Ma l’indipendenza del giudice, quando rischia di essere influenzata dalla sua soggettività e irrazionalità, potrebbe invece essere salvaguardata da un sistema automatico?
Attualmente, in Italia, sono stati avviati alcuni progetti sulla giustizia predittiva. Da una parte il Laboratorio Interdisciplinare Diritti e Regole (LIDER-Lab) della Scuola Sant’Anna di Pisa sta annotando semanticamente una serie di decisioni negli ambiti del danno alla persona e dell’assegno di separazione e divorzio con lo scopo di allenare un algoritmo ad annotare in modo automatico le decisioni in quelle materie, per poi estendere la tecnologia ad altri ambiti. Dall’altro lato c’è un progetto della Corte d’appello di Brescia, Tribunale e Università che raccoglie le più significative sentenze degli uffici giudiziari di Brescia su una piattaforma dividendole in due categorie, economia e lavoro, poi articolate in titoli e sottotitoli. Già, il lavoro. Se fosse un giudice del lavoro a utilizzare l’IA per verificare comportamenti discriminatori? Non rischieremmo una discriminazione elevata a potenza? Insomma, la forza dirompente dell’IA è un elemento che può determinare anche un cambio del quadro giuridico nell’ambito del funzionamento della giustizia che rende, anche qui, necessario il mantenimento del centro: l’essere umano.