Sul “pianeta” complicato della giustizia italiana stanno per atterrare nel giro dei prossimi due anni 16.500 laureati, al fine di contribuire a risolvere l’endemico problema della lentezza, tema posto dalla Commissione europea come condizione per l’assegnazione dei fondi Next Generation Eu all’Italia, alla luce della osservazione che una giustizia lenta è una giustizia denegata e ha un’influenza negativa sullo sviluppo economico e sulle capacità democratiche di un Paese. 16.500 è un numero enorme. Al di là della difficoltà nella selezione e nella formazione di questo esercito di persone, sorgono immediatamente alcune domande. Tutti giuristi? Tutti a fare gli assistenti dei circa novemila magistrati italiani (quindi quasi due a testa)? Tutti in funzione di line o anche gruppi (e quanto numerosi) in funzione di staff trasversale? Ad esempio, un gruppo di staff ben potrebbe essere destinato all’approfondimento delle conseguenze economiche e sociali dei giudizi, secondo il modello sperimentato ed attuato presso la Corte costituzionale (pur con tutta la prudenza necessaria quando si devono far entrare valutazioni socioeconomiche in un giudizio tecnico-giuridico). E, ancora, tutti a svolgere ricerche e a scrivere provvedimenti all’interno dei singoli processi? Il modello prevalente che sembra si voglia adottare è simile a quello degli assistenti in Corte costituzionale, ma va tenuto presente che tradizionalmente queste figure arrivano a Palazzo della Consulta essendo già magistrati o docenti universitari, quindi avendo alle spalle esperienze lavorative e di ricerca significative. La generalizzazione del modello degli assistenti per tutti i magistrati ordinari è certo una soluzione comoda, che darebbe un primo, temporaneo, sollievo alla nostra macchina giudiziaria, ma non risolverebbe i problemi organizzativi di fondo della giustizia italiana (che richiedono un’analisi più approfondita di quella limitata al problema che qui si vuole porre).
Previa la necessità di una doverosa e rigorosa verifica delle compatibilità con le condizionalità europee, si può provare comunque ad ipotizzare qualche soluzione di utilizzo di questo personale parzialmente diversa da quella dell’impegnare il numero totale dei nuovi assunti a scrivere atti all’interno dei singoli processi.

Proverò a fare qualche proposta, partendo dalle novità dirompenti di questi ultimi anni, vale a dire dal clamoroso impatto sulle nostre vite dell’Intelligenza Artificiale. L’incidenza di questo strumento, le cui radici sono in realtà già negli anni ’50 del secolo scorso, è aumentata in ragione di tre nuovi fattori: l’incremento vertiginoso di dati che possono essere immessi o trovati in rete (il cd. fenomeno dei Big Data, dovuto alla moltiplicazione dei possibili collegamenti e alla Internet of Things, grazie alla quale centinaia di miliardi di oggetti sono collegati – e immettono dati – in rete); l’aumento spropositato della velocità di elaborazione (in omaggio alla cd. Legge di Moore); infine, la sempre più significativa capacità delle macchine di IA di lavorare secondo meccanismi di autoapprendimento (cd. Machine learning). Ce ne si è accorti anche nei nostri campi, tanto che da qualche anno si discute sempre più animatamente di affidare (almeno) una parte del nostro sistema di giustizia alla decisione robotica, che garantirebbe un alto tasso di prevedibilità (si parla, non a caso, di Macchine predittive, così A. Agrawal, J. Gans, A. Goldfaber, Milano, Franco Angeli, 2019), interrompendo quelle continue (e talvolta sorprendenti) catene di incertezze che sono, certo non l’unica, ma sicuramente una delle principali cause della lentezza (e del conseguente malfunzionamento) del nostro sistema giudiziario.
È, invero, quella della decisione robotica (su cui v. A. Carleo, a cura di, Decisione robotica, Il Mulino, Bologna, 2019, e i saggi ivi contenuti), una prospettiva che ci affascina, ma che nel contempo ci spaventa. Possiamo far decidere i casi, piccoli o grandi della nostra vita, ad una macchina, per quanto essa sia o ci sembri intelligente? E chi seleziona i dati, quindi non solo i “precedenti” giudiziari, ma anche i dati di contesto? Per avere forme di giustizia predittiva, ad esempio in tema di incidenti automobilistici e di RCA, devo inserire non solo i precedenti giurisprudenziali, ma anche i dati degli incidenti per territorio, i dati delle assicurazioni, del parco veicolare, le foto delle possibili vittime dei possibili ostacoli, le reazioni tipiche di un guidatore, magari differenziate per categorie, ecc. E lo stesso vale per ogni settore, con le sue specificità, per cui si vogliano costruire meccanismi di giustizia predittiva. D’altra parte, sono proprio i dati immessi nella macchina che costituiranno la base della sua decisione e il presupposto dei suoi meccanismi di autoapprendimento ed è cruciale la scelta che ne governa l’immissione (i dati “rappresentano il punto iniziale del processo che conduce alla decisione robotica”: così A. Carcaterra, Machinae autonome e decisione robotica, in A. Carleo, cit., p. 38). E proprio dai dati che vengono immessi derivano le interferenze, le limitazioni, le discriminazioni, i pregiudizi (i cd. Bias cognitivi) che inficiano il funzionamento di una macchina di IA (è opportuno sottolineare che ciò vale per qualsiasi procedimento di IA, non solo per quelli che sfociano in una decisione interna al sistema giudiziario; e soprattutto, che mentre il bias cognitivo che influenza l’immissione dei dati può essere corretto attraverso procedure di controllo ex ante, il bias cognitivo che influenza il processo decisionale interviene inesorabilmente e irrimediabilmente sul contenuto della decisione e può essere controllato e rimosso, solo contestando ex post il contenuto della decisione).
E, ancora, c’è un modo per controllare, secondo il principio di trasparenza, l’algoritmo che governa il processo logico della decisione? E, anche quando questo problema di trasparenza sarà risolto, se la macchina è veramente intelligente ed in grado di autoapprendere dal suo stesso processo di decisione, chi controlla le cd. Black box, frutto di un processo di deep learning, in cui l’intervento umano è sempre più lontano, collocandosi a monte dei processi di autoapprendimento? Si tratta di questioni alle quali la più recente giuris-“prudenza”, ordinaria e amministrativa, nazionale ed europea, sta iniziando a rispondere, che impongono proprio per questo grande “prudenza” culturale nello scegliere un approccio definitivo (da ultimo, v. G. Lo Sapio, La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione, in federalismi.it, 2021, n. 16, e ivi un commento alla proposta di regolamento della Commissione europea del 21 aprile 2021 sulla Intelligenza Artificiale).

Eppure, senza intraprendere la strada della diretta e immediata decisione robotica, alla quale ostano probabilmente fondamentali principi costituzionali in tema di imputabilità soggettiva della decisione e della responsabilità da essa derivante, rintracciabili negli articoli 1, 27, 28, 97, 101, 102, 107, 117 Cost., qualcosa attraverso l’intelligenza artificiale potremmo iniziare a fare, utilizzando, nel rispetto delle compatibilità europee, le risorse straordinarie messe a disposizione dal PNRR, coinvolgendo il ricco patrimonio di idee e di riflessioni sempre presente nel nostro Paese e mai sufficientemente utilizzato. Ad esempio, un gruppo nutrito dei 16.500 giovani, che si apprestano ad entrare nei ruoli dell’ufficio del processo, potrebbe essere scelto con una formazione più ampia: ingegneri, informatici, fisici, scienziati della comunicazione, giuristi anche, ma competenti su questi temi, affidando loro una funzione di staff nella creazione centralizzata di meccanismi di IA e nella gestione decentrata di essi.
Per definire cosa potrebbe fare l’IA nel pianeta giustizia, è opportuno e necessario differenziare, introducendo nella valutazione e nella conseguente costruzione degli strumenti almeno cinque variabili:
a)    la prima relativa alla serialità delle cause (ci sono settori che presentano maggiore serialità: decreti ingiuntivi, sfratti, incidenti stradali, sanzioni amministrative, gran parte dell’enorme contenzioso tributario, ecc.);
b)   la seconda (in parte sovrapponibile, per eventuali scelte legislative, alla prima) relativa all’area della mediazione obbligatoria;
c)    la terza relativa alla presenza di valutazioni fortemente tecniche sottese al giudizio dell’autorità giudiziaria (esempio classico: attribuzione di paternità e test del DNA; oppure valutazioni relative all’andamento di un settore economico ovvero stime circa il valore di mercato di un determinato bene o servizio);
d)   la quarta relativa al grado di giudizio in cui ci si trova (primo grado, appello, cassazione, rinvio, mezzi straordinari);
e)    la quinta, infine, relativa alla complicazione della causa (si tratta, naturalmente, di una valutazione delicata, ma questa è ormai una verifica che, attraverso diversificati sistemi di filtro, è tipica di qualsiasi sistema di giustizia che non voglia cadere nelle trappole dell’allungamento surrettizio dei tempi, che favorisce tendenzialmente la categoria dei debitori e, inevitabilmente, disincentiva gli investimenti).
Nei casi sub a), in cui la serialità è forte, forse il ruolo della macchina di IA può essere importante, fornendo la vera e propria base decisionale al giudicante, che potrebbe limitarsi a verificare il percorso logico della macchina e ad apporre la propria firma, assumendo la responsabilità della decisione. Altrettanto potrebbe valere, se si riuscisse a superare la tradizionale diffidenza verso la mediazione (figuriamoci, se gestita da una macchina!), per l’area sub b), in cui la macchina potrebbe fornire una proposta di mediazione, sottoposta all’accettazione delle parti. Nei casi sub c), in cui la valutazione tecnica è preponderante, bisognerà costruire dei meccanismi di interlocuzione/interrogazione/controllo tra macchina e giudicante, proceduralizzando i passaggi, così come avviene tradizionalmente nelle consulenze tecniche, ma presumibilmente con grandi guadagni di tempo. Nei casi sub d), di passaggio di grado di giudizio, l’IA può offrire la base motivazionale – sempre controllabile dal giudicante – del possibile filtro per accedere al grado ulteriore.
Se poi, nei casi sub e), si vuole dare certezza in apicibus, con la speranza – spesso delusa – che questo valore si riverberi “per li rami” in tutto il sistema, è noto che in molti ordinamenti (da noi presso la Corte di Cassazione e in Corte d’Appello, in Unione europea presso la Corte di giustizia) esiste la figura dell’Avvocato generale, un magistrato togato e indipendente, che fornisce al collegio giudicante la propria opinione sul caso ad esso sottoposto, potendosi poi liberamente il collegio distaccare da quella opinione, che rimane in ogni caso un autorevolissimo punto di confronto. Se vogliamo partire dal vertice, potremmo allora costruire, secondo la suggestiva indicazione di Ugo Ruffolo (La machina sapiens come “avvocato generale” ed il primato del giudice umano: una proposta di interazione virtuosa, in ID., a cura di, XXVI Lezioni di diritto dell’intelligenza artificiale, Giappichelli, Torino, 2021, 209), «un sistema che salvaguardi il primato della decisione umana e la assoluta libertà di giudizio del giudice-uomo, e però gli affianchi, con funzione servente, ma ritualizzata una sorta di Avvocato Generale-macchina, le cui conclusioni costituiscano una sorta di parere obbligatorio ma non vincolante; un progetto di sentenza che il giudice umano resta libero di disattendere, ma con decisione motivata». I vantaggi possibili sono evidenti: la macchina-avvocato generale elaborerebbe una proposta di decisione, utilizzando – con tutta la velocità della macchina, la ricchezza dei dati immessi, le capacità di machine learning – un progetto di decisione, ancorandosi a canoni di prevedibilità e strutturando la proposta secondo il paradigma dell’ancoraggio ai precedenti (che non vuol dire pedissequa “pietrificazione” rispetto ad essi); il giudice-persona umana ben potrebbe distaccarsi dalla proposta, assumendosi la responsabilità dell’assumere una decisione diversa, parametrata su eventuali esigenze del caso concreto o su eventuali sviluppi della coscienza collettiva sfuggiti all’analisi della macchina; il foro e l’opinione pubblica potrebbero infine controllare l’eventuale iato tra la proposta dell’avvocato generale-macchina e la decisione della persona giudice (pur sempre con il limite della attuale non diretta controllabilità dei meccanismi subsimbolici, quali quelli basati sul machine learning, in cui l’apprendimento si basa sull’imitazione e sull’osservazione di una molteplicità di eventi esemplari, M. Gabrielli, Dalla logica al deep learnig: una breve riflessione sull’intelligenza artificiale, nonché R. Rovatti, Il processo di apprendimento algoritmico e le applicazioni nel settore legale, ambedue in U. Ruffolo, a cura di, XVI Lezioni, cit., rispettivamente 27 e 33). Si realizzerebbe così quella contaminazione tra l’uomo e la macchina, sempre auspicata da chi su questi temi ha continuamente lavorato (A. Punzi), senza affidare la decisione definitiva alla macchina, anche in ragione dei limiti costituzionali, logici e strutturali sopra ricordati.
Per chi ancora non si fida, specie del quinto passaggio, nutrendo dubbi anche sui primi quattro (e sono molti, e giustamente svolgono le funzioni dell’avvocato del diavolo, rispetto ai “provocatori”, così come è avvenuto con i primi lettori di questa nota, che hanno sollevato alcune obiezioni di cui ho cercato di tener conto…), sarebbe possibile una soluzione in linea con quanto prospettato, ma meno impegnativa e più prudente: mantenere (o addirittura estendere ad altre tipologie di giudizio) un avvocato generale-persona, affidando alla sua direzione e al suo controllo la preparazione di quello che in gergo giudiziario si chiama il “foglietto” (che in questo caso potrebbe diventare qualcosa di più rispetto alla tradizionale ricerca ragionata e documentata a supporto del collegio decidente, magari da mettere a disposizione anche delle parti), questo sì redatto, con gli strumenti indicati e sotto le indicazioni e la responsabilità dell’ufficio di riferimento, dalla macchina di AI (preciso, a scanso di equivoci, non dallo staff di giovani tecnici, che rispetto alla macchina sarebbero solo i programmatori).
La proposta, allora, che si può avanzare è quella di prendere, subito come prima mossa operativa, un numero adeguato di giovani laureati, con una formazione prevalentemente tecnica e far loro costruire – sotto la guida di un comitato scientifico composto da tecnici e da giuristi e autorevolmente presieduto – uno o più data lake, che facciano tesoro di quanto già presente e elaborato nella Cassazione e nelle altre banche dati giudiziarie, ma vengano costruiti ex novo con nuovi parametri e nuovi paradigmi, adeguati alle diverse funzioni sopra descritte, e soprattutto basandosi su algoritmi di lettura che rispondano ai canoni di trasparenza fissati dalla giurisprudenza nazionale ed europea e siano rispettosi delle tradizioni costituzionali comuni (B. Caravita, Principi costituzionali e intelligenza artificiale, in U. Ruffolo, a cura di, Intelligenza artificiale. Il diritto, i diritti, l’etica, Giuffré Francis Lefebvre, Milano, 2020, 451 ss.). Questa struttura, nelle sue possibili articolazioni, si porrebbe, non in funzione di line rispetto a singoli uffici, bensì in funzione di staff rispetto all’intero ordinamento giudiziario, dovrebbe essere naturalmente autorevolmente diretta e potrebbe fornire un servizio generale rispetto a tutto il pianeta giustizia, individuando regole di ingaggio che – secondo i modelli disegnati (casi seriali, mediazione, casi fortemente tecnici, funzione di filtro, “foglietto”, avvocato generale-macchina) – andrebbero stabilite in sede centrale, in modo da garantire non solo quella funzione di prevedibilità sopra ricordata, ma criteri di uniformità, controllabilità e parità di accesso al servizio da parte del mondo giudiziario. Partirebbe così, in modo unitario e non frammentato, una prudente, ma nel contempo significativa, sperimentazione che potrebbe essere la base di sviluppi di grande interesse. 

Una sperimentazione di questo tipo, in ragione della grande delicatezza della funzione coinvolta, deve essere guidata da principi di imparzialità e laicità culturale, prima ancora che di efficienza. Non può essere lasciata ai grandi gruppi privati, che peraltro probabilmente stanno elaborando meccanismi del genere nei campi di proprio interesse: deve essere sotto il rigoroso controllo pubblico e deve coinvolgere quel grande patrimonio di conoscenze tecniche che è nelle Università italiane (che già vantano esperienze interdisciplinari tra giuristi, fisici, informatici e scienziati della comunicazione, necessarie per poter gestire con successo progetti di siffatta portata, hanno già presentato progetti di ricerca di ateneo o di interesse nazionale interdisciplinari su questi settori, godono di riconoscimenti internazionali ed europei, ad esempio nella forma dell’attribuzione di finanziamenti Jean Monnet su questi specifici temi) e ben potrebbero essere a disposizione, anche in forma consorziata, di questa rivoluzionaria sperimentazione, che permetterebbe di passare rapidamente dalle lunghe discussioni di questi anni ad una prima, prudente, graduale ma unitaria e non frammentata (requisito necessario, per evitare di mettere a repentaglio la certezza del diritto, ma che proprio per questo richiede imparzialità e laicità della catena di direzione del processo), versione attuativa di alcune idee che andrebbero, finalmente verificate non più in vitro, ma nella concretezza operativa dell’attività giurisdizionale.
L’utilizzo massiccio dell’intelligenza artificiale già sta avvenendo ampiamente nella prassi di molte amministrazioni pubbliche o di grandi soggetti privati (assicurazioni, fondi di investimento, società di servizi, di logistica, di trasporti, solo per fare qualche primo esempio, ma in realtà tutti i produttori di beni e servizi sono ormai costretti ad organizzarsi in questo modo), che stanno costruendo amplissimi data lake con significative funzionalità operative (v. la relazione presentata da A. Corrado, Intelligenza artificiale, l’esperienza italiana, conclusioni al Convegno Decisioni automatizzate e pubblica amministrazione. Procedimenti e discrezionalità nel tempo dell’intelligenza artificiale, Corso di formazione per Magistrati amministrativi, organizzato dall’ufficio studi, massimario e formazione della Giustizia amministrativa, 8 giugno 2021): se la giustizia non si adegua e non si mette al passo con i tempi a breve, diventerà insostenibile il distacco tra le grandi amministrazioni pubbliche e private, che hanno imparato ad usare all’interno del proprio processo decisionale l’intelligenza artificiale, e una giustizia che si muove ancora secondo logiche arretrate. E riinizieremo da capo a lamentarci della lentezza, delle incoerenze, delle incertezze… 

Poi, alzato lo sguardo dal “pianeta” giustizia, forse dovremmo iniziare a pensare se sia necessaria una lex robotica generalis, che risponda in modo comprensivo, almeno fissando i principi fondamentali, a quelle esigenze di regolamentazione (imputazione soggettiva, responsabilità, nei suoi diversi aspetti e profili, contrattualistica, regolamentazione dei processi di immissione dei dati, dei controlli, del processo decisionale, regole in tema di antitrust e di copyright, invenzioni industriali, tutela della privacy, procedimenti fallimentari, meccanismi selettivi e concorsuali, discipline elettorali, ecc.) che sono sempre più sentite in questo tumultuoso settore.