Enter your keyword

GIUSTIZIA ARTIFICIALE. SIAMO DAVVERO DISPOSTI AD ESSERE GIUDICATI DA UN ALGORITMO? – DI VITTORIO MANES

GIUSTIZIA ARTIFICIALE. SIAMO DAVVERO DISPOSTI AD ESSERE GIUDICATI DA UN ALGORITMO? – DI VITTORIO MANES

MANES – GIUSTIZIA ARTIFICIALE. SIAMO DAVVERO DISPOSTI ED ESSERE GIUDICATI DA UN ALGORITMO?

GIUSTIZIA ARTIFICIALE. Siamo davvero disposti ad essere giudicati da un algoritmo?

di Vittorio Manes

L’editoriale del Direttore Vittorio Manes che aprirà il terzo e quarto fascicolo 2023 della rivista. L’utilizzo degli algoritmi nella amministrazione della giustizia pone domande a cui urge dare risposta, ed a ciò è dedicato il focus che si propone il nuovo doppio fascicolo di Diritto di Difesa: pur consapevoli che ogni risposta, al cospetto di un mondo che cambia con rutilanti accelerazioni, può essere solo una tappa intermedia, e un approdo precario, fonte di nuovi dilemmi e di nuove domande di senso.

 1. Le promesse mirabolanti dell’intelligenza artificiale si stanno prepotentemente affacciando sullo scenario della giustizia e nelle aule dei tribunali.

Anzi, vi hanno già preso posto, lasciando profilare all’orizzonte una autentica rivoluzione, se non persino una imminente “apocalissi giuridica”.

2. Nel febbraio 2023 un giudice colombiano – il giudice Padilla di Cartagena – ha pronunciato la prima decisione elaborata, di fatto, da un noto programma di intelligenza artificiale, il chatbot GPT: lo ha interrogato su una questione in materia di detrazioni fiscali per le cure mediche sostenute da un portatore di handicap, ricevendo una risposta giudicata convincente, poi tradotta in sentenza.

Parallelamente, negli Stati Uniti è stato elaborato un programma in grado di sostituire integralmente un avvocato in giudizio, a costo zero (un software dal nome accattivante: Do Not Pay): sarà connesso all’udienza tramite auricolari, ascolterà le domande alle parti, suggerirà strategie e risposte.

In campo penale, del resto e come ormai noto, diversi tribunali e corti – certo non solo nell’esperienza statunitense – da tempo usano software per condurre le valutazioni soggettive di pericolosità (risk assessment) concernenti, ad esempio, le esigenze cautelari, il rilascio su cauzione, la sospensione condizionale o le misure alternative alla detenzione, in sede esecutiva. Ed anche su questa traccia, più di recente, in Argentina è stata creata ed introdotta una Unità di Intelligenza Artificiale Applicata, nell’ambito del Ministero della Sicurezza Nazionale e del Programma Nazionale Completo di Intelligenza Artificiale nella Giustizia: una struttura, in particolare, finalizzata ad introdurre l’utilizzo di programmi di AI in chiave predittiva, per preconizzare e quindi prevenire la commissione di crimini e per sfruttare un meccanismo di riconoscimento facciale per rintracciare i ricercati.

Ma le sperimentazioni non si fermano certo ai programmi di “polizia predittiva”, peraltro sperimentati – e già da tempo – anche in diverse questure italiane.

In Cina, infatti, un team di ricercatori ha progettato e realizzato una sorta di “pubblico ministero cibernetico”, che – analizzando la descrizione verbale di un caso – sarebbe in grado di formulare un’accusa nei settori concernenti i reati più comuni, dalle frodi con carte di credito, al gioco d’azzardo, sino alle guide pericolose, alle lesioni e ai furti: un software addestrato con più di 17 mila casi giudiziari, dal 2017 al 2020, utilizzabile con un normale pc, prontamente testato dalla procura di Shanghai Pudong, essendo capace di garantire – si afferma – un’accuratezza “superiore al 97%”; al contempo promettendo, analisi dopo analisi, di migliorare costantemente le proprie prestazioni, e soprattutto di abbattere il carico di fascicoli che grava sugli uffici inquirenti.

Sono solo alcuni rapsodici esempi di evoluzioni – o appunto rivoluzioni – che evocano una improvvisa, ed a tratti inquietante, “presentificazione del futuro”, capace di superare persino la fantasia più immaginifica dei racconti distopici à la Minority Report.

Insomma, l’impressione è che l’amministrazione della giustizia sarà presto chiamata a decidere – un po’ ovunque – se preferire alle valutazioni e alle decisioni dell’uomo quelle della tecnologia informatica “intelligente”, senza emozioni o segni di stanchezza; ed anche in materia penale – ben oltre l’utilizzo degli algoritmi per le prognosi di pericolosità e per il rischio recidiva – si fa strada l’idea che fatti, responsabilità, delitti e castighi, possano essere indagati, accertati e persino giudicati mediante algoritmi, da “giudici-macchina”, con i quali sarebbero chiamati ad interloquire, un domani che è già oggi, “avvocati artificiali”.

È una strada, del resto, lastricata dalle migliori intenzioni: la “scorciatoia”[1] dell’intelligenza artificiale promette infatti miglioramento dell’efficienza e dei tempi, maggiore neutralità del giudizio, innalzamento degli standard di “calcolabilità” del diritto e delle conseguenze delle decisioni, della eguaglianza trattamentale, con parallela riduzione della sentencing disparity. Tutti obiettivi certamente attingibili – si assicura – se a decidere fosse un “judge-bot”.

3. Da questa angolatura, verrebbe quasi da credere che CESARE BECCARIA sia sul punto di prendersi la sua rivincita sul corso della storia, perché la figura di giudice “macchina per sillogismi” o “automa da sussunzioni” utopizzata – con falsa ingenuità – dall’illuminismo giuridico sembra ormai dietro l’angolo, promettendo – o minacciando – di spodestare i tradizionali attori della giustizia anche in campo penale: prefigurando non solo magistrati artificiali ma anche – parallelamente – avvocati digitali, a cui del resto ci si potrebbe rivolgere con una sensibile riduzione di costi.

Quasi un “ritorno al futuro”, dunque, se non fosse che la “frattura antropologica” e la “disumanizzazione della giustizia” sottese al nuovo scenario della “società algoritmica” implicano una evidente rivoluzione sul piano epistemologico ed assiologico.

Sarebbe peraltro ingenuo pensare che la sostituzione della macchina all’uomo nel campo della giurisdizione – se mai davvero dovesse accadere – possa essere frutto solo di una adesione fideistica alle lusinghe della tecnologia, ed appare urgente, piuttosto, farsi alcune domande: su come si sia potuti arrivare alle soglie di questo mutamento di paradigma; su quali fattori hanno preparato il terreno perché attecchisse anche solo l’idea di una amministrazione della giustizia “artificiale”; su quali benefici e quali costi siano sottesi alla rivoluzione prossima futura; soprattutto, sul se tutto questo sia accettabile anche in campo penale, quel settore del diritto dove il “fattore umano” – pur con tutto il suo ineliminabile corredo di limiti cognitivi e distorsioni valutative, di “euristiche e bias”, e con il suo gravoso fardello di errori giudiziari – appare ancora, per varie ragioni, imprescindibile.

D’altronde, capacità creativa, immaginazione ed emotività, tensione critica, pensiero problematico e “dialettica del dubbio”, appaiono caratteristiche fondanti della valutazione giudiziale, presupposti con-costitutivi dello ius dicere, e requisiti non surrogabili da un qualche software intelligente anche e soprattutto quando si discute di responsabilità e pene.

Ed allora, siamo davvero pronti a farci giudicare da macchine, anche quando si decide della nostra libertà personale? E a quale costo, in termini di diritti e garanzie?

Quali sono, più in generale, gli apporti che l’impiego dell’AI può prospettare, nel contesto della giustizia e specialmente in materia penale? Quali i rischi da esorcizzare, affinché la tecnologia non si trasformi in cieca tecnocrazia proprio quando le sfere di libertà e i diritti fondamentali sono primariamente in gioco?

4. Un profilo indubbiamente meritevole di essere considerato attiene, ad esempio, alla conoscenza predittiva della soluzione dei casi, ossia alla razionalizzazione della decisione giudiziale ed alla sua prevedibilità, anche in ordine alla pena concretamente irrogata da giudici diversi per “fatti” che presentano evidenti analogie.

Gli scenari di una giustizia diseguale, che dipende dal “se il giudice abbia fatto una buona colazione” (il c.d. breakfast sentencing), le mille trappole cognitive e la “razionalità limitata” che caratterizza la decisione umana, l’incidenza del “rumore” – ci ricorda DANIEL KAHNEMAN – su ogni valutazione e decisione che quotidianamente compiamo, sono lì ad ammonirci ed a sollecitare la ricerca verso dei correttivi artificiali che consentano di migliorare la affidabilità e la “calcolabilità” della decisione giudiziale.

Così, ad esempio, l’utilizzo di algoritmi in sede commisurativa, potrebbe consentire di costruire e prevedere, quanto meno a grandi linee, la pena “equa” nel caso concreto. Ma, ancora prima, un software potrebbe già consentire di elaborare la stessa prognosi di “ragionevole previsione di condanna”, oggi richiesta in diverse sedi e fasi del procedimento: dall’archiviazione all’udienza preliminare, sino all’udienza predibattimentale.

Sennonché, la razionalità di questo possibile impiego, ed a monte l’anelito di equità che lo muove, dipendono ovviamente dalla razionalità, dalla equità, dalla trasparenza, dalla “ispezionabilità” e quindi dalla “controllabilità” dell’algoritmo: con tutto il carico di possibili diseguaglianze che i dati somministrati per la costruzione del software si trascinano dietro.

Ognuno vede, già da questa angolatura, quanto l’arbitrio giudiziale e l’imprevedibilità della decisione rischino di essere sostituiti dall’arbitrio di un programma informatico, e dalla strutturale vocazione antiegualitaria che ogni generalizzazione statistica, come ogni correlazione costruita su dati previamente raccolti e selezionati, reca con sé: una “selettività diseguale” che rischia persino di replicarsi e consolidarsi nei programmi autogenerativi, visto che “l’algoritmo non immagina il futuro ma proietta il passato, sulla base di modelli statistici e non di modelli di razionalità causale”, con un “effetto di cristallizzazione di un determinato «stato del mondo» […]”, che esso tenderà a riprodurre e conservare[2],  come una sorta di “pappagallo stocastico”[3].

Del resto, l’esperienza americana dell’algoritmo COMPAS – uno dei sistemi di IA finalizzati a rilevare il grado di rischio di recidiva di persone sottoposte a procedimento penale – testimonia emblematicamente, sin dal celebre caso Loomis, la magnitudo di questi rischi: prospettando scenari che, nella prospettiva penalistica, possono riportare alla mente persino le inquietanti esperienze di “etichettamento” alla base del “diritto penale d’autore” (Täterstrafrecht), ossia di un diritto penale non più orientato al fatto, bensì al “tipo criminologico di autore”.

E i rischi di selettività pregiudiziale o arbitraria – è appena il caso di notarlo – possono emergere anche quando si affidi ad un software nulla più che una ricerca giurisprudenziale su “precedenti” utili ad orientare la decisione nel caso concreto[4].

Se a ciò si aggiunge che nemmeno gli sviluppatori di programmi di IA generativa sono in grado di comprendere come e perché gli algoritmi pervengono a determinati output, si comprende come la diseguaglianza “congenita” rischi persino di moltiplicarsi e degenerare in diseguaglianza “distribuita secondo il caso”: con una autentica eterogenesi dei fini rispetto agli agognati obiettivi di (maggior) certezza del diritto, sino ad una decisione giudiziale che – se il decision-making fosse affidato a simili programmi – rischierebbe di ridursi…alla lotteria di Babilonia immaginata dalla fiammeggiante fantasia di Borges.

5. Più in radice, però, vi sono questioni persino più intime e fondative, per la “democraticità” e l’“umanità” della decisione nel campo della giustizia penale, che concernono la struttura di talune valutazioni, e la possibilità di affidarle a un “giudice senza emozioni”, o all’ausilio di una longa manus offerta da un qualche programma algoritmico, specie se di carattere generativo.

Basti un esempio, tra i molti possibili: il “ragionevole dubbio” imposto come criterio dalla regola BARD, come sappiamo, non è solo “regola di giudizio”, ma è, anzitutto, “metodo di accertamento del fatto”, che impone al giudice penale di iscrivere la propria valutazione nella “dialettica del dubbio”: ed appare francamente difficile, se non impossibile, ritenere che un software sia in grado non già di censire ed individuare una situazione di dubbio – giacché questo, forse, potrebbe essere in grado di farlo – bensì di valutare se il dubbio sia, o meno, “ragionevole”.

La distanza con il coefficiente umanistico richiesto in talune decisioni potrebbe, ovviamente, persino amplificarsi quanto più la questione si avvicini alla concreta irrogazione di una pena carceraria: ma in ogni caso sembra evocare un problema di evidente frizione con garanzie fondamentali, sino a lasciar intravedere, nella sottoposizione di un imputato ad una decisione elaborata mediante algoritmi, una “esperienza di cosificazione” non distante da un “trattamento” “inumano” o “degradante” (art. 27/3, prima parte, Cost.; art. 3 CEDU).

La “mediazione tecnica”, del resto, nasconde sempre il rischio di una disumanizzazione del giudizio, come ha testimoniato – mutatis mutandis – l’esperienza del processo da remoto, durante l’emergenza Covid, tradottasi in un numero percentualmente crescente di condanne, e di un innalzamento del livello di severità delle pene irrogate da un giudice che non aveva l’imputato “davanti agli occhi”[5].

Come si accennava, l’ostacolo non è dunque solo epistemologico, ma assiologico, muove cioè sul piano dei valori: giacché ognuno vorrebbe essere giudicato con un metodo ed un metro che rifletta e rispetti il coefficiente umanistico che contrassegna l’“in-dividuo” come “persona”, che garantisca dunque la propria “dignità” e la sua pretesa di essere “trattata” come tale.

6. Sappiamo che la regolamentazione, quantomeno all’interno dell’Unione europea, sta cercando di correre ai ripari (da ultimo con l’Artificial Intelligence Act, AIA), ponendo argini ad un impiego indiscriminato e riaffermando garanzie che apparivano, sino a pochi anni fa, tanto superflue quanto inimmaginabili, e che nell’attuale “ecosistema digitale”[6] appaiono viceversa imprescindibili.

Così, si è recentemente introdotto il divieto di immettere sul mercato sistemi di risk assessment per la valutazione o la previsione del rischio che una persona fisica commetta un reato, se basati esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità (art. 5, lett. d, AIA): divieto strutturalmente riferito ai sistemi di “polizia predittiva” (predictive policing) ma naturalmente aperto a ricomprendere ogni protocollo algoritmico concernente la valutazione del rischio di recidivanza da parte di un soggetto individuato[7].

Così pure, si è da tempo previsto il “divieto di una decisione basata unicamente su trattamenti automatizzati”[8]: un divieto che dovrebbe evolvere ed implicare – più che un mero “uso sotto controllo dell’utente”[9] – anche il diritto fondamentale a che la decisione sulla responsabilità penale, nei suoi aspetti essenziali, sia affidata integralmente all’intelligenza umana – o ad una “human-driven activity” – e non all’intelligenza artificiale.

Indubbiamente, questi ed altri divieti[10]  testimoniano una crescente consapevolezza in ordine ai pericoli sopra accennati: ma risultano tradotti in formulazioni marcatamente compromissorie, ed inframmezzati da deroghe ambigue, se non apertamente contraddittorie, cosicché non si può essere altrettanto sicuri che questi limitati argini normativi possano rivelarsi davvero sufficienti, e solidi, in un settore – come appunto l’“amministrazione della giustizia” – dove l’impiego degli algoritmi, per lo stesso AI Act, è del resto qualificato “ad alto rischio”[11]:  un rischio che rende urgente adottare un inquadramento dei problemi non limitato al singolo atto di regolamentazione, ma doverosamente esteso alla più ampia cornice delle tutele costituzionali – in una dimensione multilivello che abbraccia anzitutto Costituzione, Carta dei diritti fondamentali UE e CEDU –, secondo una prospettiva rigorosamente orientata ai diritti ed alle garanzie fondamentali della persona[12].

7. Se l’utilizzo degli algoritmi nella amministrazione della giustizia e nel decision-making in campo punitivo prospetta già questioni vertiginose, i problemi e i dilemmi prospettati dall’intelligenza artificiale, nella prospettiva penalistica, non si fermano certo qui: dovendo misurarsi, ad esempio, con l’imputazione della responsabilità per offese cagionate da “autori artificiali”, ed a monte con l’interrogativo preliminare in ordine alla stessa possibilità di impiego – al cospetto di “persone senz’anima” – di una meccanica imputativa, come quella sottesa alla responsabilità penale, “personocentrica” e “personologica”.

Ci si chiede da tempo, al riguardo, se sia possibile chiamare a rispondere – e punire – un “agente inumano”, come una “macchina a guida autonoma” (driverless car) o se sia possibile solo predicare la rimproverabilità di chi ha programmato, realizzato o commercializzato quel prodotto[13]. Ed in ordine a questi soggetti, ci si chiede se possa ipotizzarsi una qualche forma di corresponsabilità – magari riferibile ad una precipua “posizione di garanzia” – anche al cospetto di un sistema di AI autogenerativo, evolutosi e modificatosi rispetto al prodotto originario, peraltro in modo oscuro, si ritiene, agli stessi conoscitori – e programmatori – del software “genetico”.

E come fronteggiare, poi, le diverse, nuove forme di aggressione a beni giuridici realizzate da – o attraverso la – intelligenza artificiale, negli ambiti più disparati[14]?

8. A tutte queste domande urge dunque dare risposta, ed a ciò è dedicato il focus che si propone il nuovo fascicolo di Diritto di Difesa: pur consapevoli che ogni risposta, al cospetto di un mondo che cambia con rutilanti accelerazioni, può essere solo una tappa intermedia, e un approdo precario, fonte di nuovi dilemmi e di nuove domande di senso.

[1] N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Il Mulino, Bologna, 2023.

[2] L. Torchia, Lo Stato digitale. Una introduzione, Il Mulino, Bologna, 2023, p. 142.

[3] Sul punto, cfr. le riflessioni di F. Basile-B. Fragasso, Intelligenza artificiale e diritto penale: prove tecniche di convivenza, in questo fascicolo.

[4] Al riguardo, cfr. le osservazioni di M. Caterini, La giustizia artificiale replicante, in questo fascicolo.

[5] Rinviamo, volendo, a quanto precedentemente evidenziato in V. Manes, Prime rilevazioni empiriche sugli effetti del processo penale telematico: la “Video Enabled Justice Programme: University of Surrey Independent Evaluation”, in Diritto di Difesa, 11 maggio 2020, reperibile al seguente link

[6] Mutuiamo la fortunata definizione di O. Pollicino-P. Dunn, Intelligenza artificiale e democrazia, Bocconi University Press, Milano, 2024, 6 ss.

[7] V. al riguardo il contributo di S. Quattrocolo, Intelligenza artificiale e processo penale: le novità dell’Ai Act, in questo fascicolo.

[8] Divieto già da tempo fissato in sede europea e ribadito dall’art. 22 del regolamento (UE) n. 2016/679, prevedendo che “l’interessato ha il diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” (primo comma); diritto aperto, tuttavia, a deroghe e limitazioni (art. 22, comma secondo, e 23, Reg. cit.). Si tratta di un principio ulteriormente riaffermato – nella sua proiezione garantistica “minima” identificata dall’obbligo di supervisione umana sui sistemi di IA – dal considerando 73 e dall’art. 14 del nuovo Regolamento UE 2024/1689 (c.d. Artificial Intelligence Act), che prevedono un obbligo di progettazione e sviluppo dei sistemi di IA ad alto rischio sotto il controllo di persone fisiche, oltre ad un dovere di individuare adeguate misure di sorveglianza umana prima dell’immissione del sistema di IA sul mercato o, comunque, della sua messa in servizio.

[9] Il principio “under user control”, ossia la garanzia dell’intervento umano, è stato affermato, in seno al Consiglio d’Europa, dal CEPEJ (la European Commission for the Efficiency of Justice), nella Carta etica per l’uso dell’intelligenza artificiale nei sistemi artificiali e negli ambiti connessi.

[10] Come il divieto di utilizzo del riconoscimento facciale ai fini di law enforcement, ai sensi dell’art. 5, lett. h, AIA.

[11] Come previsto nell’Annex III, i sistemi di AI destinati ad essere utilizzati da un’autorità giudiziaria, o per conto di questa, al fine di assisterla nell’accertamento dei fatti, nell’interpretazione della legge, e nell’applicazione della legge ai singoli casi, o ad essere analogamente utilizzati per la risoluzione alternativa delle controversie (ADR), sono considerati ad alto rischio, e pertanto assoggettati a limitazioni più stringenti per l’accesso al mercato, tra le quali la FRIA, ossia una valutazione prognostica che richiede che l’utilizzatore consideri previamente “l’impatto che tale sistema può avere sui diritti fondamentali” (art. 27 AI Act, par. 1).

[12] Così, infatti, ancora S. Quattrocolo, Intelligenza artificiale e processo penale, cit. In argomento, cfr. anche M. Gialuz, Prove fondate sull’intelligenza artificiale e diritti fondamentali, in questo fascicolo.

[13] V., al riguardo, le osservazioni di M. Lanzi, Uso di strumenti a Intelligenza Artificiale e imputazione della responsabilità penale: difficoltà ricostruttive e prospettive di intervento, in questo fascicolo.

[14] Sul tema, cfr. le prospettive di riforma tratteggiate da F. Consulich, Il diritto penale al tempo dell’intelligenza artificiale. Prospettive punitive nazionali dopo l’AI Act, in questo fascicolo.