Enter your keyword

LA GIUSTIZIA ARTIFICIALE REPLICANTE – DI MARIO CATERINI

LA GIUSTIZIA ARTIFICIALE REPLICANTE – DI MARIO CATERINI

CATERINI – LA GIUSTIZIA ARTIFICIALE REPLICANTE.PDF

LA GIUSTIZIA ARTIFICIALE REPLICANTE

di Mario Caterini*

In memoria di Francesco Forzati

Dopo la disamina dei diversi modelli di funzionamento dell’intelligenza artificiale nel mondo del diritto (rule-based reasoning, case based reasoning, IA generativa) e l’esposizione dei princìpi fondamentali che ispirano le carte internazionali e i progetti di legge sul tema, l’Autore si sofferma sulle implicazioni che un algoritmo “replicante”, basato sui precedenti giurisprudenziali, può avere sulla legalità penale qualora si ammettessero forme di giustizia artificiale predittiva, volta ad anticipare, oppure a supportare o, addirittura, a surrogare la decisione giudiziale. L’Autore, qualora ciò avvenisse, propone un modello di funzionamento dell’intelligenza artificiale basato non su criteri puramente statistici, ma sul favor rei, come prerogativa del sistema penale, modello che prevede anche un onere motivazionale confutativo del giudice umano qualora lo stesso non si volesse conformare alla decisione più favorevole suggerita dall’intelligenza artificiale.

After an examination of the different models of artificial intelligence in the world of law (rule-based reasoning, case-based reasoning, generative AI) and an exposition of the fundamental principles that inspire international charters and draft laws on the subject, the Author dwells on the implications that a “replicating” algorithm, based on case law precedents, may have on criminal legality if forms of predictive artificial justice were to be admitted, aimed at anticipating, or supporting or even replacing the judicial decision. If this were to happen, the Author proposes a model of artificial intelligence operation based not on purely statistical criteria, but on favor rei, as a prerogative of the penal system, a model that also provides for a rebutative motivational burden on the human judge should he not wish to conform to the more favourable decision suggested by artificial intelligence.

  

Sommario: 1. Un po’ di chiarezza su cos’è l’intelligenza artificiale e su come può operare nel diritto; – 2. I princìpi ispiratori della normativa sulla giustizia predittiva; – 3. Giustizia replicante, legalità penale e favor rei; – 4. Predizione artificiale e confutazione umana.

  

  1. Un po’ di chiarezza su cos’è l’intelligenza artificiale e su come può operare nel diritto.

La recente possibilità di utilizzare ChatGPT, da parte di chiunque e senza particolari difficoltà, forse ha fatto comprendere meglio anche ai giuristi le potenzialità dell’uso dell’intelligenza artificiale pure nel mondo del diritto. Non che prima molti non se ne fossero resi conto, ma questa nuova frontiera dell’intelligenza artificiale generativa – capace di produrre testi, immagini, video, musica in risposta alle richieste dell’utilizzatore umano – aiuta anche i più scettici a comprendere le prospettive e i rischi ai quali può andare incontro pure l’amministrazione della giustizia.

Prima di addentrarci nelle questioni più specifiche riguardanti il diritto penale e, in particolare, la c.d. giustizia predittiva, è bene, sia pur per sommi capi, capire cosa s’intende per intelligenza artificiale e come questa possa essere utilizzata nella giurisdizione. A ben vedere, forse non si dovrebbe parlare genericamente d’intelligenza artificiale, ma di diverse sue forme, perché basate su funzionamenti molto differenti. Quello che accomuna tali diversi sistemi sono, da un lato, i dati raccolti e, dall’altro, l’algoritmo scritto dal programmatore, ossia una «sequenza finita di regole formali (operazioni logiche e istruzioni) che consente di ottenere un risultato a partire da informazioni iniziali di ingresso»[1]. Il modo di operare, però, può essere molto diverso.

A partire dagli anni ’80 dello scorso secolo, si riteneva che per costruire un sistema intelligente, detto “esperto”, fosse necessario ‘codificare’, attraverso un linguaggio formale comprensibile dalla macchina, tutte le regole utili a risolvere un quesito sottoposto alla stessa. Questa tipologia d’intelligenza artificiale è perciò definita rule-based reasoning (RBR)[2]. In breve, è necessario trasferire alla macchina, con un particolare linguaggio informatico, tutta la conoscenza necessaria a risolvere il problema, anche eventualmente di natura giuridica. Ciò implica quella che potremmo definire una sorta di ‘traduzione’ delle regole giuridiche in un linguaggio computazionale, operazione che poi permette alla macchina di restituire un risultato equiparabile alla decisione giudiziale.

Un sistema così costruito presuppone che la decisione giudiziale sia l’esito di una [mera] serie finita di regole, un po’ come auspicavano già gli illuministi, quando nella realtà la stessa è invece frutto anche di altro: valutazioni discrezionali, euristiche ed errori cognitivi, esperienze, emozioni e convinzioni spesso inconsci, che non fanno combaciare il ragionamento giuridico con quello perfettamente razionale e, per così dire, automatico. Mentre, ad esempio, per un problema matematico le regole da seguire sono determinanti e da sole sufficienti alla univoca soluzione, nelle questioni giuridiche non è così perché, seguendo tale impostazione, le regole non sono da sole capaci di dettare un’unica soluzione di per sé corretta. Il ragionamento giuridico, in sintesi, è guidato, ma non pienamente governato dalle regole giuridiche[3]. La necessità di ‘tradurre’ le regole giuridiche in un linguaggio formalizzato comprensibile alla macchina, poi, ha fatto emergere altre rilevanti difficoltà, in riferimento sia alla dispendiosità di tale attività e alla necessità di un continuo e impraticabile aggiornamento, sia all’impossibilità di ‘codificare’ un numero così elevato di regole come richiesto per la gestione della giurisdizione[4].

Le criticità emerse nell’implementazione di questi sistemi esperti, soprattutto in alcuni ambiti come quello del diritto, ne hanno comportato il superamento, volgendo le ricerche verso una direzione diversa da quella volta ad emulare il ragionamento umano, in particolare quello giuridico, constatata la estrema sua complessità, irraggiungibile da un sistema informatico, almeno al momento. La nuova prospettiva segue un modello non più deduttivo, ma induttivo, partendo, dunque, non dalla codificazione informatica di regole, bensì da esperienze pregresse, da casi pratici precedenti già risolti dall’uomo, definendosi perciò case based reasoning approach (CBR). In sintesi: la soluzione della questione giuridica posta alla macchina passa attraverso l’elaborazione di casi simili già decisi da giudici, mediante tecniche di machine learning che sfruttano i precedenti giurisprudenziali, rilevandone i collegamenti inferenziali, per giungere ad un risultato frutto, dunque, di un modello statistico-matematico. Per questa ragione si può dire che tali sistemi, basati sui casi simili, replicano il risultato del ragionamento umano, anche quello giuridico, ma non riproducono il medesimo ragionamento, come invece pretendeva il modello rule-based reasoning. Ciò equivale a dire che i sistemi artificiali basati sui precedenti non hanno l’ardire di simulare il ragionamento umano, ma si limitano a tentare di arrivare a risultati simili, ovvero, non sono progettati per rispondere alla domanda perché avverrà una certa cosa, ma solo per indicare la probabilità più o meno elevata che essa avvenga[5].

Per fare un esempio nell’ambito delle diagnosi mediche basate sulle immagini radiologiche, i sistemi che sfruttano l’intelligenza artificiale impiegano banche dati di precedenti immagini, delle quali è però nota la natura – fisiologica o patologica, benigna o maligna – della parte del corpo che ritraggono. Il sistema di intelligenza artificiale non saprà perché quell’immagine indica eventualmente una patologia, perché non ha la base di conoscenza dell’ars medica, ma potrà dire con una certa probabilità se quell’immagine rappresenta una patologia o meno. Sembra ovvio, poi, che tanto maggiore sarà la quantità e qualità delle immagini precedenti, tanto migliore sarà la precisione della previsione.

L’esempio ora fatto, d’altronde, offre il destro per evidenziare una distinzione, importante, con la giustizia predittiva. La patologia, infatti, è una realtà fenomenica che l’uomo, magari sino ad un certo stadio, non riesce a diagnosticare con adeguata precisione o affatto, ma è un qualcosa che esiste o non esiste nella materialità del mondo e c’è solo un problema d’incertezza del suo accertamento, per il quale i sistemi d’intelligenza artificiale – adeguatamente addestrati sulla base di innumerevoli altre immagini di precedenti casi simili – possono fornire un ausilio elevatissimo avendo una capacità di elaborazione non paragonabile a quella umana. Il mondo del diritto, invece, non funziona in questa maniera, come in parte abbiamo già visto, perché, come diremo meglio oltre, è possibile che una stessa norma sia interpretabile in diversi modi, tutti ragionevoli, ciò spiegando, almeno in parte, la richiamata discrezionalità giudiziale. Se così è, limitando il campo alla giustizia penale, dietro l’alternativa assoluzione/condanna non c’è lo stesso modello che in medicina rappresenta l’alternativa fisiologia/patologia diagnosticabile per immagini. Il medico, magari, non ha la capacità di accertare l’una o l’altra delle opzioni, ma nella realtà esiste un dato fenomenico corrispondente ad una delle alternative, sia pur imperscrutabile all’uomo, per cui l’intelligenza artificiale può essere di molto ausilio anche nel rilevare precocemente anomalie che possono portare a patologie nel breve o nel lungo periodo. La scelta a favore dell’assoluzione o della condanna, invece, a prescindere dall’accertamento del fatto, può dipendere anche da questioni giuridico-interpretative che non funzionano secondo una logica on/off, oppure vero/falso, ma lasciano spazio a plausibili argomentazioni foriere di possibili diverse soluzioni ragionevoli.

I sistemi basati sui precedenti, se hanno il pregio di non richiedere la ‘traduzione’ in linguaggio informatico di tutte le regole di un ordinamento giuridico, hanno però altri difetti, in termini di trasparenza e affidabilità, intimamente connessi. In primo luogo, infatti, come abbiamo anticipato, tali macchine non sono in grado, almeno al momento, di informare gli utenti circa le correlazioni statistiche alla base del risultato prodotto dall’algoritmo. Per questo si dice che tali sistemi operano come black boxes, come dei meccanismi di cui non è possibile conoscere il reale funzionamento, con tutte le ovvie implicazioni in termini di fallimento di molte delle garanzie penali: dal diritto di difesa all’obbligo della motivazione, ecc. In secondo luogo, l’affidabilità del risultato prodotto dalla macchina dipende dalla quantità e qualità dei precedenti inseriti nelle banche dati di riferimento. Senza contare – ma questo potrebbe essere un pregio – che il sistema non sembra in grado di intercettare quei fattori (emozioni, sentimenti, ideologie, euristiche ed errori cognitivi, ecc.) che nei casi concreti hanno spinto il giudice umano verso una certa decisione. Del resto, se ciò fosse capace di fare, non farebbe altro che replicare e perpetuare gli stessi pre-giudizi.

L’ultima frontiera pare essere – ovviamente al momento – quella dell’intelligenza artificiale generativa, come quella dell’ormai noto sistema denominato ChatGPT, che si caratterizza per l’uso di volumi giganteschi di dati posti a fondamento del suo funzionamento e per la possibilità di porre delle domande con linguaggio naturale e ottenere delle risposte in termini di testi, immagini, audio e video. Questi sistemi, dunque, producono contenuti nuovi – prima inesistenti perché frutto della combinazione dei dati utilizzati per l’addestramento – analizzando, rielaborando e apprendendo gli schemi e le relazioni rilevabili dall’enorme data set di riferimento. In breve, si può dire che l’intelligenza artificiale generativa crea per imitazione[6]. La peculiarità di tali sistemi, che li rende facilmente utilizzabili da soggetti anche senza particolari competenze, è proprio quella d’interagire con l’utente sotto forma di dialogo naturale, fornendo delle risposte che sembrano essere generate da un uomo, anche a possibili quesiti giuridici. In realtà, attraverso sofisticati strumenti di machine learning e sempre ricorrendo a correlazioni ed inferenze statistiche, tali sistemi sono in grado di individuare i modelli e le strutture ripetitive del linguaggio umano e utilizzarli, a loro volta, per costruire frasi di senso compiuto e dare risposte pertinenti alle domande. Se prima i sistemi intelligenti basati sui precedenti potevano sviluppare una sorta di previsione, in termini statistici, sul possibile esito di un giudizio, ora, mediante un’intelligenza artificiale generativa adeguatamente addestrata, potrebbero arrivare a scrivere una sentenza che, del resto, non sarebbe il prodotto di un ragionamento giuridico, ma di una pertinente concatenazione di parole, frutto dell’imitazione dei modelli linguistici appresi durante l’addestramento, ad esempio sui precedenti giurisprudenziali[7]. Anche per questi sistemi, dunque, valgono considerazioni e criticità simili a quelle viste in precedenza: non ‘ragionano’ ma cercano di replicare, per imitazione, risultati simili a quelli che avrebbe raggiunto un uomo[8].

  1. I princìpi ispiratori della normativa sulla giustizia predittiva.

La pervasività dei tools d’intelligenza artificiale e la loro estrema diffusione, negli ultimi tempi, hanno indotto le organizzazioni governative a predisporre delle normative volte a disciplinarli, che riguardano anche, più o meno direttamente, la loro applicazione nel mondo del diritto. In questa sede non è possibile darne compiuto conto, ma ci possiamo limitare a ricordare quei princìpi che possono avere più immediate ricadute sulle decisioni giudiziali e sulle criticità, in termini di trasparenza e affidabilità, prima richiamate.

Si tratta, spesso, di strumenti di c.d. soft law, come la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, stilata dalla Commissione europea per l’efficienza della giustizia (CEPEJ), approvata dal Consiglio d’Europa il 3 dicembre 2018. Si rivolge agli attori pubblici, in particolare ai legislatori, con l’obiettivo d’incoraggiare l’uso dell’intelligenza artificiale nella giustizia, per migliorarne qualità ed efficienza, nel rispetto di alcuni princìpi etici. Tra questi possiamo ricordare il primo, quello volto ad assicurare che la progettazione e l’applicazione di strumenti e servizi d’intelligenza artificiale siano compatibili con i diritti fondamentali, in particolare quelli consacrati nella Convenzione europea dei diritti dell’uomo. Vengono in rilievo, dunque, il principio di legalità, di indipendenza della magistratura, il diritto a un equo processo e all’accesso alla giurisdizione e, specificamente, anche quello di presunzione d’innocenza e, quindi, dell’in dubio pro reo, di cui parleremo meglio in seguito. «[…] Appare essenziale, quando gli algoritmi sono utilizzati nel contesto di un processo penale, garantire il pieno rispetto del principio della parità delle armi e della presunzione di innocenza di cui all’articolo 6 della CEDU»[9]. Le appendici a tale Carta etica, in tutto tre, mettono in evidenza alcuni profili di nostro interesse. Ad esempio, nella prima, se, da un lato, si pongono in rilievo le grandi potenzialità delle tecnologie algoritmiche anche per la giustizia predittiva, dall’altro si evidenzia che il miglioramento dell’efficienza dei sistemi giudiziari che ne può derivare deve comunque coniugarsi con il rafforzamento delle garanzie proprie di uno Stato di diritto[10]. La seconda appendice è destinata ad esporre i possibili utilizzi dell’intelligenza artificiale nei sistemi giudiziari, sostenendone l’impiego in maniera differenziata a seconda della maggiore o minore conformità degli stessi ai princìpi etici declinati dalla medesima Carta. Se è incoraggiata la valorizzazione del patrimonio giurisprudenziale mediante l’uso di tools algoritmici, l’anticipazione delle decisioni giudiziali attraverso l’elaborazione informatica dei precedenti giudiziari, invece, è un impiego dell’intelligenza artificiale che, secondo la Carta etica, necessita di studi scientifici supplementari[11].

La Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto, approvata il 17 maggio del 2024, prescrive agli Stati aderenti di adottare regolamentazioni sull’intelligenza artificiale in grado di rispettare i princìpi fondamentali, come quello della dignità umana e libertà individuale (art. 7), della trasparenza e supervisione (art. 8), della responsabilità e affidabilità (art. 9), dell’equità e non discriminazione (art. 10), ecc. Il documento ha una portata molto ampia e generica, mentre il Regolamento europeo sull’intelligenza artificiale, n. 1689 del 13 giugno 2024, sancisce una disciplina meno incerta, partendo dall’idea che i sistemi di intelligenza artificiale espongono a rischi, differenti, i diritti e le libertà fondamentali dell’uomo. Classifica il rischio in basso, alto e inaccettabile, collegandovi differenti regolamentazioni dei sistemi algoritmici. Nella fascia ad alto rischio (art. 6, par. 2), ad esempio, sono collocati i tools per finalità di polizia o di giustizia, così definiti: «sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie» (all. 3, punto n. 8.a)[12]. Nella definizione europea, dunque, si fa espresso riferimento anche ai sistemi algoritmici utili all’interpretazione del diritto e della legge. Tale classificazione, ad alto rischio, impone ai produttori di questi strumenti l’adempimento di alcuni obblighi volti a garantire la qualità dei dati, la trasparenza, la tracciabilità, la sicurezza, la gestione del rischio e la sorveglianza umana. In sintesi, il recente Regolamento europeo intende prevenire la lesione dei diritti fondamentali da parte dei tools algoritmici, imponendo agli operatori del settore elevati standard di qualità, affidabilità, sicurezza e trasparenza.

Degno di menzione, in questa rapida carrellata, è anche il nostro recente disegno di legge recante disposizioni e delega al Governo in materia di intelligenza artificiale, approvato dal Consiglio dei ministri il 23 aprile 2024. L’art. 14 si occupa specificamente dell’utilizzo dell’intelligenza artificiale nell’attività giudiziaria, sancendo, al primo comma, che «i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale». Mentre, al secondo, stabilisce che «è sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento». In merito, è stato osservato che da questa norma «emergono, prima facie, mere petizioni di principio, prive di norme prescrittive e cogenti idonee a modificare l’assetto normativo vigente», con una «scelta di fondo […] estremamente generica e non corredata da alcuna disposizione che valga ad escludere l’acquisizione al processo e la valutazione ai fini della decisione da parte del giudice di evidenze probatorie formate con l’ausilio dei sistemi algoritmici. La succinta disciplina che si vuole introdurre, pertanto, non parrebbe idonea, a legislazione vigente, ad escludere l’utilizzo nel procedimento penale, per la fase delle indagini preliminari (la cd. “polizia predittiva”) e per il dibattimento, dei sistemi di intelligenza artificiale, con riferimento all’assunzione delle prove, nonché con riguardo all’ausilio del giudice nella pronuncia della sentenza. Ausilio, invero, non escluso dall’AI Act, purché non totalizzante e trasparente»[13]. In effetti, destinare i tools algoritmici all’organizzazione e alla semplificazione del lavoro giudiziario, non esclude di per sé un uso degli stessi come strumenti di supporto alle decisioni, sebbene il disegno di legge riservi queste al giudice, prevendendo però espressamente che l’intelligenza artificiale possa essere adoperata per la ricerca giurisprudenziale e dottrinale. Come nota positiva è da segnalare che questo disegno immagina espressamente non solo la giurisprudenza, ma, appunto, anche la dottrina come oggetto delle ricerche che i magistrati faranno, con l’ausilio dell’intelligenza artificiale, per supportare le loro decisioni. L’interpretazione delle leggi, dunque, è riservata al giudice, ma, se questo disegno di legge verrà approvato, sarà corroborata da strumenti algoritmici utili a ricerche non solo giurisprudenziali, ma anche relative alla dottrina.

  1. Giustizia replicante, legalità penale e favor rei.

Da quanto abbiamo scritto a proposito della c.d. giustizia predittiva – cioè che gli strumenti d’intelligenza artificiale non fanno altro che ‘replicare’ i precedenti giurisprudenziali (§ 1) – l’uso di questi tools sembra destinato a rafforzare il valore degli stessi precedenti. Se ciò, forse, sembra generare meno preoccupazioni negli ordinamenti di common law, cosa diversa è per quelli di civil law, nei quali il giudice dovrebbe essere soggetto solo alla legge, secondo i princìpi di stretta legalità e riserva di legge, peraltro sempre più messi in discussione dal valore assunto nella prassi proprio dai precedenti giudiziari[14]. Soluzioni di tale natura comporterebbero una mutazione genetica dello ius dicere. Infatti, gli algoritmi, come abbiamo già cercato di spiegare, allo stato non sono capaci di cercare, individuare e interpretare la norma applicabile secondo il tradizionale principio iura novit curia, ma esauriscono il loro presunto ‘giudicare’ nella mera emulazione dei precedenti giurisprudenziali. Ciò, tutto sommato, sarebbe meno incoerente con quella tendenza a semplificare la motivazione della sentenza mediante il rafforzamento del valore dei precedenti giurisprudenziali, sorta nel sistema civile e che non ha mancato di trovare qualche spazio anche in quello penale[15]. D’altronde, se tale tendenza venisse attuata e integrata attraverso un sistema artificiale, verrebbero ancor più eluse le garanzie ricollegate alla motivazione della sentenza[16]. Negli ordinamenti di civil law, infatti, decidere significa soprattutto motivare, in modo dialettico, e non può esaurirsi nell’applicazione di precedenti giurisprudenziali secondo una logica binaria: on/off, vero/falso. L’interpretazione giuridica comporta quasi sempre la scelta tra ipotesi alternative[17], spiegando le ragioni di questa preferenza, senza che ciò possa trovare serie possibilità di surroga – o scimmiottamento – con l’apparente oggettività meccanica di un algoritmo che non può dare tale spiegazione[18].

Dunque, posto che l’interpretazione giuridica ammette quasi sempre diverse opzioni plausibili perché razionalmente fondate, l’algoritmo, tra diverse opzioni emergenti dai precedenti, potrebbe scegliere secondo il criterio del “più probabile che non”, un parametro statistico che seleziona l’orientamento più consolidato perché più frequente. Questo sembra essere il criterio attualmente scelto per i sistemi di c.d. giustizia predittiva, proprio perché volti a calcolare la probabilità di un certo esito giudiziale. È stato chiarito, infatti, che l’intelligenza artificiale fornisce strumenti basati su un approccio statistico, con avanzate capacità di calcolo e di autoapprendimento, in grado di cogliere varie correlazioni tra le informazioni e di restituire rapidamente una risposta. Così funzionando, gli algoritmi sono utili a calcolare rigorosamente il più robusto orientamento giurisprudenziale in termini meramente frequentisti, la cui individuazione fino a oggi invece è affidata all’intuizione del giudice[19]. D’altronde, permettere all’algoritmo basato su precedenti giudiziari di operare secondo la regola del “più probabile che non”, a nostro avviso, solleverebbe ulteriori perplessità, a maggior ragione nel diritto penale[20]. In realtà, tra le varie opzioni interpretative, tutte plausibili, la scelta tra di esse non dovrebbe essere compiuta secondo una [troppo] libera convinzione del giudice come intuizione acritica, né dovrebbe dipendere dalle operazioni statistiche dell’algoritmo. In precedenti ricerche, infatti, abbiamo delineato una possibile via per tentare di superare l’eccessiva discrezionalità del giudice penale, che spesso ha permesso al diritto giurisprudenziale di dare spazio a scelte che nella sostanza sono di politica criminale, ovvero etiche o ideologie[21]. Tale via, a ben vedere, potrebbe trovare accoglimento anche nella giustizia algoritmica – proprio con riguardo all’inidoneità del criterio del “più probabile che non” – per tentare di porre rimedio quantomeno alle più eclatanti frizioni con taluni princìpi fondamentali del diritto penale[22].

Sulla base dei princìpi fondamentali di un diritto penale costituzionalmente orientato, la tesi che proponiamo ha due lombi[23]. Il primo riguarda la soluzione ermeneutica più favorevole all’imputato che il giudice dovrebbe scegliere tra le diverse opzioni plausibili[24]. Una scelta esegetica univoca – simile alla rule of lenity del sistema statunitense[25] – che dovrebbe contribuire anche a una maggiore certezza del diritto, intesa come possibilità di previsione dei risultati interpretativi e non come mera vis espansiva del potere punitivo. In tale ottica, il favor rei è un principio utile a risolvere non solo i dubbi sull’accertamento del fatto, ma anche quelli, ragionevoli, di natura interpretativa[26]. Pare militare in tal senso anche l’art. 6 della Direttiva Europea 2016/343/UE secondo cui: «ogni dubbio sulla colpevolezza deve essere risolto in favore dell’imputato». Un concetto così ampio di dubbio, questo, ricadente su qualsiasi forma di colpevolezza, che perciò appare includere anche il dubbio sull’interpretazione della legge[27].

In tale scenario, uno dei problemi relativi all’applicazione dell’intelligenza artificiale al sistema penale – lasciandone da parte altri[28] – potrebbe affrontarsi mediante l’implementazione algoritmica dell’in dubio interpretatio pro reo. Il funzionamento di un sistema basato su precedenti, infatti, potrebbe operare calcolando una serie di opzioni interpretative, tra le quali poi selezionare non quella statisticamente più frequente, ma quella più favorevole all’imputato. In tal modo, si ridimensionerebbero le tensioni col principio di stretta legalità, inteso come shield e non come sword[29], che altrimenti sarebbero enfatizzate qualora il precedente giudiziario, e non la legge, fosse utilizzato dal robot per legittimare una sentenza più sfavorevole[30].

Il principio dell’in dubio pro reo, che deriva dal favor rei, dovrebbe quindi essere attuato non solo nell’accertamento del fatto, ma esteso anche al ragionevole dubbio interpretativo[31]. Non si dovrebbe, perciò, applicare la diversa regola del “più probabile che non”, che consente di scegliere, tra più interpretazioni, quella considerata più giusta o – nella prospettiva statistica di un Knowledge-Based System – quella calcolata come la più consolidata nella giurisprudenza[32].

Se, in futuro, il decisore politico volesse introdurre in qualche modo il giudizio robotico nel sistema penale, dunque, a nostro avviso dovrebbe farlo solo in vista di una sentenza assolutoria o più favorevole rispetto alle altre possibili in ragione dei meri precedenti giurisprudenziali. Si dovrebbe quindi sviluppare un algoritmo non solo ottimizzato tecnologicamente, ma anche caratterizzato da precisi orientamenti costituzionali, lato sensu ‘politici’[33]. La filosofia, in fondo, ci ha insegnato che la tecnologia non è neutrale, ma fa politica[34].

  1. Predizione artificiale e confutazione umana.

Il secondo lombo della tesi che stiamo esponendo riguarda i suoi aspetti processuali ed è intimamente connesso al primo, quello dell’in dubio intepretatio pro reo, esposto nel precedente paragrafo. Infatti, poiché il reato è quel fatto corrispondente ad una fattispecie criminosa e accertato secondo le regole del giusto processo, è chiaro che queste regole contribuiscono a determinare quando il reato stesso può dirsi realizzato. Se così è, la regola dell’interpretazione favorevole dovrebbe essere coniugata, dal punto di vista processuale, con l’obbligo di motivare la decisione pregiudizievole indicando le ragioni che, eventualmente, hanno portato il giudice a scegliere un’interpretazione più sfavorevole anziché un’altra più vantaggiosa per l’incolpato. Tale onere, più precisamente, non dovrebbe essere assolto con la mera esposizione delle ragioni a sostegno della plausibilità dell’opzione ermeneutica scelta[35]. A questa pars costruens della motivazione dovrebbe aggiungersene una destruens, di confutazione, ossia la spiegazione delle ragioni per cui l’opzione interpretativa più favorevole è ritenuta dal giudice implausibile, illogica o irragionevole e, solo in quanto tale, da escludere[36]. Per indurre a scegliere l’opzione interpretativa più favorevole all’imputato, dunque, non sarebbe necessario che questa sia l’unica ‘giusta’, ma sarebbe sufficiente che tale interpretazione sia una di quelle plausibili, escludendo solo quelle meramente capziose e senza alcun valore ermeneutico perché irragionevoli[37]. Se non può escludersi la plausibilità del precedente più favorevole all’imputato, allora, si dovrebbe applicare il diverso criterio dell’«oltre ogni ragionevole dubbio» secondo il paradigma dell’in dubio interpretatio pro reo. In uno scenario culturalmente pluralistico caratterizzato da soluzioni relativizzate, del resto, la decisione non dovrebbe basarsi su una mera opinione, ma su un argomento razionalmente fondato, su una dottrina o una giurisprudenza qualificate, anche se non necessariamente incontestate[38]. In sostanza, su un fondato «conflitto delle ragioni»[39].

La ragionevolezza dell’interpretazione alternativa più favorevole, dunque, potrebbe essere basata anche su un serio orientamento dottrinale che, a questo punto sembra chiaro, dovrebbe essere catalogato, informatizzato e inserito nel data set di un sistema d’intelligenza artificiale. Sotto questo profilo è importante l’apertura verso la dottrina che abbiamo evidenziato a proposito del richiamato disegno di legge in materia di intelligenza artificiale (§ 2), approvato il 23 aprile 2024, che, nell’ambito della semplificazione del lavoro giudiziario, permette l’uso degli algoritmi non solo per le ricerche giurisprudenziali, ma anche per quelle sulla dottrina. L’utilizzo di questi studi consentirebbe alla dottrina di aver un ruolo meno marginale rispetto a quello che ha assunto negli ultimi tempi nella capacità di orientare il c.d. diritto vivente, perché il giudice dovrebbe confrontarsi con un’elaborazione – spesso raffinata, ben argomentata e logica – che non sarebbe semplice da confutare, non, come abbiamo detto, con la semplice prospettazione di una tesi alternativa pur essa ragionevole, ma con motivi in grado di ‘smontare’ la ragionevolezza dell’interpretazione più favorevole elaborata da un serio orientamento dottrinale.

È ovvio, poi, che un sistema del genere potrebbe essere basato sui precedenti giurisprudenziali, per esempio, della Corte di cassazione, utili a dimostrare la non implausibilità di un’interpretazione favorevole[40]. Potrebbe essere questo un modo per integrare il ruolo del precedente giurisprudenziale con il principio del favor rei: una sorta di vincolatività relativa del precedente se in bonam partem, a maggior ragione se proveniente dalla suprema Corte[41]. Attualmente, infatti, molti fattori spingono «verso una minore “ossessione” per la legge scritta come punto di riferimento esclusivo del nullum crimen, e verso un maggiore riconoscimento del precedente giurisprudenziale come uno dei fattori capaci di generare il diritto»[42]. A nostro avviso, del resto, è necessario tendere verso soluzioni in cui questa law in action semmai produca i suoi effetti solo se favorevoli all’imputato. Quindi, una sorta di “creazione” relativa della norma attraverso il precedente giudiziale, purché in bonam partem[43].

Ovviamente – anche alla luce dei richiamati princìpi ispiratori della normativa sulla giustizia predittiva (§ 2)[44] – l’idea qui prospettata non implica affatto l’esclusione del giudice dal processo decisionale, ma un supporto ad esso, una sorta di commistione tra Humanitas e techne[45], utile a ridurre i tempi di risposta dell’autorità giudiziaria, a migliorare la prevedibilità nell’applicazione della legge e a garantire maggiore uniformità degli orientamenti giurisprudenziali[46]. Nel nostro caso, tale aiuto dovrebbe consistere nell’indicare al giudice l’argomentazione giuridica più favorevole all’imputato ricavabile dai precedenti giudiziari e dalla dottrina, che sarebbe da considerare una sorta di default option. Vi sarebbe, dunque, una sorta di obbligo di consultazione del sistema informatico, il cui ‘responso’ vincolerebbe il giudice ad una motivazione rafforzata, ovvero confutativa, solo nel caso in cui lo stesso volesse optare per un’interpretazione più sfavorevole rispetto a quella suggerita dall’intelligenza artificiale[47].

Se il giudice, per alleggerire un po’ la sua «fatica di pensare»[48], volesse invece aderire a questo suggerimento cibernetico più favorevole, l’onere della motivazione sarebbe semplificato, potendo fare riferimento all’elaborazione algoritmica dei precedenti giudiziari e degli studi della dottrina. Se viceversa il giudice volesse optare per una scelta ermeneutica più sfavorevole rispetto a quella suggerita dall’intelligenza artificiale, allora l’onere motivazionale del giudice dovrebbe essere rafforzato con quella pars destruens che prima abbiamo definito confutativa[49]. La certezza del diritto in un’ottica processuale, infatti, dovrebbe essere frutto di una razionalità discorsiva e, dunque, anche confutativa, in grado di opporsi alla ‘supremazia’ della tecnologia[50]. In definitiva, in tali casi, il giudice nella motivazione non potrebbe limitarsi a illustrare solo le ragioni utili a dimostrare la logicità dell’interpretazione più sfavorevole, ma dovrebbe spiegare anche perché non è plausibile l’opzione interpretativa più favorevole suggerita dal Knowledge-Based System. Infatti, come già detto, un’interpretazione logica di una norma non esclude di per sé la razionalità di un’interpretazione alternativa. Tale soluzione assicurerebbe la maggiore controllabilità della motivazione del giudice in quelle occasioni in cui il principio di legalità pretende maggiori garanzie per l’imputato, cioè in caso di condanna o di sentenza più sfavorevole.

Per concludere, i postulati assiologici di funzionamento dei sistemi di c.d. giustizia predittiva dovrebbero essere distinti in base all’ambito giuridico di riferimento[51]; ciò perché quanto abbiamo qui esposto, come è ovvio, può essere valido per il solo sistema penale, al quale sono riferibili i richiamati princìpi del favor rei e dell’oltre ragionevole dubbio[52]. Nonostante i ‘difetti’ dei giudici in carne e ossa, derivanti proprio dalla loro ‘umanità’, nel mondo del diritto la loro funzione al momento sembra insurrogabile. Se ciò è vero, non persuadono però neppure quegli atteggiamenti luddisti che sottovalutano il fenomeno, invece incalzante, dell’intelligenza artificiale applicata all’amministrazione della giustizia. Bisogna, piuttosto, fare seriamente i conti con questo, affermando la necessità di un ruolo centrale dei giuristi nello sviluppo di tali sistemi, che non può essere abbandonato agli esperti del dominio informatico. Un ruolo da protagonista, non abdicabile, che dovrà servire a indirizzare il funzionamento degli strumenti algoritmici verso il rispetto, in primo luogo, dei princìpi costituzionali, marcando bene le peculiarità e rivendicando appieno le garanzie proprie del sistema penale.

* Professore ordinario di Diritto penale presso l’Università della Calabria

[1] Commissione europea per l’efficienza della giustizia (CEPEJ), Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Strasburgo, 3-4 dicembre 2018, Appendice III: Glossario, p. 45.

[2] D. Watermann, M. Peterson, Rules based models of legal expertise, in Proceedings the First Annual National Conference on Artificial Intelligence, Stanford University, 18-21 agosto 1980, pp. 272-275; D. Watermann, J. Paul, M. Peterson, Expert systems for legal decision making, in Expert Systems, 1986, vol. 3, n. 4, p. 212 ss.

[3] N. MacCormick, Legal Reasoning and Legal Theory (1979), Oxford, 1994; R.A. Posner, How Judges Think, Cambridge, 2008; G. Cevolani, V. Crupi, Come ragionano i giudici: razionalità, euristiche e illusioni cognitive, in Criminalia, 2017, p. 181 ss.

[4] CEPEJ, Carta etica europea, cit., Appendice I, pp. 24-25; M. Clement, Les juges doivent-ils craindre l’arrivée de l’intelligence artificielle?, in Recueil Dalloz, 2018, p. 104 ss.; S.M. Ferrié, Les algorithmes à l’épreuve du droit au procès équitable, in La semaine juridique, n. 11, 2018, p. 498 ss.

[5] A. Simoncini, Diritto costituzionale e decisioni algoritmiche, in S. Dorigo (a cura), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, p. 53. Bisogna ricordare del resto che gli studi sul legal semantic web hanno ottenuto rilevanti risultati anche in merito al ragionamento automatico o non monotòno sulle norme, sviluppando le c.d. ontologie giuridiche, ossia sistemi di rappresentazione della conoscenza basati sugli standard e i criteri del semantic web capaci di catturare diversi aspetti della conoscenza giuridica: dai concetti fondamentali, compresi quelli deontici, ai concetti specifici delle fattispecie di dominio. In tema si rinvia, con ulteriori ampli riferimenti bibliografici, a E. Francesconi, Intelligenza artificiale e diritto: tra scienza e fantascienza, ivi, p. 5 ss. In tema recentemente anche G. Del Gamba, La base giuridica per decisioni automatizzate attraverso tecniche di machine learning, in S. Faro, T.E. Frosini, G. Peruginelli (a cura), Dati e algoritmi. Diritto e diritti nella società digitale, Bologna 2020, cap. XII.

[6] J. Kaplan, Generative A.I. Conoscere, capire e usare l’intelligenza artificiale generativa, trad. it. di P. Bassotti, Roma, 2024; G. Vaciago (a cura), Intelligenza artificiale generativa e professione forense, Milano, 2024.

[7] «L’intelligenza artificiale generativa funziona apprendendo modelli e caratteristiche da ampie raccolte di dati. Si basa su una comprensione statistica del linguaggio: il suo scopo è quello di definire, con la massima certezza possibile, la parola successiva, senza alcuna conoscenza propria. Quindi, quando il sistema scrive che J.F. Kennedy è stato Presidente degli Stati Uniti, non è perché ha una base di conoscenza che crea un collegamento diretto tra queste due informazioni, ma perché, nei casi che ha incontrato (nei dati di addestramento), l’associazione Kennedy e Presidente degli Stati Uniti è stata fatta molto spesso. Ha quindi dedotto che questa associazione era probabilmente rilevante. I dati di addestramento sono costituiti per lo più da informazioni reperite su internet, da insiemi di dati selezionati e da informazioni immesse nella macchina da altri utenti tramite prompt» (t.d.r.); cfr. European Commission for the efficiency of justice (CEPEJ), Working group on Cyberjustice and Artificial Intelligence, 12 febbraio 2024, p. 2.

[8] Per una spiegazione più esaustiva dei diversi funzionamenti dei sistemi d’intelligenza artificiale, in particolare nel mondo del diritto, recentemente si veda G. Barone, Giustizia predittiva e certezza del diritto, Pisa, 2024, p. 47 ss.

[9] CEPEJ, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, p. 37, punto 138 dell’introduzione.

[10] X. Ronsin, V. Lampos, Studio approfondito sull’utilizzo dell’intelligenza artificiale [IA] nei sistemi giudiziari, segnatamente delle applicazioni dell’intelligenza artificiale al trattamento di decisioni e dati giudiziari, Appendice I alla Carta etica europea, cit., p. 13 ss.

[11] CEPEJ, Carta etica, cit., Appendice II, pp. 43-44.

[12] Regolamento europeo sull’intelligenza artificiale, n. 1689 del 13 giugno 2024, considerando n. 61: «Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana».

[13] Giunta e Osservatorio scienza, processo e intelligenza artificiale dell’Unione delle camere penali italiane, documento del 6 maggio 2024, intitolato Prime brevi riflessioni sull’impianto del DDL governativo in materia di intelligenza artificiale e giustizia penale, reperibile all’indirizzo www.camerepenali.it.

[14] Sul tema, tra i tanti, L. Ferrajoli, Crisi della legalità e diritto penale minimo, in Crit. dir., 2001, p. 44 ss.; M. Caterini, L’interpretazione favorevole come limite all’arbitrio giudiziale. Crisi della legalità e interpretazione creativa nel sistema postdemocratico dell’oligarchia giudiziaria, in P.B. Helzel, A.J. Katolo (a cura), Autorità e crisi dei poteri, Padova, 2012, p. 99 ss.; A. Cavaliere, Radici e prospettive del principio di legalità. Per una critica del “diritto penale vivente” interno ed europeo, in Ind. pen., 2017, p. 653 ss.; M. Ronco, La legalità stratificata, in Riv. it. dir. proc. pen., 2018, p. 1387 ss.; G. Amarelli, Dalla legolatria alla post-legalità: eclissi o rinnovamento di un principio, ivi, p. 1406 ss.; P. Aldrovandi, Elusione e diritto penale nella giurisprudenza: l’eterogenesi dei fini del legislatore nel “diritto vivente” e la crisi del principio di legalità nel diritto penale postmoderno, in Ind. pen., 2018, p. 147 ss.

[15] Si pensi, nel sistema civile, ai novelli artt. 281 sexies c.p.c., 360 bis c.p.c. e 118, co. 1, disp. att. c.p.c., e, nel sistema penale, al combinato disposto degli artt. 544, co. 1 c.p.p., 610, co. 1 c.p.p., 618, co. 1 bis, c.p.p. Sul tema generale della vincolatività del precedente, tra i tanti, si rinvia a V. Manes, Dalla “fattispecie” al “precedente”: appunti di “deontologia ermeneutica”, in Cass. pen., 2018, p. 2222 ss.; M. Donini, Fattispecie o case law? La “prevedibilità del diritto” e i limiti alla dissoluzione della legge penale nella giurisprudenza, in Quest. giust., 2018, 4, p. 79 ss.; G. Fildebo, Verso il sistema del precedente? Sezioni unite e principio di diritto, in Dir pen. cont., on line 28 gennaio 2018.

[16] Scettica sull’operatività concreta di queste garanzie, O. Di Giovine, Il “judge-bot” e le sequenze giuridiche in materia penale (intelligenza artificiale e stabilizzazione giurisprudenziale), in Cass. pen., 2020, pp. 960-961.

[17] R. Guastini, Il giudice e la legge, Torino, 1995, p. 19; P.G. Monateri, «Correct our Watches by the Public Clocks». L’assenza di fondamento dell’interpretazione del diritto, in J. Derrida, G. Vattimo (a cura), Diritto, giustizia e interpretazione, Annuario filosofico europeo, Bari, 1998, p. 203; G. Contento, Corso di diritto penale, Vol. I, Roma-Bari, 2004, p. 69 ss.; N. Irti, Un diritto incalcolabile, Torino, Giappichelli, 2016, pp. 84-85.

[18] V. Bichi, Carattere recessivo della legislazione e giurisprudenza normativa: i precedenti tra ratio decidendi e legum inventores, in A. Carleo (a cura), Il vincolo giudiziale del passato, Bologna, 2018, pp. 223-225.

[19] Sui criteri oggi invalsi per stabilire quando un orientamento possa dirsi consolidato o “diritto vivente”, si rinvia a D. Perrone, “Nullum crimen sine iure”?, Torino, 2019, p. 75 ss..

[20] È noto, infatti, che quantomeno a livello di standard probatorio del fatto il sistema penale differisce da quello civile in quanto il primo è improntato al criterio dell’«oltre ogni ragionevole dubbio» e il secondo a quello del «più probabile che non». Su tali distinzioni, nella manualistica si rinvia a P. Tonini, Manuale di procedura penale, Milano, 2010, p. 238. Nella giurisprudenza cfr. Cass., 20 giugno 2013, n. 37373, in Dir & giust., on line 13 settembre 2013, con nota di A. De Francesco, Il giudice penale dirime ogni ragionevole dubbio, spiegando perché le opzioni contrarie vanno respinte. Nella giurisprudenza americana, tuttavia, da tempo si registrano sentenze nelle quali è stata espressa la riluttanza nel riconoscere l’utilità di due differenti standard probatori la cui scelta varia in funzione della natura del processo: sul punto si rimanda a B.D. Underwood, The Thumb on the Scales of Justice: Burdens of Persuasion in Criminal Cases, in Yale Law Review, 1977, p. 1299 ss.

[21] Sia permesso il rinvio a M. Caterini, L’interpretazione favorevole come limite all’arbitrio giudiziale. Crisi della legalità e interpretazione creativa nel sistema postdemocratico dell’oligarchia giudiziaria, in P.B. Helzel, A.J. Katolo (a cura), Autorità e crisi dei poteri, Padova, 2012, p. 99 ss.; Id., Il ruolo «politico» del giudice penale. Una proposta de lege ferenda per arginare la forza creativa del «diritto vivente», in Pol. dir., 2016, p. 509 ss.; Id., Il giudice penale come Ianus bifrons: un auspicabile “strabismo” interpretativo, ivi, 2017, p. 163 ss.

[22] Per una sintetica esposizione delle principali criticità costituzionali del giudizio robotico, si veda F. Donati, Intelligenza artificiale e giustizia, in Riv. AIC, 2 marzo 2020, p. 428 ss.

[23] Per taluni approfondimenti ed esplicitazioni della tesi qui esposta, sia permesso il rinvio a M. Caterini (a cura), Desafíos jurídicos de la inteligencia artificial. Reflexiones sobre la toma de decisiones judiciales, Barcellona, 2024, passim.

[24] Spunti in tal senso anche in M. Ronco, Il principio di legalità, in Commentario sistematico al codice penale, diretto da Ronco, vol. 1, La legge penale, Bologna 2006, p. 80; A. Cadoppi, ‘La legge è uguale per tutti’. Ripensare Beccaria oggi in tema di legalità, tra favor libertatis e diritti fondamentali, in G. Cocco (a cura), Per un manifesto del neoilluminismo penale, Padova, 2016, p. 147; più recentemente e convintamente Id., Il “reato penale”. Teoria e strategie di riduzione della criminalizzazione, Napoli, 2022, p. 219 ss. e 336 ss.

[25] Nell’ordinamento americano, l’idea dell’interpretazione favorevole qui proposta per molti aspetti corrisponde alla rule of lenity. In caso di ambiguità della legge, infatti, tale regola favorisce l’interpretazione più benevola per l’imputato. Le ragioni alla base di questa dottrina, la cui origine è giudiziaria, risiedono nei princìpi di legalità e separazione dei poteri che, attraverso tale regola, si ritiene possano essere più puntualmente rispettati. Sulle origini della regola della ‘lenità’, sul suo fondamento costituzionale e sulle concrete applicazioni giurisprudenziali, tra gli altri, A. Scalia, A matter of interpretation, Princeton, 2018; A. Scalia, B.A. Garner, Reading Law. The Interpretation of Legal Texts, Eagan, 2012; Z. Price, The rule of lenity as a rule of structure, in Fordham Law Review, vol. n. 40, 2004, pp. 885-942; L. Solan, Law, Language and Lenity, in William & Mary Law Review, vol. 57, 1998, p. 57 ss.; S. Hopwood, Clarity in Criminal Law, in American Criminal Law Review, vol. n. 54, 2017, pp. 695-750; B.C. Karkkainen, “Plain Meaning”: Justice Scalia’s Jurisprudence of Strict Statutory Construction, in Harvard Journal of Law & Public Policy, vol. 17, 1994, pp. 401 ss.; W. Popkin, Law-Making Responsibility and Statutory Interpretation, in Indiana Law Journal, vol. n. 68, 1993, p. 865 ss. In senso critico, J.C. Jeffries Jr., Legality, Vagueness, and the Construction of Penal Statutes, in Virginia Law Review, vol. n. 71, 1985, pp. 189 ss., spec. 199-200.

[26] L. Ferrajoli, Diritto e ragione, Bari, 2000, p. 81-83. Il principio secondo cui anche il ragionevole dubbio interpretativo dovrebbe essere sciolto a favore dell’incolpato, pur trovando la sua scaturigine negli assiomi costituzionali e dalle Carte sovranazionali, meglio sarebbe se fosse sancito specificamente in una legge come regola ermeneutica capace di vincolare più strettamente il giudicante, sia esso umano o meccanico. Per gli approfondimenti di questa tesi, sia consentito rimandare a M. Caterini, Il ruolo «politico» del giudice penale, cit., p. 509 ss.; Id., Il giudice penale come Ianus bifrons, cit., p. 163 ss.

[27] Sul punto, sia permesso il rinvio a M. Caterini, Dal cherry picking del precedente alla nomofilachia favorevole all’imputato, in Pol. dir., 2019, p. 330 ss.

[28] Per un’efficace riepilogazione delle principali questioni derivanti dall’eventuale applicazione di strumenti d’intelligenza artificiale al sistema penale, si vedano V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in U. Ruffolo (a cura), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020, p. 547 ss.; F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Dir. pen. e uomo, 2019, on line, 29 settembre 2019; più in generale, F. Basile. M. Caterini, S. Romano (a cura), Il sistema penale ai confini delle hard sciences, Pisa, 2021.

[29] Sulla distinzione della legalità come ‘scudo’ contrapposta ad una sua declinazione invece come ‘spada’, G.P. Fletcher, Basic Concepts of Criminal Law, New York, 1998, p. 206 ss.

[30] Significative le parole di A. Garapon, Ti faresti giudicare da un algoritmo?, in Quest. giust., 2018, p. 196: «Oggi, ciò può significare che il digitale introduce una nuova legalità, nel senso che rinviene delle regolarità all’interno del ragionamento del giudice fra gli elementi prescelti e le decisioni adottate. Ciò permette di stabilire delle correlazioni, che divengono vincolanti nella pratica, anche se esse non corrispondono all’applicazione della legge».

[31] Cfr. M. Caterini, In dubio interpretatio pro reo, in A. Cavaliere et al. (a cura), Politica criminale e cultura penalistica. Scritti in onore di Sergio Moccia, Napoli, 2017, p. 507 ss.; A. Cadoppi, Il “reato penale”, cit., p. 219 ss. e 336 ss.

[32] È stato, infatti, ben osservato – del resto dallo stesso ambiente magistratuale sebbene francese – che «un sistema di giustizia digitale aprioristicamente basata sulla giurisprudenza dominante, sul “quantitativismo” giudiziario, non è accettabile»; cfr. S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?, in Quest. giust., 2018, n. 4, p. 209, la quale pone in luce ancora che la supremazia quantitativa del precedente pregiudica l’indipendenza del giudice e il suo dovere di imparzialità, «in quanto la parte cui la giurisprudenza non è favorevole si trova in una posizione di inferiorità istituzionale».

[33] D. Kehl, P. Guo, S. Kessler, Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessments in Sentencing, Responsive Communities Initiative, in Berkman Klein Center for Internet & Society, Harvard, 2017, p. 34, reperibile al link http://nrs.harvard.edu/urn-3:HUL.InstRepos:33746041, mettono bene in luce che devono essere i decisori politici, a prescindere da supposte esigenze di correttezza tecnica, a dare priorità ai valori che vengono in gioco nel funzionamento degli algoritmi.

[34] U. Galimberti, Psiche e techne. L’uomo nell’età della tecnica, Milano, 1999; E. Severino, Democrazia, tecnica, capitalismo, Brescia, 2009.

[35] H. Jellema, The reasonable doubt standard as inference to the best explanation, in Synthese, 2020, p. 2, «guilt is only established BARD if (1) the best guilt explanation in a case is substantially more plausible than any innocence explanation, and (2) there is no good reason to presume that we have overlooked evidence or alternative explanations that could realistically have exonerated the defendant».

[36] Tale modello ovviamente supererebbe la motivazione implicita ammessa nella giurisprudenza italiana, secondo cui, appunto, la motivazione non è carente se la sentenza manca di un’esplicita confutazione di una deduzione difensiva, se il giudice abbia dato conto delle ragioni in diritto che sorreggono il suo convincimento, giacché quelle contrarie devono considerarsi implicitamente disattese. Cfr., ex multis, Cass., 23 giugno 2011 n. 27741, in Guid. dir., 2011, p. 95. Oggi, invece, sembra militare verso la necessità della confutazione la nuova formulazione dell’art. 546 c.p.p. Su quest’ultimo aspetto, cfr. M. Caterini, Dal cherry picking del precedente alla nomofilachia favorevole all’imputato, cit., p. 333 ss.

[37] La tesi alla quale ci si riferisce evoca la dottrina del c.d. probabilismo nella teologia morale del XVI-XIX sec., che, contro il più rigido leggismo, tendeva ad un bilanciamento tra un lassismo volto a dare rilievo a qualsiasi minimo dubbio capace di liberare l’uomo da ogni legame morale, e un tuziorismo che risultava troppo rigoroso nel momento in cui negava rilevanza alle ‘ragionevoli’ opinioni diverse. In tema, sia permesso il rinvio a M. Caterini, In poenis benignior est interpretatio facienda, in Arch. giur., 2023, fasc. 1, p. 51 ss.; si veda anche M. Gallo, Probabilismo ‘artificiale’ e certezza del diritto penale: un finto ossimoro, in Ordines, on line, 28 agosto 2024.

[38] M. Donini, Democrazia e scienza penale nell’Italia di oggi: un rapporto possibile?, in Riv. it. dir. proc. pen., 2010, p. 1089.

[39] N. Irti, Un diritto incalcolabile, cit., p. 123.

[40] A. Cadoppi, La legge è uguale per tutti, cit, p. 147: «Se di fronte ad una norma di legge la Cassazione, pure a sezioni semplici, può attuare una interpretazione della norma di carattere assolutorio, a meno che quella interpretazione non sia frutto di un clamoroso errore giudiziario, se non addirittura di fantascientifiche ipotesi di malafede di qualche giudice, ciò significa che quell’interpretazione deve ritenersi comunque plausibile. Magari non è detto che sia la migliore interpretazione, sempre che esista l’interpretazione migliore, ma comunque è un’interpretazione plausibile».

[41] Argomenti in questo senso già in M. Caterini, L’interpretazione favorevole come limite dell’arbitrio giudiziale, cit., p. 118 ss.

[42] A. Cadoppi, Il principio di legalità e i suoi corollari, in A. Cadoppi, S. Canestrari, A. Manna, M. Papa (a cura), Trattato di diritto penale, Parte generale, vol. I, Il diritto penale e la legge penale, Torino, Utet, 2012, p. 97.

[43] Sulle repliche alla prevedibile obiezione relativa al contrasto della tesi esposta con il principio di stretta legalità, si rinvia a M. Caterini, Effettività e tecniche di tutela nel diretto penale dell’ambiente, Napoli, 2017, p. 277 ss.

[44] Sulla non esclusività della decisione robotica come principio del diritto europeo e per molti versi anche globale, si veda A. Simoncini, Diritto costituzionale e decisioni algoritmiche, cit., p. 54 ss.

[45] A. Carcaterra, Machinae autonome e decisione robotica, in A. Carleo (a cura), Decisione robotica, cit., p. 33 ss.

[46] Posto che il machine learning potrebbe assicurare una maggiore stabilizzazione della giurisprudenza, O. Di Giovine, Il “judge-bot”, cit., pp. 962 ss., s’interroga se ciò sia davvero un effetto così desiderabile.

[47] Sui possibili obblighi di previa consultazione da parte del giudice di un sistema d’intelligenza artificiale e su una qualche forma di vincolatività del relativo responso, si vedano U. Ruffolo, Giustizia predittiva e macchina sapiens quale “ausiliario” del giudice umano, in Astrid, 2021, fasc. 8, p. 1 ss.; G. Tuzet, L’algoritmo come pastore del giudice? Diritto, tecnologie, prova scientifica, in Media Law, 2020, fasc. 1, p. 45 ss.; più recentemente S. Barone, Giustizia predittiva, cit., p. 144 ss.

[48] L’espressione è di F. Carnelutti, Giurisprudenza consolidata (ovvero della comodità del giudicare), in Riv. di. proc., 1949, p. 41 ss.

[49] Sul diritto alla “spiegazione” delle decisioni generate dall’intelligenza artificiale, si vedano J. Gacutan, N. Selvadurai, A statutory right to explanation for decisions generated using artificial intelligence, in International Journal of Law an Information Technology, vol. 28, 2020, p. 193 ss., reperibile all’indirizzo https://doi.org/10.1093/ijlit/eaaa016.

[50] Il riferimento è alla teoria discorsiva del diritto di J. Habermas, Theorie des Kommunikativen Handelns (1981), ed. it. Teoria dell’agire comunicativo, Bologna, 2017.

[51] In Italia si segnalano tre lavori monografici di giuristi volti a proporre dei modelli matematici applicati al diritto: C. Asaro, Ingegneria della conoscenza giuridica applicata al diritto penale, Roma, 2013; L. Viola, Interpretazione della legge con modelli matematici, Milano, 2018, con particolare riferimento al sistema civile; M. Versiglioni, Diritto matematico, Diritto Con Verità e Diritto Senza Verità, Pisa, 2020, con specifichi riferimenti al diritto tributario.

[52] È noto invece che, per esempio, nel sistema civile il giudice non può limitarsi al non liquet dovendo invece decidere a favore dell’una o dell’altra parte, anche in caso di lacune dell’ordinamento che proprio per questo è integrato da fonti e strumenti ermeneutici, come l’analogia, tradizionalmente estranei al diritto penale, almeno in apparenza. Il giudice civile, infatti, anche nel caso d’incertezza o confusione delle norme, deve comunque decidere senza poter invocare un principio di carattere generale che, come invece nel diritto penale, lo guidi nella decisione. In tema M. Taruffo, Legalità e giustificazione della creazione giudiziaria del diritto, in Riv. trim. dir. proc. civ., 2001, p. 11 ss.