Enter your keyword

INTELLIGENZA ARTIFICIALE & PROCESSO PENALE – DI FRANCESCO PETRELLI

INTELLIGENZA ARTIFICIALE & PROCESSO PENALE – DI FRANCESCO PETRELLI

PETRELLI – INTELLIGENZA ARTIFICIALE & PROCESSO PENALE.PDF

INTELLIGENZA ARTIFICIALE & PROCESSO PENALE

di Francesco Petrelli

Ogni dotazione tecnica che l’uomo si dà interferisce con il suo rapporto con il mondo circostante. Ciò che fino a poco tempo fa ritenevamo essere “prova” indiscutibile di un fatto ora non può esserlo se non siamo in grado di certificarne la autenticità. Occorre dedicarsi allo studio di questi nuovi mezzi con altrettanta accuratezza con la quale ci occupiamo dei loro possibili fini.

L’intelligenza artificiale si confronta oramai da tempo con il mondo del diritto e della giustizia. Da un lato alla ricerca di norme e garanzie che ne regolino e ne contengano i possibili eccessi[1], dall’altro per valutarne l’eventuale utilizzo all’interno del processo in termini di costi e benefici[2]. In entrambi i casi le nostre scelte sembrano essere fondate sul presupposto che l’innovazione tecnologica sia nella nostra assoluta disponibilità: un oggetto nelle mani di un soggetto che ne dispone liberamente ed incondizionatamente, come fosse uno strumento interamente assoggettato alla sua volontà. Ci interroghiamo dunque sul modo di contenere i rischi che la disponibilità illimitata di questo nuovo strumento può provocare nell’esercizio della giustizia. Ma su questo non trascurabile aspetto della questione, che riguarda il corretto utilizzo dell’intelligenza artificiale all’interno del processo penale, vale forse la pena di svolgere qualche considerazione in più.

Quando ancora di intelligenze artificiali nessuno parlava, il filosofo tedesco Günter Anders sviluppava nella sua opera più nota, L’uomo è antiquato, la fondamentale riflessione, che «le invenzioni tecniche non sono mai solo invenzioni tecniche» e che «nulla è più ingannevole della filosofia della tecnica» che sostiene che gli apparecchi sarebbero “moralmente neutrali” e che dunque l’unica cosa che importa sarebbe il come li usiamo, l’uso che ne facciamo in seguito, se un uso morale o immorale, umano o inumano, democratico o antidemocratico.  «La tesi della neutralità della tecnica deve essere combattuta per questo, perché è un’illusione»[3]. Ed è pertanto illusorio pensare che noi ci manteniamo liberi nei confronti dei dispositivi tecnici e delle tecnologie che abbiamo costruito e che «possiamo scegliere o determinare i modi di usarli, questo è semplicemente falso». «Vero è piuttosto – dice Anders – che ogni dispositivo tecnologico, appena esiste e per il semplice fatto che funziona, è già di per sé una modalità d’uso; che ogni dispositivo per il fatto della sua particolare prestazione di lavoro, svolge già sempre un ruolo decisivo (sociale, morale, politico)». Ed è pertanto vero «che noi veniamo già sempre plasmati da ogni dispositivo tecnologico che usiamo, non importa per che cosa intendiamo usarlo o supponiamo di impiegarlo, anzi, non importa all’interno di quale sistema politico-economico ce ne serviamo; dato che ogni apparecchio presuppone o stabilisce un determinato rapporto tra noi e i nostri simili, tra noi e le cose, tra le cose e noi. Dunque: ogni apparecchio è già il suo stesso uso».

Come ogni dispositivo tecnologico, anche l’intelligenza artificiale è già «il suo uso» ed è già «l’uomo che la usa»[4]. Troppo ovvio affermare che una vanga può essere utilizzata tanto per coltivare la terra che per ferire un uomo, ma questo vale banalmente tanto per l’agire umano che per ogni altra cosa che ci circonda. La verità che occorre coltivare è un’altra: che il possesso di una vanga modifica il rapporto dell’uomo con la terra, perché ogni dotazione tecnica che l’uomo si dà interferisce con il suo rapporto con il mondo circostante: psiche e techne sono i due indissolubili estremi dell’umano. Secondo il filosofo, la tesi della neutralità della tecnica, «assai diffusa, deve essere combattuta. E deve esserlo perché essa concede eo ipso la precedenza a qualsivoglia apparecchio e definisce il filosofo un ritardatario. Perché insinua che la formulazione del problema morale deve venire sempre e solo in un secondo momento»[5]. Non è un caso, dunque, che nell’ambito dell’intelligenza artificiale si sia posto il problema in termini etici della sua utilizzazione proprio mentre la sua diffusione dilaga prendendo il sopravvento su ogni nostra effettiva possibilità di resistenza. Non solo si è venuta, infatti, a creare una distanza quantitativa fra tecnologia e ragione umana, ma tale distanza è divenuta anche qualitativa in quanto l’astrattezza che caratterizza la tecnica moderna non rende agevole la comprensione di «quale sia il sottile limite da non varcare» né «quando arretrare fermando con un cenno l’incedere dell’apparato tecnologico che ha dissolto i concetti tradizionali di uomo e natura»[6].

Abbiamo certamente il compito di regolamentare ogni ambito in cui l’intelligenza artificiale può sostituirsi all’intervento dell’uomo e alle sue deliberazioni, specialmente in un campo, come quello della giustizia e del processo penale, nel quale è in gioco un bene prezioso come la libertà personale. Ma se da un lato appare indispensabile introdurre un «divieto di provvedimenti derivanti ed elaborati totalmente da sistemi automatici per garantire il giusto processo»[7], dobbiamo al tempo stesso essere anche consapevoli della specificità di ogni strumento tecnologico, di quegli spazi nei quali cioè opera al di là e al fuori del nostro controllo normativo. È indispensabile vietare o regolamentare il porto di un’arma, ma dobbiamo anche essere consapevoli di come il possesso stesso di un’arma modifichi inevitabilmente il comportamento dell’uomo e il suo rapporto con il prossimo e con il mondo circostante. L’intelligenza artificiale come ogni altra tecnica finisce con il modificare il nostro rapporto con la realtà: il fatto stesso che sia oggi possibile creare artificialmente ciò che sino a poco tempo fa era una inequivoca manifestazione della realtà (la voce di un uomo, la sua immagine o il suo stesso relazionarsi con l’ambiente circostante…) ci fa dubitare della “verità” di ciò che osserviamo e di ciò che è oggetto di riproduzione e di trasmissione. Si tratta di un fatto che può incidere in maniera rilevante sull’efficienza stessa di quella “macchina retrospettiva” che è costituita dal processo penale, che si sviluppa proprio intorno alla ricostruzione di un fatto passato attraverso le tracce lasciate nel presente. Ciò che fino a poco tempo fa ritenevamo essere “prova” indiscutibile di un fatto (foto, video, registrazione audio…) ora non può esserlo se non siamo in grado di certificarne la autenticità[8]. Viene in questo modo scavalcato e ribaltato il “principio di normalità” in base al quale ciò che è oggetto di rappresentazione attraverso la tecnica è in un certo qual modo affidabile e sostanzialmente vero. Si dovrà, a fronte di ogni rappresentazione della realtà, adottare un “principio di diffidenza”: in ambito processuale tale nuovo postulato rappresenta non solo un ostacolo ma anche una rivoluzione di non poco rilievo.  Come ricordava Franco Cordero, «l’intera vita sociale si svolge sul filo della fiducia nelle esperienze altrui e nella veridicità delle descrizioni con cui sono comunicate; il processo non fa eccezione» [9]. Si direbbe che questa speciale forma di fiducia fondata sulla dipendenza dal reale e dunque sulla veridicità del prodotto degli strumenti di riproduzione tecnologica, sia destinata al tramonto e che un nuovo inatteso ostacolo si frapponga alla ricostruzione del fatto per il tramite di simili prove documentali. Interi settori della prova saranno messi in discussione ed esigeranno nuovi criteri selettivi e differenti “filtri” processuali. Nuove regole, dunque, saranno inevitabilmente destinate ad arrancare dietro gli sviluppi inesorabili dello strumento dotato di straordinarie potenzialità poietiche e mimetiche.

Se, come ci insegnano, non c’è nulla di veramente antropomorfo nella AI, vi è molto di antropomorfo nel nostro modo di approcciarsi al fenomeno, proiettando sull’intelligenza artificiale inappropriati modelli umani che ne deformano la percezione[10]. Siamo soliti guardare ai profili delle innovazioni tecnologiche con gli occhiali del passato, proiettando in ciò che è ignoto ciò che già conosciamo. Definire, al contrario, in maniera corretta le innovazioni è altrettanto importante che regolarne l’uso[11].

Insomma, si potrebbe concludere osservando come l’idea della “neutralità” degli strumenti tecnologici, come anche della stessa l’intelligenza artificiale, possa essere utilizzata al fine di esorcizzare i timori che istintivamente ogni innovazione reca con sé. E come dunque il concetto di neutralità possa servire come un alibi per non approfondire i temi centrali connessi al come ogni nuovo mezzo modifichi le nostre percezioni e interferisca nei nostri rapporti con la realtà. Dovremmo al contrario dedicarci allo studio di quei mezzi con altrettanta accuratezza con la quale ci occupiamo dei loro possibili fini.

[1] G. Finocchiaro, Intelligenza artificiale. Quali regole?, Il Mulino, Bologna 202; si veda, di recente, il Regolamento del Parlamento europeo e del consiglio che stabilisce regole armonizzate sull’Intelligenza Artificiale, approvato dal Consiglio in data 21 maggio 2024.

[2] Si vedano, in proposito, G7 delle Avvocature, Intelligenza artificiale e valori democratici: etica innovazione tecnologica e tutela dei diritti della persona”, 17 aprile 2024;

[3] G. Anders, L’uomo è antiquato, Bollati-Boringhieri, Torino 2021, vol. II, p. 199 ss.

[4] Come ricorda, in proposito, Umberto Galimberti, “a questo punto interviene la variazione qualitativa, per effetto della quale non è più il fine a generare la ricerca dei mezzi, ma è il mezzo a dispiegare lo scenario di tutti i possibili fini, che non saranno più i fini che l’uomo si propone ma i fini che il mezzo propone. Come creatrice di fini, la tecnica si sostituisce all’uomo che, a questo punto, può solo scegliere all’interno delle possibilità che i mezzi tecnici rendono disponibili”; U. Galimberti, Psiche e techne. L’uomo nell’età della tecnica, Feltrinelli, Milano 2009, p. 339. È nella natura stessa della tecnica che «si deve fare tutto ciò che si può fare», E. Severino, La tendenza fondamentale del nostro tempo, Adelphi, Milano 1988.

[5] «Ma così si pronuncia la capitolazione della morale. Infatti il moralista in tal modo viene liquidato con il miserevole compito di accordare il suo placet a quella realtà ormai esistente che è l’apparecchio (non importa quale); o, nel migliore dei casi, con l’incarico di spiegare ai suoi contemporanei come e perché devono usare i propri apparecchi o come e perché non lo devono»; G. Anders, L’uomo è antiquato, op. cit., p. 199 ss.

[6] U. Galimberti, Psiche e techne, op. cit., p. 485.

[7] Raccomandazione su Intelligenza Artificiale, G7 delle Avvocature, Intelligenza artificiale e valori democratici: etica innovazione tecnologica e tutela dei diritti della persona”, 17 aprile 2024.

[8] Sebbene in ogni caso “l’accento dell’operazione probatoria cade su una massima d’esperienza e non sull’efficacia mimetica dell’oggetto” non vi è dubbio che quando “vedo la fotografia” di un evento “inferisco che quell’evento debba essere avvenuto se ne esiste una traccia fotografica”; F. Cordero, Procedura Penale, op. cit., p. 881.

[9] F. Cordero, Procedura Penale, Giuffrè, Milano 1982, p. 884.

[10] L. Floridi, Anche l’AI è stata fraintesa, La Stampa, 29 aprile 2024; sul fenomeno della antropomorfizzazione della AI, vedi anche G. Finocchiaro, Intelligenza artificiale. Quali regole?, op. cit., p. 21 ss.

[11] L. Floridi, Etica dell’intelligenza artificiale, Milano, Cortina 2022, p. 40 ss.