INTELLIGENZA ARTIFICIALE E PROCESSO PENALE: LE NOVITÀ DELL’AI ACT – DI SERENA QUATTROCOLO
QUATTROCOLO – INTELLIGENZA ARTIFICIALE E PROCESSO PENALE LE NOVITÀ DELL AI ACT.PDF
INTELLIGENZA ARTIFICIALE E PROCESSO PENALE: LE NOVITÀ DELL’AI ACT
di Serena Quattrocolo*
Il contributo illustra in modo sintetico e generale i principali profili di interazione tra il decente Reg. 1689/2024 UE e la giustizia penale. Il recente documento normativo, infatti, presenta numerosi ambiti di incidenza sul settore del c.d. law enforcement, sia in termini di precauzioni che devono essere necessariamente adottate in tale contesto, sia in termini di eccezione ad alcuni divieti assoluti di utilizzo di certe applicazioni digitali.
The paper draws attention – with a general and light approach – to the areas in which the AI Act affects the realm of criminal justice. Actually, law enforcement plays a relevant role in the recent regulation, both as a source of specific concern with regard to some digital applications, and a ground for exceptios to general prohibitions of some specific AI systems.
Sommario: 1. La governance europea dell’IA – 2. La struttura del regolamento e le sue connessioni con la giustizia penale – 3. L’IA vietata: risk assessment tools – 4. (segue) Riconoscimento facciale, sì ma?! – 5. Altre applicazioni legate alla giustizia penale – 6. Il regolamento nel quadro generale dei diritti fondamentali del processo penale.
1. Il 12 luglio 2024 si è concluso, con la pubblicazione nella Gazzetta Ufficiale dell’Unione europea, il lungo iter formale di approvazione del regolamento che stabilisce regole armonizzate sull’intelligenza artificiale. Il percorso era iniziato il 21 aprile 2021, con la presentazione, da parte della Commissione, della proposta di regolamento, poi lungamente dibattuta e ampiamente emendata nel corso dei triloghi che si sono susseguiti nel triennio. L’accordo di massima era stato raggiunto lo scorso dicembre, ma il lavoro di rifinitura sul testo è stato lungo e complesso, per via dei numerosi, ricordati, interventi.
Il risultato, nel suo complesso, non è esattamente incoraggiante, né per la estrema lunghezza del testo, né per la scarsa chiarezza di alcune parti, sulle quali si tornerà affrontando i profili processual-penalistici. Ciò ha spinto autorevoli commentatori[1] ad escludere che – per quanto originale nell’intento di stabilire una governance complessiva dell’IA – il regolamento possa esercitare il cd. ‘Brussel effect’[2], ovvero indurre altri ordinamenti extraeuropei o, comunque, soggetti non tenuti all’osservanza del testo legislativo, ad uniformarvisi, in ragione della sua autorevolezza e della sua forza normativa espansiva.
Sempre sul piano generale, occorre sottolineare, prima di entrare nel vivo degli aspetti che più interessano in questa sede, che la base normativa del regolamento sono gli artt. 26 e 114 TFUE, relativi all’instaurazione del mercato unico e alle misure di armonizzazione (anche) per il suo funzionamento. Infatti, l’architettura normativa si fonda su una distinzione tra livelli di rischio – secondo un approccio già sperimentato con il GDPR[3] – rappresentati dalle possibili applicazioni di IA: uno estremo, che dà luogo a dei divieti di commercializzazione e circolazione sul mercato; uno elevato, che comporta l’adozione di una serie di dettagliati requisiti di sicurezza, per l’accesso al mercato; uno limitato, per il quale occorre il rispetto di regole basiche, ed uno minimo. Si tratta, dunque, di un nuovo e sofisticato sistema di compliance produttiva e commerciale, cui produttori, providers e deployers, importatori e distributori devono conformarsi per poter commercializzare e sfruttare l’applicazione digitale che incorpora IA, all’interno del mercato unico europeo.
La scelta della base normativa è stata criticata per via delle profonde implicazioni che la materia presenta, come si vedrà successivamente, con la tutela dei diritti fondamentali degli individui, intesi non solo come consumatori che utilizzano un prodotto che sfrutta soluzioni di IA[4], ma, piuttosto come soggetti che possono subire direttamente o indirettamente gli effetti di decisioni automatizzate assunte da tools digitali, impiegati da privati (come, ad esempio, le banche per la valutazione del rischio creditizio) e pubbliche amministrazioni. In questa prospettiva, osserva Luciano Floridi, il fenomeno dell’espansione dell’IA «exacerbates old ethical problems, reshapes some of them, and creates new ones»[5]. Tuttavia, è difficile immaginare un approccio normativo alternativo, date le necessità, perseguite dalla Commissione e dagli altri organi istituzionali, di agire direttamente sul piano del design e dello sviluppo di metodiche computazionali e di software che includono soluzioni di IA e di affermare, al contempo, dei principi generali di bilanciamento tra sviluppo tecnologico e diritti fondamentali. Forse sarebbe stata possibile un’azione quantomeno bifasica, con strumenti normativi differenziati, uno destinato a fissare principi inderogabili[6], magari attraverso una direttiva, capace di stabilire obiettivi da raggiungere in ciascuno Stato membro, e uno o forse più regolamenti, recanti le specifiche tecniche e i dettagli della nuova ‘compliance digitale’, in sezioni verticali, ovvero per aree tematiche (settore creditizio, medico-diagnostico, ecc..), fondati, appunto, sull’art. 116 TFUE.
A prescindere dalla condivisibilità o meno delle critiche riportate e delle osservazioni formulate, l’importanza del nuovo regolamento per il mondo della giustizia penale è elevata, al di là delle aspettative, forse, anche se per ragioni non sempre evidenti. Vediamone, dunque gli aspetti per noi più interessanti.
2. Il testo del regolamento è strutturato, tradizionalmente, su un’ampia lista di considerando, nei quali, come sempre accade, sono ben individuabili i ‘percorsi normativi’ su cui non è stato possibile raggiungere un accordo, ai fini dell’incorporazione nel testo di legge. La loro lettura è, oltre che estremamente interessante, necessaria ai fini di reperire qualche possibile strumento interpretativo del successivo articolato che, come anticipato, non si distingue per chiarezza, né di linguaggio, né, purtroppo, di concetti, obbligando chi vi fa riferimento a funambolismi interpretativi, per dare senso ad alcune parti del testo.
Procedendo con ordine, dopo i considerando segue l’articolato, inaugurato da alcune ampie norme definitorie, accompagnato da una serie di allegati che, in questo caso, risultano particolarmente interconnessi alla parte prescrittiva. Non si ritrova, se non nell’Allegato III, un’esplicita sezione del testo dedicata alla giustizia e, più in particolare, alla giustizia penale, ma nonostante ciò le più rilevanti e cruciali disposizioni del testo possono essere lette proprio attraverso le lenti della giustizia penale. Infatti, come si vedrà qui di seguito, alcune delle soluzioni di IA vietate sono legate all’ambito investigativo e processuale e, certamente, le eccezioni ai divieti stabiliti sono giustificate proprio da interessi investigativi. Inoltre, tutte le (attuali) applicazioni di IA possibilmente utilizzabili nel contesto della giustizia penale[7] sono considerate ad ‘alto rischio’ e, dunque, soggette al complesso meccanismo di compliance.
L’art. 5 indica le applicazioni dell’IA che risultano comportare rischi eccessivamente elevati e, dunque sono vietate, non potendo essere immesse sul mercato europeo. Quanto alla scelta di ‘vietare’ alcuni impieghi dell’IA, il dibattito, a livello mondiale, è stato ed è intenso, data la legittima preoccupazione di coloro che vedono nell’istituzione di divieti di commercializzazione, innanzitutto, un potenziale freno allo sviluppo della ricerca tecnico-scientifica. A fronte di tale obiezione, l’art. 2 co. 6 e 8 esclude dall’ambito applicativo del regolamento lo sviluppo a fini di ricerca scientifica, anche se prodromico alla successiva immissione di un prototipo sul mercato. Il senso dell’esclusione è chiaro e, in linea di massima, condivisibile, anche considerati i ben più ampi margini di sfruttamento commerciale che continueranno ad esistere, fuori dall’UE, con riguardo a tecniche qui vietate o considerate ad alto rischio. Qualche difficoltà interpretativa accompagna, invece, l’esclusione (co. 12) dall’ambito applicativo del regolamento dei sistemi rilasciati con licenza libera e open source, salvo siano immessi sul mercato «come sistemi di IA ad alto rischio» o come sistemi vietati dall’art. 5. Qui l’applicabilità del testo sembra dipendere non dalla natura del sistema, quanto dalla finalità che viene attribuita con l’immissione sul mercato.
3. Tra i sistemi vietati dall’art. 5 figurano, innanzitutto, strumenti di categorizzazione sociale e di sfruttamento delle vulnerabilità legate proprio all’appartenenza a determinati ‘cluster sociali’, ma già nella lettera d si trova il riferimento a metodi utilizzati in relazione alla commissione del reato[8].
Si fa divieto, infatti, di immettere sul mercato sistemi di risk assessment per la valutazione o la previsione del rischio che una persona fisica commetta un reato, se basati esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità. Prima di proseguire nell’analisi del testo, occorrono alcune precisazioni e un breve passo indietro, per contestualizzare la questione. Infatti, la previsione, piuttosto generica, può essere letta in riferimento a strumenti di c.d. predictive policing,[9] ovvero volti a prevedere se e dove dei reati possano essere commessi, oppure, soprattutto facendo leva sulla versione inglese del testo normativo – lingua di svolgimento delle intere negoziazioni – nel senso ‘tradizionale’, di strumenti psico-criminologici volti alla valutazione del rischio di recidivanza e comportamento violento da parte di uno specifico soggetto. Quest’ultima pare l’accezione più immediatamente riferibile alla previsione normativa in commento.
Sebbene nel nostro ordinamento la perizia psico-criminologica – volta all’analisi delle caratteristiche soggettive che non dipendono da cause patologiche – continui ad essere vietata dall’art. 220 co. 2 c.p.p., è noto che, ad altre latitudini, le scienze psico-criminologiche hanno dato luogo a trend ben diversi. Soprattutto al di là dell’Oceano atlantico, il XX secolo ha visto lo sviluppo e il successo degli studi che hanno cercato di individuare i fattori criminogenici e di misurarli, nella prospettiva della valutazione della pericolosità dell’individuo, con l’obiettivo precipuo di offrire, sul piano del sostegno psicologico, valide alternative alla commissione del reato[10]. Tali teorie, basate sulla ricerca empirica e sullo studio della personalità degli individui, hanno appunto portato gli studiosi alla predisposizione di strumenti di misura del rischio, detti risk assessment tools, ampiamente utilizzati nella fase esecutiva per stabilire – a fronte della consolidata tradizione nordamericana di ‘pena indeterminata’ – la durata effettiva della sanzione detentiva[11]. Lentamente, poi, tali strumenti hanno preso piede anche nella fase di cognizione che, com’è noto, nel processo nordamericano si riduce, nella maggior parte dei casi, ad un accordo negoziale, senza attività probatoria ma con la necessità del giudice di reperire comunque elementi valutativi ai fini della applicazione della pena[12].
Anche in alcuni Paesi europei il risk assesment è divenuto uno strumento di supporto alle decisioni penali[13], in fase cognitiva o esecutiva, sulla base di due possibili differenti approcci[14], quello strutturato – fondato sulla somministrazione di un questionario e sulla sua valutazione da parte di un esperto – e quello attuariale, basato, invece, sul calcolo di elementi già a disposizione dell’amministrazione, senza interazione, né nella somministrazione, né nella valutazione del livello di rischio, di un esperto, che non ricerca le ragioni della possibile recidivanza, ma semplicemente la rileva. Con il tempo, soprattutto quest’ultima tipologia di risk assessment si è trasformata da strumento analogico in un software, determinando un aumento della opacità di tali sistemi: in primo luogo, infatti, ciascuno di essi si fonda su una teoria psico-criminologica, la cui attendibilità deve essere tutta verificata all’interno della comunità scientifica di riferimento; inoltre, la transizione digitale determina l’incorporazione di tale teoria in un contesto potenzialmente opaco, poiché non sempre l’output di un software può essere adeguatamente ricostruito sul piano della sequenza causale.
Ben nota la eco della vicenda Loomis, sulla quale pare superfluo tornare, ma che ha acceso i riflettori sui rischi di bias, espliciti e impliciti, che si possono nascondere dietro tutti i risk assessment e, in particolare, quelli digitali che, intanto, potrebbero essere costruiti su teorie psico-criminologiche non sufficientemente validate e, inoltre, sono spesso inaccessibili dal punto di vista del funzionamento digitale, anche in ragione del frequente ricorso a metodiche di machine learning.
Il divieto formulato dall’art. 5 lett. d del Regolamento si rivolge a questo tipo di strumenti, quando siano fondati esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità. Mettendo da parte per un attimo il significato di profilazione, su cui si tornerà tra poco, pare chiaro a tutti – pur nei limiti della descrizione davvero minima qui offerta – che gli strumenti di risk assessment sono tutti, per natura, basati sulla «valutazione dei tratti e delle caratteristiche della personalità». Non esiste risk assessment – attuariale o strutturato – che non sia basato proprio su tale valutazione, poiché essa è la finalità stessa del risk assessment. Questo, infatti, nasce, come accennato, da uno studio accurato ed empirico dei fattori criminogenici che vengono poi, una volta isolati attraverso lo studio di un gruppo di riferimento, ricercati e valutati in relazione alla personalità di ogni singolo individuo sottoposto ad accertamento. Il profiling, invece, è una tecnica di valutazione della personalità basata su conoscenze frammentarie e indicatori non completi, dai quali si tenta di risalire a tratti generali[15]. Ebbene, alla luce di tali osservazioni, il divieto di immettere sul mercato strumenti di valutazione del rischio di commissione di reati non può che apparire generale, poiché la natura stessa del risk assessment è una valutazione dei tratti della personalità. Un divieto, dunque, netto e ampio, non derogato, apparentemente dalla seconda parte della previsione dell’art. 5 lett. d, ove si fa salva la commercializzazione di sistemi di ausilio alla verifica del coinvolgimento di un soggetto nella commissione di un reato, basati su elementi oggettivi già riscontrati. Pur non essendo immediatamente evidente il significato, il riferimento è a sistemi che non sono risk assessment, nel senso qui sopra precisato ma, per lo più, metodiche di digital forensics che mirano a valutare la verosimiglianza di possibili ricostruzioni causali, anche alternative, dei fatti oggetto del procedimento penale.
Ebbene, abituati all’approccio normativo dell’art. 220 co. 2 c.p.p., noi italiani non facciamo alcuna fatica a leggere in tale disposizione un divieto generalizzato di immissione sul mercato di software di risk assessment. Tuttavia, il già citato Allegato III, collegato all’art. 6 Reg. – che detta la disciplina generale dell’IA ad alto rischio – enumera tra gli strumenti considerati commercializzabili, ma solo entro la cornice della nuova compliance digitale, sistemi di risk assessment non esclusivamente basati su profiling e i sistemi «per valutare i tratti e le caratteristiche della personalità»[16]. In tutte le principali versioni linguistiche, la formula è estremamente ambigua, perché sembra indicare la legittimità ‘condizionata’ della stessa cosa che, invece, nell’art. 5 è vietata, ovvero i sistemi di risk assessment che si basano sulla valutazione dei tratti e delle caratteristiche della personalità e quelli che non si basano esclusivamente sul risk assessment. La contraddizione non potrebbe essere maggiore. Il testo, apparentemente, vieta prima e consente dopo il ricorso al risk assessment, aprendo uno spazio di incertezza assolutamente senza precedenti. Rispetto alla profilazione, il rapporto tra art. 5 e Allegato III pare più coerente, poiché il primo vieta i risk assessment basati esclusivamente sul profiling, mentre l’allegato ammette quelli non esclusivamente basati su tale tecnica. Diverso il quadro, invece, per gli strumenti che vengono definiti dal regolamento come ‘basati sulla valutazione dei tratti e delle caratteristiche della personalità’… Si aprono scenari di difficoltà interpretativa enorme, di fronte ad una situazione in cui la ricerca di una esegesi che offra un senso alla disposizione potrebbe essere vana[17]. Non pare di particolare aiuto la collocazione delle norme in questione, all’interno della struttura del testo, poiché se è vero che l’art. 5, recante il divieto, costituisce parte integrante dell’articolato, altrettanto vero è che l’Allegato III possiede la stessa vincolatività del testo principale, essendo ad esso contestualmente collegato. Tuttavia, l’Allegato III, n. 6 lett. d reca una eccezione ad una statuizione generale ed in quanto tale andrebbe interpretata in maniera restrittiva: ora, a fronte della palese contraddizione, la tecnica dell’interpretazione restrittiva non pare risolvere l’impasse… Tuttavia, inserendo tale paradigma ermeneutico nel quadro degli obiettivi del regolamento, pare ragionevole far prevalere l’art. 5 sull’Allegato. Infatti, pur attraverso la peculiare base normativa che si occupa del funzionamento del mercato interno, l’obiettivo generale del regolamento è quello di tutelare i diritti fondamentali rispetto ai rischi più evidenti dell’impiego dell’IA: se si ritiene che il ricorso al risk assessment digitale rappresenti un rischio così elevato da dover essere inserito tra le pratiche vietate, pare ragionevole promuovere l’interpretazione dell’Allegato III, n. 6 lett. d nel senso ‘recessivo’, ovvero come previsione non in grado di rovesciare il divieto generale. Tale risultato finirebbe per garantire un significato al testo normativo, evitando di abdicare di fronte alla necessità di riconoscere che il legislatore europeo ha confezionato un ‘sistema’ di norme prive di significato.
4. (segue) – Altro divieto dell’art. 5, legato alla dimensione penalistica, apparentemente molto contradditorio, è quello stabilito dall’art. 5 lett. h di utilizzo del riconoscimento facciale in real time in luoghi aperti al pubblico. Com’è noto, le tecniche di riconoscimento facciale sono utilizzate in molti ambiti del law enforcement[18], ivi compreso quello investigativo, pur al di fuori, al momento di una dettagliata ed adeguata disciplina. Si premette che in questa sede non è possibile addentrarsi nel quadro delle ragioni tecniche[19] che incidono significativamente sull’attendibilità e sul valore probatorio che può essere attribuito ai sistemi di riconoscimento facciale. Il tema è da tempo oggetto di riflessione da parte di giuristi che doverosamente si interrogano sulle intersezioni tra tali avanzati sistemi biometrici e le tradizionali categorie investigative e probatorie, segnalandone numerosi aspetti critici[20]. Per ragioni di brevità, qui non si può che far richiamo alla più specifica letteratura che ha approfondito proprio le ricadute delle caratteristiche tecnico-scientifiche sulle potenzialità dimostrative sul piano penale[21].
Il regolamento si occupa abbondantemente di riconoscimento facciale[22], giungendo appunto a vietarne l’utilizzo della formula real time – che consente l’acquisizione, la comparazione e l’eventuale riconoscimento dei volti senza ritardo o con un ritardo non significativo[23], in un’area geografica delimitata, attraverso flussi di video provenienti da telecamere ivi installate – in luoghi aperti al pubblico. Tuttavia, com’è noto, i software di riconoscimento facciale possono operare anche con un diverso sistema, c.d. post remote, in cui i dati sono già stati rilevati e il confronto e il riconoscimento avvengono con un ritardo significativo[24], sulla base della comparazione tra una immagine ottenuta da dispositivi vari, anche privati, e le immagini inserite in una banca dati preesistente.
Il divieto deriva dal rischio, ampiamente evidenziato durante i triloghi, che il ricorso al real time face recognition in contesti pubblici finisca per collidere con la libertà di espressione e di riunione dei singoli individui, data la propensione a trasformarsi in uno strumento di sorveglianza di massa. Tuttavia, è necessario sottolineare, ancora una volta, la vaghezza di tale divieto, poiché lo stesso art. 5 Reg. stabilisce una serie di deroghe tutte incentrate su finalità lato sensu penalistiche. In primo luogo, infatti, l’uso è consentito per la ricerca di vittime di gravi reati, quali sottrazione, tratta e sfruttamento sessuale, oltre che per la ricerca di persone scomparse, che potrebbe non avere alcun profilo di aggancio con la sfera penalistica. Inoltre, l’uso di real time face recognition è consentito anche in luoghi pubblici e aperti al pubblico per la localizzazione e la identificazione di un soggetto sospettato di aver commesso uno dei reati elencati nell’Allegato II, ai fini investigativi, di esercizio dell’azione penale o per l’esecuzione di una condanna definitiva a pena detentiva non inferiore a quattro anni. Come accennato, l’Allegato II viene a sostituire un precedente richiamo, previsto dal draft e cancellato durante l’iter di approvazione del testo, all’art. 2 MAE, ovvero la nota lista di ‘fattispecie’ per le quali non è previsto il rifiuto della consegna sulla base di mancanza di doppia incriminazione. Ancora, il divieto affermato nell’incipit della disposizione qui in commento non si osserva quando sia necessario ricorrere al real time per la «prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica [sic] delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico». L’istanza qui è prettamente securitaria e preventiva, ma verosimilmente legata, per via delle caratteristiche di specificità richieste, a investigazioni già in corso per altri fatti.
In ciascuna di queste ipotesi si ritrova – al di là dello sforzo del legislatore europeo, di specificità – un’amplissima deroga ad un divieto che, in concreto, potrebbe essere completamente svuotato di significato. Si segnala che nel corso dell’iter di discussione del testo, il Parlamento europeo aveva espresso la propria contrarietà alla previsione di deroghe al divieto dell’art. 5, che risultavano dunque cancellate nel testo proposto dall’organo[25]. Del resto, la gamma di eccezioni giustifica, in primo luogo, la dotazione, in ogni possibile luogo pubblico, di telecamere ‘di sicurezza’, peraltro già ampiamente diffusa. Inoltre, il perseguimento delle finalità indicate nelle eccezioni finirebbe per legittimare sempre la ripresa di ciò che accede nel luogo pubblico, al fine di poter individuare, di volta in volta, la vittima di grave delitto, l’accusato o condannato di uno dei reati dell’Allegato II, il soggetto pericoloso… Vero è che, come messo in luce da un recente caso inglese[26], la ripresa del luogo pubblico, effettuata ai soli fini del riconoscimento facciale, ma non conservata, mette sicuramente a minor repentaglio il complesso bilanciamento tra interesse investigativo e securitario e libertà di espressione e di manifestazione (data l’impossibilità di reimpiegare le immagini catturate, che non hanno tuttavia dato luogo a un match positivo, che sarebbe stato altrimenti segnalato dal sistema di riconoscimento). In ogni caso, alla luce di tali deroghe, pare ragionevole immaginare che solo un estremo rigore interpretativo possa evitare un generalizzato ricorso al riconoscimento facciale in real time, in tutti i luoghi aperti al pubblico, con sostanziale rovesciamento del divieto pur scolpito nell’art. 5. lett. h.
Pare inoltre opportuno ricordare che per tutti i casi consentiti di riconoscimento facciale, ovvero quello post remote e per le eccezioni al divieto di real time, l’impiego del sistema è considerato high risk ed è subordinato al pieno adempimento del meccanismo di compliance stabilito per tali casi dallo stesso regolamento[27].
5. Fuori da queste due controverse ipotesi, gli attuali sistemi di IA riconducibili all’ambito processuale sono tutti elencati nell’Allegato III, ai numeri 6 e 8, come applicazioni ad alto rischio.
Si fa esplicito riferimento, nel n. 6, alle funzioni di contrasto, ovvero law enforcement, nei limiti in cui gli specifici strumenti siano consentiti dal diritto dell’Unione e dello Stato membro, sottolineandosi così che l’inserimento nell’Allegato non ha alcun effetto di armonizzazione rispetto all’uso, nei singoli ordinamenti di tali strumenti. Il n. 6 elenca, infatti, vari settori – legati alla prevenzione o alla repressione del reato – nei quali si tende a far riferimento a soluzioni digitali, che incorporano soluzioni di IA. Pur non vietate, tali applicazioni possono essere estremamente pericolose e devono dunque sottostare al nuovo modello di compliance digitale. In particolare l’Allegato fa riferimento a: valutazione del rischio di vittimizzazione[28]; poligrafi e strumenti analoghi; valutazione dell’attendibilità delle prove; nonché i risk assessement di cui sopra e la profilazione ai fini dell’accertamento della responsabilità per i fatti oggetto del procedimento penale.
Inoltre, al n. 8 del medesimo Allegato, dedicato all’amministrazione della giustizia e ai processi democratici, si fa riferimento a strumenti di supporto alla valutazione giurisdizionale, finalizzati alla interpretazione dei fatti e del diritto o destinati ad essere utilizzati per la risoluzione alternativa delle controversie. Non vi è specifico riferimento, nemmeno in questa sede, agli strumenti di profilazione dei giudicanti, tema che, come noto, ha visto alcuni Paesi predisporre una tutela fortemente anticipata, attraverso espliciti divieti[29].
Nel complesso, dall’esame dell’Allegato III si ricavano, come osservato, riferimenti molto ampi, quasi generici, nei quali si riscontra una complessiva ‘delegazione’ della gestione del rischio al soggetto sviluppatore, in prima battuta, e all’operatore del mercato commerciale in ultima istanza. La disciplina della compliance digitale che ne consegue è estremamente tecnica e burocratica allo stesso tempo e non è possibile in questa sede entrare nel dettaglio, ma sarà necessario che, assimilati i principi di fondo del regolamento 1689/2024, si approfondisca anche l’aspetto della efficacia del modello ‘organizzativo’ che viene imposto per scongiurare l’high risk che questi sistemi recano. Efficacia delle precauzioni imposte ed effettività della compliance – da parte di soggetti che, su altri mercati possono operare, e sempre hanno operato, in piena libertà – saranno due aspetti dai quali dipenderà massicciamente il successo del piano di governance predisposto dall’Unione europea… Pur in un settore assai differente, come quello del d.lgs. 231/2001, l’esperienza italiana può ben testimoniare la difficoltà di affermazione e consolidamento di ‘modelli organizzativi’ estremamente ricercati, non parametrati sulle dimensioni delle imprese destinatarie di tali obblighi e non avvertiti come utili presidi rispetto a rischi effettivi.
Ciò induce a una riflessione che ben può concludere questa brevissima panoramica ‘a prima lettura’, nel tentativo di individuare sin da subito – ancor prima che il regolamento sia applicato – il corretto quadro normativo in cui ci si deve muovere.
6. Chiudendo il cerchio, è opportuno osservare che l’immensa difficoltà di lettura, approfondimento e interpretazione del testo del Regolamento 1689/2024 non potrà che occupare anche gli operatori della giustizia penale, per molti mesi a venire, con tutti i dubbi fin qui perlomeno abbozzati, rispetto all’effettività della protezione che potrà essere offerta sul piano della tutela dei diritti fondamentali, soprattutto, per quanto ci riguarda, nel contesto della giustizia penale. Tuttavia, sarebbe un errore davvero enorme pensare che il nuovo regolamento assurga ad unico strumento di protezione degli evocati diritti fondamentali. Non solo, infatti, come ricordato in apertura, lo strumento prescelto è quello che si rivolge al mercato e non ai soggetti istituzionali, prima istanza di presidio delle garanzie fondamentali. Non bisogna dimenticare, infatti, la fitta rete di fonti normative che oggi costituisce la cornice all’interno della quale si inserisce una tutela, appunto, multilivello, dei diritti fondamentali. La tentazione immediata è quella di pensare che tutto ciò che non è vietato dal regolamento 1689/2024 sia pienamente consentito ed alle sole condizioni ‘tecniche’ ivi stabilite: il regolamento, invece, rappresenta un (importantissimo) tassello in un mosaico molto più ampio, nel quale le regole del mercato – appunto riformulate attraverso il recente intervento normativo – rappresentano un elemento che deve inserirsi all’interno di una cornice dettagliata e consolidata, costituita dalla stratificazioni di molti strumenti normativi specificamente legati alla dimensione ‘non tecnica’, ma processuale.
Nel complesso quadro che caratterizza il contesto europeo, non solo la Carta dei diritti fondamentali, la normativa europea secondaria, come il GDPR, la direttiva 2016/680 e tutto il ‘pacchetto’ delle direttive di Stoccolma (e, in generale, di quelle aventi base giuridica nell’art. 82 TFUE), ma anche la Convenzione europea dei diritti dell’uomo e le tradizioni costituzionali comuni concorrono a realizzare un sistema di limiti all’impiego indiscriminato dell’IA artificiale che affianca, non superato, il nuovo specifico regolamento. Anche i numerosissimi dubbi interpretativi che già si possono intravedere all’alba dell’entrata in vigore di tale testo, dovranno essere risolti attraverso il richiamo a tutte le fonti rilevanti del diritto dell’Unione europea, così come delineato dall’art. 6 TUE, appunto. Né si dovrà correre il rischio di pretermettere fonti secondarie, pienamente efficaci, sulla scorta dell’effetto di ‘trascinamento’ che sarà certamente innescato dall’AI Act, senza dimenticare nemmeno il quadro più ampio della Grande Europa, con gli importanti atti del Consiglio d’Europa, quali la Carta etica del 2018 e la neonata Convenzione sull’intelligenza artificiale, ricordata in apertura di questo breve intervento, che traducono in principi generali l’essenza di numerose tradizioni costituzionali degli Stati membri, concorrendo a determinare l’insorgere di nuove consapevolezze comuni.
Del resto, dietro la curiosa formula impiegata dall’art. 4 reg. 1689/2024, che richiama e promuove l’alfabetizzazione in materia di IA, si nasconde proprio il compito più arduo che aspetta non solo i giuristi ma anche tutti gli operatori del mercato: imparare a comprendere i fondamenti tecnici della materia, per un verso, ma, per altro verso, acquisire definitivamente la consapevolezza che il diffuso uso dell’intelligenza artificiale significa interazione con i diritti fondamentali degli individui. La consapevolezza che la prateria non è più illimitata, che lo sviluppo e la realizzazione di sistemi di intelligenza artificiale non è soltanto più un esercizio di competenza e potenza computazionale provocherà certamente reazioni inedite negli operatori del mercato. In questo, il discusso e discutibile AI Act potrebbe produrre già un utile servizio…
Per parte loro, gli attori della scena giuridica italiana si sono mostrati pronti a recepire la richiesta di attenzione per il tema, veicolata dall’art. 4 Reg.: il legislatore ha scelto di anticipare gli obblighi derivanti dall’entrata in vigore dell’AI Act, attraverso il d.d.l. S. 1066, che proprio in questi giorni giunge nel cuore della discussione; il CNF, attraverso la presentazione di emendamenti a tale testo e l’UCPI, attraverso lo specifico Osservatorio, di recente costituzione – che ha già elaborato rilevanti prese di posizione – hanno avviato un percorso di necessario approfondimento, che renderà gli operatori più pronti a percepire i fondamentali interessi in gioco.
*Professoressa ordinaria di Diritto processuale penale nell’Università di Torino.
[1] V. tra gli altri, U. Pagallo, Why the AI Act Won’t Trigger a Brussels Effect, in AI Approaches to the Complexity of Legal Systems (Springer 2024), Forthcoming, 1-12
[2] A. Bradford, The Brussels Effect: How the European Union Rules the World, OUP, New York, 2020: l’Autrice ha utilizzato per la prima volta il termine “Brussels Effect” nel suo articolo The Brussels Effect, in Northwestern University Law Review (2012), 107, 1-68, per indicare la capacità dell’UE di globalizzare le regole stabilite per il mercato unico, ben oltre i confini dell’UE. Poiché molte aziende non europee sono disposte a fare affari all’interno del mercato unico europeo, finiscono per conformarsi alle direttive e ai regolamenti dell’UE.
[3] Sin dalla presentazione della proposta, v. M. Bassini, Commissione Europea, proposta di regolamento sull’Intelligenza Artificiale, in ItaliaOggi, 24.4.2021
[4] Altri strumenti sono in discussione, davanti agli organi dell’Unione europea, con specifico riguardo ai danni riportati dai consumatori che utilizzano devices basati su IA, sia in ambito contrattuale che extra-contrattuale (v. la c.d. AI liability directive, presentata nel settembre 2022 e ancora oggetto di profonda discussione).
[5] L. Floridi, The Ethics of Artificial Intelligence: exacerbated problems, renewed problems, unprecedented problems, in American Philosophical Quarterly, 2024, 61(4), 301.
[6] Proprio a questo scopo risponde la Convenzione del Consiglio d’Europa, aperta alla firma il 17.5.2024, a Strasburgo, che si rivolge evidentemente agli Stati e ai soggetti istituzionali (mentre il regolamento agisce, appunto, sul mercato): Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CM(2024)52-final). Si veda, in particolare, l’art. 1 co. 2: «Each Party shall adopt or maintain appropriate legislative, administrative or other measures to give effect to the provisions set out in this Convention. These measures shall be graduated and differentiated as may be necessary in view of the severity and probability of the occurrence of adverse impacts on human rights, democracy and the rule of law throughout the lifecycle of artificial intelligence systems. This may include specific or horizontal measures that apply irrespective of the type of technology used». Sul punto v. A. Sirotti Gaudenzi, Convenzione del Consiglio d’Europa. Spazio allo strumento dei trattati, in Guida al Diritto. Dossier 4/2024, ed. on line.
[7] Per una panoramica cfr. V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in DisCrimen, 15.5.2020.
[8] È vietata: «l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un’attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un’attività criminosa».
[9] In questo senso, G. Barone, Giustizia predittiva e certezza del diritto, Pisa, 2024, 41.
[10] G. Zara, D.P. Farrington, Criminal Recidivism: explanation, prediction and prevention, Londra, 2016, spec. 148 ss.
[11] V. L. Maldonato, Risk and need assessment tools e riforma del sistema sanzionatorio: strategia collaborative e nuove prospettive, in G. Di Paolo, L. Pressacco (a cura di), Intelligenza artificiale e processo penale, Napoli, 2022, 146 ss.; S. Quattrocolo, Sui rapporti tra pena, prevenzione del reato e prova nell’era dei modelli computazionali psico-criminologici, in Teoria e critica della regolazione sociale, 1/2021, 264 ss.
[12] Volendo, S. Quattrocolo, Artificial Intelligence, Computational Modelling and Criminal Proceedings, Springer 2020, 169; J. Monahan, A. Metz, B.L. Garrett, A. Jakubow, Risk assessment in sentencing and plea bargaining: The roles of prosecutors and defense attorneys, in Behavioral Sciences and the Law 2019, 1-11
[13] S. Quattrocolo, Artificial Intelligence, cit., 140 ss.
[14] Per un riassunto dei diversi approcci scientifici al risk assessment, v. G. Zara, D.P. Farrington, Criminal Recidivism, cit., 155 ss.
[15] Ai fini del Regolamento, il profiling viene definito per relationem, con richiamo alla definizione che di esse offre la direttiva 2016/680 che, tuttavia, non pare rispondere alla definizione della tecnica diffusa in ambito psico-criminologico, cui si rifà, a grandi linee, questo testo.
[16] D) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell’Unione a sostegno delle autorità di contrasto, per determinare il rischio di commissione del reato o di recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche di cui all’articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;
[17] Pare adeguato il richiamo, in questa sede, al filosofo americano D. Davidson (D. Davidson, Verità e interpretazione, Il Mulino, Bologna 1994, trad. it. a cura di R. Brigati), padre della c.d. ‘teoria della carità’, in ragione della quale la possibilità di interpretazione riposa sulla concessione, da parte dell’interprete, di sensatezza e verità alle parole dell’interlocutore. E’ necessario sottolineare come tale teoria si inserisca, in verità, in uno studio molto più ampio, sulla competenza linguistica, condotto dall’Autore con particolare riguardo alle dinamiche dell’interpretazione quale costante aggiustamento e adeguamento del significato a ciò che il comunicatore intende dire: v. J. Malpas, “Donald Davidson”, in The Stanford Encyclopedia of Philosophy (Fall 2024 Edition), Edward N. Zalta, Uri Nodelman (a cura di), https://plato.stanford.edu/archives/fall2024/entries/davidson/
[18] J. Della Torre, Quale spazio per i tools di riconoscimento facciale nella giustizia penale? in G. Di Paolo, L. Pressaco (a cura di), Intelligenza artificiale, cit., 7 ss.
[19] Sempre di riferimento, A. K. Jain, A. Ross, S. Prabhakar, An Introduction to Biometric Recognition, in IEEE Transactions on Circuits and Systems for Video Technology, vol.14, no. 1, 2004, passim.
[20] G. Mobilio, Tecnologie di riconoscimento facciale. Rischi per i diritti fondamentali e sfide regolative, Editoriale scientifica, Napoli, 2021, passim.
[21] Tra gli altri, E. Sacchetto, La prova biometrica, in A. Marandola, C. Conti (a cura di), La prova scientifica, Milano, 2023, 243 ss.; Ead., Face to face: il complesso rapporto tra automated facial recognition technology e processo penale, in www.lalegislazionepenale.eu, 16.10.2020; J. Della Torre, Quale spazio, cit., 7 ss.
[22] E. Sacchetto, N. Menendez, Words don’t come easy: Biometric terminology and its relevance within the AI Act, in The Digital Constitutionalist, 18.5.2022
[23] Cfr. il considerando n. 8 del regolamento.
[24] Cfr. sempre il considerando n. 8.
[25] Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)) reperibili all’indirizzo https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_IT.html#def_1_1.
[26] Cfr. J. Della Torre, Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice (ma raccoglie le critiche del Garante Privacy D’Oltremanica), in www.sistemapenale.it, 28.3.2020, p. 3.
[27] G. Barone, Giustizia predittiva, cit., 41.
[28] L’esperienza spagnola di Viogen è emblematica: si vedano ex multis, González Álvarez, J. L., López Ossorio, J. J., Urruela, C., & Rodríguez Díaz, M. (2018). Integral Monitoring System in Cases of Gender Violence VioGén System, in Behavior & Law Journal, 4(1). https://doi.org/10.47442/blj.v4.i1.56
[29] Il riferimento è all’art. 33 co. 2 della l. 2019-222, del 23 marzo 2019, che ha appunto stabilito : «Les données d’identité des magistrats et des membres du greffe ne peuvent faire l’objet d’une réutilisation ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés».