PROVE FONDATE SULL’INTELLIGENZA ARTIFICIALE E DIRITTI FONDAMENTALI – DI MITJA GIALUZ
GIALUTZ – PROVE FONDATE SULLA INTELLIGENZA ARTIFICIALE E DIRITTI FONDAMENTALI.PDF
PROVE FONDATE SULL’INTELLIGENZA ARTIFICIALE E DIRITTI FONDAMENTALI
di Mitja Gialuz*
Lo scritto, dopo aver dato conto dei possibili impieghi dell’intelligenza artificiale (IA) nell’ambito della giustizia penale, esamina potenzialità e limiti di tali strumentazioni, specie in relazione alla loro capacità di incidere sui diritti fondamentali della persona e sui principi classici sottesi all’accertamento del fatto nel rito penale.
After outlining the different uses of artificial intelligence (AI) in criminal justice, the paper examines the potential and limitations of such tools, particularly in relation to their ability to interfere with fundamental rights and the principles of fair trial.
Sommario: 1. Una rapida panoramica degli utilizzi dell’intelligenza artificiale nell’ambito della giustizia penale. – 2. Carte dei diritti “tradizionali” e fonti ad hoc. – 3. La qualificazione giuridica della prova fondata sull’IA. – 4. Le peculiarità della prova fondata sull’IA e garanzie fondamentali.
- Una rapida panoramica degli utilizzi dell’intelligenza artificiale nell’ambito della giustizia penale.
Qualsivoglia riflessione, pure sul versante giuridico, in merito all’intelligenza artificiale (d’ora innanzi anche IA) deve necessariamente muovere da una precisazione di carattere terminologico. Al riguardo, invero, è noto come di tale concetto siano state offerte plurime definizioni[1], tra le quali spicca, per autorevolezza e chiarezza di contenuto, quella indicata nella Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi[2]: secondo questa fonte, l’IA è costituita da un «insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani»[3]. Che cosa si intenda, poi, per “capacità cognitive” è tutto da verificare e non è indifferente ai fini di questa trattazione, atteso che, come cercherò di mettere in luce, tale concetto consente anzitutto di distinguere la nozione di “prova digitale” da quella di “prova fondata sull’intelligenza artificiale”[4].
Collocandosi, ancora, in una prospettiva definitoria, assume oggi un rilievo di primaria importanza il Regolamento (UE) 2024/1689 del 13 giugno 2024 (“AI Act”)[5], con il quale, come noto, le istituzioni europee, a seguito di un tortuoso e incerto percorso legislativo, hanno inteso fornire, per la prima volta, un quadro giuridico armonizzato atto a promuovere la diffusione di «un’intelligenza artificiale antropocentrica e affidabile», al fine di garantire «un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti nella Carta di Nizza»[6]. Per quel che interessa, l’art. 3, § 1, lett. a), del regolamento si riferisce a un «sistema di IA» qualificandolo come un programma «automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali». Si tratta di una definizione molto ampia, il cui obiettivo, come esplicitato nel considerando n. 12 del Regolamento, è quello di garantire una certa «flessibilità», all’evidenza necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito.
L’adozione di una disciplina generale e organica in materia di IA a livello europeo, a ben vedere, non è che il frutto di una constatazione empirica. Si è preso atto, cioè, del fatto che, negli ultimi lustri, vi è stata un’espansione sensibile dell’IA nella nostra quotidianità: dalle macchine a guida automatica all’uso del machine learning nei servizi di implementazione del sistema sanitario, dalla materia assicurativa alle applicazioni industriali, dai dispositivi finalizzati a individuare le truffe online, fino agli assistenti domotici come Google Home e Alexa[7]. In fondo, è esperienza comune quella di essere anticipati da gmail nella scrittura dei messaggi di posta elettronica, nel senso che non siamo più liberi neanche di scrivere, perché abbiamo un software che ci anticipa e ci suggerisce i nostri testi. Ma, in breve tempo, l’intelligenza artificiale si è ritagliata, spesso in modo silenzioso, un ruolo chiave pure nell’ambito della giustizia penale, intesa in senso lato[8].
Al riguardo, mi limito a fare alcuni esempi non controversi e ovviamente non esaustivi.
Per quanto concerne la fase della prevenzione, segnalo i software di predictive policing[9], ovverosia strumenti che impiegano dati per realizzare attività di “predizione” dei reati, i quali, come risaputo, vengono oggigiorno utilizzati anche in Italia[10]: penso al KeyCrime, adottato dalla Questura di Milano, che ha portato a risultati assai significativi[11], oppure a X-Law, un software elaborato dalla Questura di Napoli, completato dal Dipartimento di Pubblica Sicurezza del Ministero dell’Interno e usato in diverse realtà del nostro Paese[12]. A tal proposito, mi preme segnalare come il Regolamento IA, inquadrando tali dispositivi nell’ambito dei «sistemi di IA ad alto rischio»[13], abbia predisposto una regolazione ad hoc, sul versante tanto dei requisiti che detti programmi devono rispettare, quanto degli obblighi gravanti sui soggetti che a vario titolo entrano in contatto con gli stessi[14].
Nell’ambito del procedimento penale, con specifico riguardo alle dinamiche probatorie, possono essere individuati due ambiti nei quali gli strumenti di intelligenza artificiale si stanno affermando in maniera evidente.
Il primo riguarda le digital evidence di ultima generazione basate sull’IA[15]: nella fase delle indagini, si fa un uso sempre più ampio di sistemi fondati sull’intelligenza artificiale; e questo impiego sarà destinato a crescere notevolmente con la diffusione dell’Internet of Things[16] e con la domotica, giacché dispositivi presenti nelle nostre abitazioni saranno in grado di offrire informazioni dirette sulla scena del crimine[17].
Ma si pensi, già oggi, ai captatori e agli strumenti di riconoscimento facciale: in quest’ultimo caso, si è in presenza di un tool che consente «di associare alla foto o al video del volto di uno sconosciuto una o più immagini contenute in una banca dati di dimensioni variabili di soggetti le cui generalità siano già note»[18]. I cosiddetti facial recognition systems operano, più precisamente, mediante algoritmi, capaci di rilevare «le cosiddette impronte facciali (faceprint), ovvero un certo numero di tratti, quali la posizione degli occhi, del naso, delle narici, del mento e delle orecchie»[19] e, in questa maniera, di realizzare «un modello biometrico finalizzato al riconoscimento»[20]. Ciò, in particolare, può avvenire attraverso due modalità: la prima real-time; la seconda basata su immagini o video che sono già agli atti.
Negli Stati Uniti, già dalla fine degli anni Novanta e nei primi anni Duemila si discuteva dell’utilizzo di tali dispositivi tecnologici nell’ambito del processo penale; tuttavia, il dibattito è divenuto particolarmente acceso nel 2020 con lo “scandalo Clearview”, grazie al quale si è appreso come la polizia americana utilizzasse una app di riconoscimento facciale che operava su un database contenente miliardi di dati rubati (ed ecco il punto fondamentale) da social network come Facebook, Twitter, Instagram e molti altri[21]. In sostanza, il software si basava su dati raccolti e trattati illegittimamente e illegalmente. Al riguardo, credo debba essere accolta con favore la scelta del legislatore europeo di vietare in radice tali pratiche. Ai sensi dell’art. 5, § 1, lett. e), del Regolamento (UE) 2024/1689 non è infatti consentito, in alcun caso, l’impiego di sistemi di IA che «creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso».
Quanto all’Italia, merita segnalare il noto sistema denominato SARI (Sistema Automatico di Riconoscimento Immagini) di cui si sa ancora veramente poco, nonostante il suo impiego sia oggigiorno largamente diffuso sul territorio nazionale[22]. Si sa che esistono due modalità in cui si articola il tool in questione: per un verso, il cosiddetto SARI Enterprise, che opera «per la ricerca di volti a partire da immagini statiche su banche dati di grandi dimensioni»[23], e, per altro verso, il SARI Real-Time, finalizzato al «riconoscimento in tempo reale di volti presenti in flussi video provenienti da telecamere»[24].
Più nel dettaglio, le immagini in cui viene applicato il SARI Enterprise sono confrontate con i profili facciali estratti dalla banca dati AFIS (Automated Fingerprint Identification System), la quale contiene quasi 18 milioni di cartellini fotosegnaletici[25]. Il sistema SARI Real-Time, invece, confronta i volti presenti nei flussi video dinamici con quelli contenuti in una watchlist con una grandezza dell’ordine di 100.000 persone[26].
Accanto alle digital evidence, un’ulteriore frontiera per gli strumenti basati sull’IA, rilevabile nelle dinamiche probatorie, è rappresentata dalle cosiddette machine evidence, che sono prodotte, per esempio, dalla stessa automobile a guida automatizzata in caso di incidenti generati da una cooperazione tra uomo e robot[27].
Quindi, in definitiva, per quanto riguarda l’utilizzo in ambito, lato sensu, probatorio, abbiamo, da un lato, la digital evidence di ultima generazione basata sull’intelligenza artificiale (e un focus specifico meritano, a mio avviso, i sistemi di riconoscimento facciale); dall’altro, le cosiddette machine evidence.
Con specifico riferimento alla fase decisoria, poi, l’impiego degli algoritmi può avvenire anche in sede di valutazione della prova. Si tratta di applicativi che, fondandosi sulle reti bayesiane e sulle reti neurali, servono per ricostruire il passato attraverso una valutazione razionale, in particolare, delle prove scientifiche[28].
Ma non è tutto. Rilevano, inoltre, gli algoritmi predittivi: da un canto, quelli volti a formulare giudizi prognostici di pericolosità, i cosiddetti risk assessment tools; dall’altro, quelli finalizzati a predire il contenuto della decisione[29].
Da ultimo, segnalo che si sta sviluppando un utilizzo dell’intelligenza artificiale anche nel settore della cooperazione internazionale. Al riguardo, è interessante richiamare uno studio della Commissione europea intitolato “Cross-border Digital Criminal Justice”, dove si propone l’uso dell’IA per facilitare il lavoro di Eurojust[30]. Si tratterebbe, più nel dettaglio, di automatizzare la trasmissione di informazioni dai singoli stakeholders all’Eurojust Case Management System.
Fatta questa breve panoramica, merita svolgere alcune considerazioni sul versante probatorio, con riguardo alle prove fondate sull’IA – quali le videoriprese con riconoscimento facciale, la Bloodstain Pattern Analysis (BPA) o gli stessi captatori –, con l’obiettivo di inquadrare i diritti fondamentali dei soggetti coinvolti da queste misure[31].
- Carte dei diritti “tradizionali” e fonti ad hoc.
A tal fine, conviene prendere le mosse da uno spunto particolarmente interessante fornito dalla giurisprudenza del Consiglio di Stato, che, a partire dal 2019, ha avuto modo di occuparsi ampiamente dell’utilizzo di programmi automatici basati sull’intelligenza artificiale, sia pure nell’ambito di procedimenti amministrativi[32]. Ebbene, i supremi giudici, nella pronuncia n. 8472 del 13 dicembre 2019, hanno cristallizzato quella che definirei “una regola d’oro” alla quale occorre sempre fare riferimento quando ci si approccia all’intelligenza artificiale: «l’utilizzo di procedure informatizzate» – così ha detto il Consiglio di Stato – «non può essere motivo di elusione dei principi che conformano il nostro ordinamento»[33].
Ma quali sono, dunque, questi principi?
Anzitutto, vanno richiamati quei principi classici che richiedono dei semplici adattamenti quando viene in rilievo la prova basata sull’IA.
Per un verso, alludo ai diritti e alle garanzie che tutelano la sfera intima dell’individuo, erigendo una barriera, uno scudo protettivo rispetto alle intrusioni esterne. Vengono in gioco gli artt. 14 e 15 Cost., a protezione dell’inviolabilità del domicilio, nonché delle conversazioni e comunicazioni, l’art. 8 CEDU, nella parte in cui tutela la vita privata, l’art. 7 Carta di Nizza, sempre in tema di salvaguardia della privacy, e, ancora, il diritto di difesa e il corollario del nemo tenetur se detegere. Quest’ultimo, a mio avviso, dovrebbe essere interpretato in senso rigoroso e applicato non solo quando l’imputato è fonte di dichiarazioni, ma anche quando è oggetto di prova o, meglio, fonte di dati, sui quali opera poi l’intelligenza artificiale, anzitutto, attraverso la profilazione, ma non solo[34].
Per altro verso, mi riferisco a quelle garanzie che assicurano un confronto dialettico, paritario e una verifica sull’attendibilità della fonte di prova: dall’art. 111, commi 2, 3 e 4 Cost. allo stesso diritto di difesa, nonché all’art. 6 CEDU[35]. Sicuramente, la prova fondata sull’IA pone sfide nuove (specie in relazione al tema dell’opacità[36] del processo decisionale di tali strumenti, ossia della cosiddetta black box[37]); mi pare, però, che il portato di queste garanzie non muti significativamente, nel senso che si tratta di applicare le medesime al contesto specifico, ma senza la necessità di adattamenti concettuali.
Vi sono, al contrario, dei canoni “classici” che, a mio avviso, vanno ripensati ab ovo, alla luce della nuova frontiera rappresentata dall’intelligenza artificiale.
Al riguardo, credo che il diritto fondamentale cui fare riferimento sia, anzitutto, quello alla protezione dei dati di carattere personale, ricavato dalla giurisprudenza della Corte EDU dall’art. 8 CEDU[38], e che è, invece, cristallizzato nell’art. 8 Carta di Nizza come diritto all’autodeterminazione informativa e all’integrità del dato[39]. Evidentemente, esso assume una valenza centrale, perché la caratteristica peculiare dell’intelligenza artificiale è quella di analizzare una quantità enorme di dati che rappresentano il vero e proprio “ossigeno” dell’IA[40].
Ebbene, mi pare che l’art. 8 CDFUE sia una cornice fondamentale, la quale prevede una protezione abbastanza avanzata, con un unico problema, però, (di non poco conto) costituito dalla mancanza di una chiara riserva di giurisdizione. È ben vero che la Corte di giustizia ha ricollegato in vari casi all’art. 8 il necessario intervento di un’autorità giudiziaria – si pensi, ad esempio, alla sentenza della Grande Sezione Digital Rights Ireland[41] e al recente caso H.K. c. Prokuratuur[42] –, ma non ci si deve dimenticare che la giurisprudenza rappresenta un formante “fluido”, che, come tale, può mutare nel corso del tempo. Pertanto, sarebbe importante proporre un’interpretazione evolutiva che consenta di fornire una cornice garantistica più solida.
In quest’ottica, sono convinto che, sul versante nazionale, si debba perseguire la strada della valorizzazione dell’art. 13 Cost. Credo, in altri termini, che l’inviolabilità della libertà personale vada intesa come libertà di autodeterminarsi non solo nel mondo fisico, ma anche in quello virtuale[43]. Secondo molti, l’habeas corpus va riconfigurato come habeas data, ma ritengo sia necessario ragionare di una protezione integrale della persona nella dimensione elettronica, che adempia alla stessa funzione di garanzia che ha storicamente avuto la libertà con riferimento alle intrusioni fisiche[44]. Invero, è innegabile che alla proiezione della persona «nel mondo corrisponde il diritto al pieno rispetto di un corpo che, ormai, è al contempo “fisico” ed “elettronico”»[45]. Ed è un corpo che si estende naturalmente ai dispositivi tecnologici di uso comune: penso, in particolare, a quello “strumento degli strumenti” che per i filosofi antichi era la mano e per i contemporanei è lo smartphone, nel quale è racchiusa la vita di tutti noi e che rappresenta una vera e propria estensione della nostra mente.
Pertanto, credo che l’art. 13 Cost. sia fondamentale per garantire una tutela effettiva a fronte di tecniche di indagine basate sul riconoscimento facciale, ma anche in relazione ai captatori, soprattutto con riguardo a quelle attività, realizzabili in concreto attraverso questi ultimi strumenti, che, però, sono rimaste estranee pure alle modifiche più recenti che hanno interessato la materia delle intercettazioni[46]. Mi pare, inoltre, che, al riguardo, l’art. 13 Cost. consenta di garantire uno schermo più solido rispetto a quello dell’art. 24, comma 2, Cost.; e ciò se solo si considera che nel nostro ordinamento, com’è ben noto, la categoria della prova incostituzionale non si è ancora consolidata.
Quindi, volendo riassumere quanto finora delineato, si ergono, da un canto, principi classici che vanno semplicemente adattati alla frontiera dell’IA e, dall’altro, principi classici che vanno completamente ripensati (alludo, in particolare, alla libertà personale).
Infine, vanno segnalate le fonti dedicate all’intelligenza artificiale – vincolanti o atti di soft law –, basate, in parte, proprio sulla garanzia fondamentale del diritto alla protezione del dato e, in altra parte, finalizzate a adattare canoni tradizionali all’IA.
Da questo punto di vista, credo che a livello europeo la tematica sia stata approcciata in modo corretto e convincente. Dinnanzi alla diffusione di tali strumenti, il tema non è, e non può essere, se si è a favore o contro di essi, perché le dinamiche, anche economiche, sono davvero prorompenti[47]. Occorre, invece, tentare di governare questo processo, come convintamente ha fatto l’Unione europea attraverso l’adozione dell’AI Act.
Ulteriori fonti aventi carattere vincolante sono sicuramente il cosiddetto «data protection reform package»[48] del 2016, costituito dal regolamento 2016/679/UE (GDPR) e dalla direttiva 2016/680/UE[49]. Quest’ultima, a ben guardare, rappresenta una lex specialis in materia di repressione dei reati rispetto al regolamento[50], in quanto mira a stabilire norme minime relative alla «protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti ai fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia e la prevenzione di minacce alla sicurezza pubblica»[51]. Tale atto racchiude diversi principi rilevanti, ma la norma fondamentale per la materia che ci interessa è senz’altro l’art. 11 della direttiva, a mente del quale devono considerarsi vietate le decisioni basate unicamente sui trattamenti automatizzati[52]. Questa previsione stabilisce, infatti, che «gli Stati membri dispongono che una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici negativi o incida significativamente sull’interessato sia vietata salvo che sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento e che preveda garanzie adeguate per i diritti e le libertà dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento».
Così individuate le fonti, prima di applicarle specificamente alle prove basate sull’IA, vorrei fare un ulteriore passo avanti per analizzare le peculiarità che l’intelligenza artificiale pone rispetto all’attività probatoria.
- La qualificazione giuridica della prova fondata sull’IA.
In altro contesto, ho chiarito che la prova fondata sull’intelligenza artificiale rientra nell’ambito della prova scientifica[53]. Tale qualificazione consente di affrontare il tema del canale attraverso il quale si acquisiscono nel processo penale le prove fondate sull’intelligenza artificiale. Viene da chiedersi, più in particolare, se queste ultime siano riconducibili tout court alla disciplina della prova atipica di cui all’art. 189 c.p.p.
La risposta è ovviamente negativa: dipende dalla singola prova basata sull’IA che viene in rilievo. Del resto, la Cassazione ci ha insegnato, fin dalla sentenza Franzoni[54], che quasi tutte le nuove tecniche di accertamento dei fatti offerte dallo sviluppo tecnologico – come, ad esempio, la BPA ormai diversi anni fa – non forniscono prove atipiche, ma sono modalità peculiari di espletamento di prove tipiche, come la perizia o l’esperimento giudiziale. Pertanto, un ragionamento analogo dovrà valere anche – solo per fare un esempio – per le videoriprese con riconoscimento facciale, che possono avere un inquadramento diverso a seconda delle modalità e del contesto.
Più nel dettaglio, laddove la videoripresa con riconoscimento facciale abbia una finalità di mera identificazione, l’operazione realizzata rientrerà nell’art. 4 T.U.L.P.S. oppure nell’art. 349 del codice di rito[55].
Per contro, SARI Enterprise, qualora sia applicato, a fini investigativi e/o probatori, a un’immagine già esistente, svolge una funzione riconducibile al genus rispettivamente dell’individuazione oppure delle ricognizioni fotografiche atipiche, perché in questo caso il riconoscitore non è un uomo, ma una macchina[56].
Infine, laddove SARI sia applicato in modalità real-time, c’è un ulteriore profilo problematico da affrontare, poiché la macchina fa una ricerca a tappeto su un numero non predeterminato, né (tendenzialmente) predeterminabile di individui. Vista la contestualità con cui viene svolta l’operazione, si potrebbe anche pensare alla disciplina delle intercettazioni, dato che la giurisprudenza tende a utilizzare quel modello per le captazioni: ma, evidentemente, alla videoripresa con riconoscimento facciale manca del tutto il requisito rappresentato dalla captazione di una comunicazione e, dunque, sulla base delle Sezioni Unite Prisco[57], non si può applicare per analogia la normativa sulle intercettazioni. Chiara la conseguenza: si è, nuovamente, in presenza di una prova atipica.
Quindi, per le ultime due prove basate sull’intelligenza artificiale alle quali ho fatto cenno, si pone lo stesso quesito: possono entrare nel procedimento sulla base del canale, del passepartout, dell’art. 189 c.p.p.?
A me pare che la risposta debba essere negativa per diverse ragioni.
Da un lato, vi è un problema di trasparenza sul funzionamento dell’algoritmo, che non permette di sapere se la prova basata su di esso sia effettivamente «idonea ad assicurare l’accertamento dei fatti», come richiesto dall’art. 189 c.p.p.
Dall’altro lato, l’“algoritmo ricognitore” pregiudica la libertà morale in senso ampio, almeno se si interpreta in maniera estensiva quello stesso art. 13 Cost. al quale ho fatto cenno supra. Vengono, infatti, utilizzati dati personali sensibili per individuare o identificare il soggetto il cui volto sia stato “rubato” in una piazza piuttosto che in uno stadio: si tratta, insomma, di dati biometrici che, ai sensi dell’art. 3, comma 1, n. 34) dell’AI Act (che, a sua volta, si richiama all’art. 10 della direttiva 2016/680/UE), sono da considerarsi sensibili, e, per di più, vengono impiegati senza una copertura normativa ad hoc e senza consenso, posto che SARI, come detto, è regolato solo in via amministrativa. Inoltre, si pone un problema di rispetto del principio di proporzionalità tutelato dall’art. 52 Carta di Nizza, dal momento che non vi è alcun bilanciamento in astratto che porti a limitare il diritto fondamentale alla protezione del dato solo laddove le restrizioni «siano necessarie e rispondano effettivamente a finalità di interesse generale», ossia, come ha insegnato la Corte di giustizia, esclusivamente per la repressione di forme gravi di criminalità o la prevenzione di gravi minacce alla sicurezza pubblica.
Insomma, si potrebbe concludere provvisoriamente che quella norma definita “inservibile e inutile”[58] dell’art. 189 c.p.p. potrebbe fungere da filtro, se interpretata rigorosamente, almeno rispetto ad alcune prove basate sull’intelligenza artificiale. Probabilmente, però, la trincea garantistica rispetto a queste tipologie di prove coincide con quella vera e propria “linea Maginot” eretta dal codice del 1988, rispetto agli esperimenti gnoseologici che rischiano di pregiudicare la libertà morale: mi riferisco all’art. 64, comma 2, c.p.p., all’art. 188 c.p.p. e allo stesso art. 220, comma 2, c.p.p.
Ma, a ben considerare, non è tutto. Per esigenze di completezza, non si può omettere di dar conto della significativa presa di posizione assunta dal Garante per la privacy nostrano in ordine al sistema SARI Real-Time, la quale aggiunge un ulteriore tassello al panorama sin qui tratteggiato. Tale autorità, a differenza del vaglio positivo adottato nel 2018 riguardo al meccanismo SARI Enterprise[59], ha formulato il 25 marzo 2021 un parere nettamente sfavorevole per quanto concerne l’altra modalità più invasiva di captazione[60], accogliendo così le sollecitazioni della dottrina[61]. Il Garante, infatti, dopo aver considerato come parametro normativo di riferimento l’art. 7 d.lgs. 18 maggio 2018, n. 51, emanato – lo si rammenti – in attuazione della direttiva 2016/680/UE, ha escluso qualsiasi possibilità di utilizzo dello strumento SARI Real-Time. E ciò alla luce del condivisibile rilievo secondo cui «allo stato non sussiste una base giuridica idonea […] a consentire il trattamento dei dati biometrici in argomento»[62].
Sul punto, come noto, è intervenuto il Regolamento (UE) 2024/1689, il cui art. 5 § 1, lett. h), vieta, quale regola generale, l’impiego di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto. La scelta è giustificata dal fatto che, come può leggersi nel considerando n. 32, l’uso di detti apparecchi risulta «particolarmente invasivo dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un’ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l’esercizio della libertà di riunione e di altri diritti fondamentali» (cd. chilling effect). Ma non solo: le inesattezze di carattere tecnico dei sistemi di IA «possono determinare risultati distorti e comportare effetti discriminatori».
Il legislatore europeo, tuttavia, ha previsto alcune eccezioni, cioè casi nei quali i facial recognition systems possono essere impiegati in modalità real time. Vi è, in primo luogo, l’ipotesi in cui il ricorso a detti strumenti risulti «strettamente necessario» per confermare l’identità di un determinato soggetto, al fine del perseguimento di uno degli obiettivi fissati dalla lett. h) della disposizione in parola, ovverosia per la ricerca mirata di specifiche vittime di sottrazione, tratta di esseri umani o sfruttamento sessuale di esseri umani; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico; o, ancora, la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un’indagine penale, o dell’esercizio di un’azione penale o dell’esecuzione di una sanzione penale per i reati elencati all’allegato II del Regolamento, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni.
Ancora: il legislatore europeo ha individuato due parametri ai quali occorre conformarsi nell’utilizzo di sistemi di riconoscimento facciale real time (art. 5 § 2): da un lato, la natura della situazione, in particolare «la gravità, la probabilità e l’entità del danno che sarebbe causato in caso di mancato uso del sistema»; dall’altro lato, «le conseguenze dell’uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l’entità di tali conseguenze», operando, dunque, una valutazione d’impatto sui diritti fondamentali.
Infine, sul versante della legittimazione attiva ad adottare la misura in parola, il Regolamento ha previsto la necessità di una preventiva autorizzazione rilasciata da «un’autorità giudiziaria o da un’autorità amministrativa indipendente»[63]; un’espressione, quest’ultima, che, nel solco di quanto si è già detto, sembrerebbe lasciare aperta la possibilità, nell’ordinamento italiano, di prevedere la necessità di un placet giurisdizionale o giudiziario.
- Le peculiarità della prova fondata sull’IA e garanzie fondamentali.
Giunti a questo punto, vi è da dire che la prova basata sull’intelligenza artificiale non è soltanto una prova scientifica o, meglio, una prova informatica, ma presenta delle peculiarità ulteriori sulle quali vorrei soffermarmi.
Il primo problema riguarda l’origine dei dati inseriti in input all’interno dell’algoritmo; gli strumenti basati sull’IA vanno, infatti, “allenati” sulla base di informazioni che servono per costruire il sistema[64]. Bisogna, pertanto, comprendere da dove provengono questi dati, i quali devono essere raccolti in modo trasparente e legittimo. Il problema, come ho accennato, si è posto negli Stati Uniti per il caso Clearview, ma è venuto in rilievo anche con riguardo al risk assessment tool noto con il nome di HART (Harm Assessment Risk Tool) in Inghilterra, dove erano stati utilizzati dati acquisiti sempre dai social network[65].
Il secondo punto critico sorge non appena ci si chiede chi decide sulla scelta dei dati. Questo è un passaggio fondamentale, perché incide sull’affidabilità[66]: evidentemente, muovendo da dati spuri o viziati, il risultato sarà una moltiplicazione di bias[67].
Il terzo profilo problematico attiene alla conoscenza e alla trasparenza del modo in cui funziona l’intelligenza artificiale in ambito probatorio[68]. Si tratta di un momento essenziale per rispettare il canone del contraddittorio e il diritto di difesa. Invero, dovrebbero essere esclusi a priori sistemi di cui non si conosce il funzionamento.
Un ulteriore nodo ricco di implicazioni sul versante della tutela dei diritti riguarda il rapporto tra l’impiego dell’IA e il principio di parità delle armi. Vorrei richiamare, al riguardo, una pronuncia del Supremo consesso che credo si riveli davvero emblematica. In un caso nel quale era stata la difesa a invocare l’impiego del SARI, la Corte di legittimità ha confermato la decisione del giudice di merito che aveva rigettato siffatta richiesta, argomentando alla luce del rilievo per cui la difesa non avrebbe in «alcun modo documentato la valenza scientifica dell’anzidetta tecnologia»[69]. Si tratta di una conclusione che, oltre a porsi in netto contrasto con il canone di parità delle armi (dal momento che l’utilizzo di SARI, come si è visto, viene consentito alle autorità inquirenti), appare financo paradossale, non foss’altro perché detto strumento è stato sviluppato a livello ministeriale.
Da ultimo, la quinta criticità: non possono darsi decisioni totalmente automatizzate. La norma di riferimento – la richiamo ancora una volta – è quella dell’art. 11 della direttiva n. 680 del 2016: si tratta di un divieto che ricalca sostanzialmente quello dell’art. 22 GDPR[70].
Ebbene, a fronte di questi problemi, mi sembra interessante dare conto di un pronunciamento del Consiglio di Stato – la sentenza n. 881 del 2020 –, che, in qualche modo, introduce alcune garanzie in tale contesto[71]. Esso si colloca sulla scia di un vero e proprio filone pretorio, iniziato alla fine del 2019 in materia amministrativa[72], dal quale è possibile estrapolare un compendio di principi che mi paiono estensibili alla materia penale.
In particolare, la pronuncia in esame, concernente l’utilizzo in chiave decisoria di un sistema basato sull’intelligenza artificiale ai fini di un concorso pubblico, parte dall’importante presa d’atto secondo cui il ricorso a tale procedura informatica «non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata»[73]. E ciò, in quanto essa implica «numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata»[74].
Al contempo, però, la Corte di Palazzo Spada ribadisce che «l’utilizzo di procedure informatizzate non può essere motivo di elusione dei principi che conformano il nostro ordinamento»[75], e, nel fare ciò, fissa alcuni canoni fondamentali.
In primo luogo, si staglia il principio di trasparenza, che va inteso in senso ampio e rafforzato. A detta del Consiglio di Stato, «la conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti»[76], nel senso che deve essere possibile conoscere gli ideatori, il procedimento usato per la creazione dell’algoritmo e il meccanismo di decisione. Per di più, «non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati»[77]. In altre parole, nel momento in cui l’impresa mette a disposizione dell’autorità lo strumento informatizzato, accetta le relative conseguenze in termini di discovery.
In seconda battuta, per quanto concerne la gestione dei dati, si richiamano i principi fondamentali contenuti nella direttiva 2016/680/UE.
Rilievo centrale assume, inoltre, il principio di conoscibilità, in base al quale «ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati ed in questo caso a ricevere informazioni significative sulla logica utilizzata»[78].
Il quarto canone fondamentale è il cosiddetto “principio di non esclusività della decisione algoritmica”, avente, secondo le significative parole dei supremi giudici amministrativi, «rilievo […] globale in quanto, ad esempio, utilizzato nella nota decisione Loomis vs. Wisconsin»[79]. Più nel dettaglio, nel caso in cui vi sia una decisione automatizzata, bisogna configurare comunque un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. Si tratta di quello che Giulio Ubertis ha autorevolmente indicato come «controllo umano significativo»[80].
Il quinto ed ultimo principio è quello di non discriminazione algoritmica, in base al quale il titolare del trattamento dovrebbe, in ogni caso, utilizzare «procedure matematiche o statistiche appropriate per la profilazione»[81], attraverso la predisposizione di misure volte a impedire il verificarsi di effetti discriminatori «nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale»[82].
Alla luce di ciò, non si può fare a meno di concludere dicendo che occorre recepire questi canoni anche sul versante processualpenalistico, soprattutto a livello interno. Del resto, la decisione del Consiglio di Stato da ultimo richiamata fa riferimento a fonti sovraordinate, tanto di soft law, quanto di hard law (al riguardo, credo che sul versante europeo vengano in gioco l’art. 8 CEDU, nonché l’art. 8 della Carta di Nizza), che trovano senz’altro applicazione anche nella materia penale. Epperò, nell’ordinamento italiano paghiamo ancora la carente tutela costituzionale del diritto alla protezione del dato, con tutti i suoi corollari che assumono rilevanza per la prova basata sull’IA.
A tal fine, però, credo debba essere senz’altro valorizzata l’inviolabilità della libertà personale di cui all’art. 13 Cost., intesa come habeas data. Mi sembra che, dinnanzi alle sfide poste in materia probatoria dall’intelligenza artificiale, sia ancora più stringente l’ammonimento di Stefano Rodotà, secondo il quale «senza una forte tutela del “corpo elettronico”, dell’insieme delle informazioni raccolte sul nostro conto, la stessa libertà personale è in pericolo»[83]. Occorre, insomma, dare nuova linfa vitale alle classiche garanzie poste dall’art. 13 Cost.: pertanto, pure a seguito dell’approvazione del Regolamento IA, non può che ribadirsi con forza che deve essere il legislatore – solo per fare un esempio – a disciplinare il riconoscimento facciale, nelle sue diverse varianti, e dovrà essere il giudice o il pubblico ministero, ossia persone umane in “carne ed ossa”, ad avere la responsabilità della valutazione e della decisione penale, sulla scorta di quel modello che, in ambito matematico e informatico, viene definito come HITL (human in the loop): per produrre un risultato di prova accettabile è necessario che la macchina probatoria interagisca con l’essere umano.
*Professore ordinario di diritto processuale penale presso l’Università degli Studi di Genova
[1] Sulla mancata convergenza definitoria della locuzione “intelligenza artificiale”: v., per tutti, C. Burchard, L’intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società, in Riv. it. dir. proc. pen., 2019, p. 1914; A. Santosuosso, Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Firenze, 2020, pp. 6-9; S. Signorato, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. dir. proc., 2020, pp. 605-606; G. Ubertis, Intelligenza artificiale e giustizia predittiva, in www.sistemapenale.it., 16 ottobre 2023. Per una recente panoramica al riguardo, cfr. Centro comune di ricerca della Commissione europea, AI Watch Defining Artificial Intelligence, Towards an operational definition and taxonomy of artificial intelligence, Lussemburgo, 2020, p. 17 e ss.
[2] Ci si riferisce alla Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione per l’efficienza della giustizia (CEPEJ) nel 2018. Per un commento alla stessa, cfr. S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea gli spunti per un’urgente discussione tra scienze penali e informatiche, in www.lalegislazionepenale.it, 18 dicembre 2018.
[3] Così si legge nell’Appendice IIII della Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia, cit., p. 47.
[4] Cfr., infra, § 3.
[5] Per un primo commento, v. G. Cassano, E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale, Rimini, 2024.
[6] Così si legge nel considerando n. 1 del Regolamento.
[7] In merito, cfr., tra i molti, S. Hénin, AI. Intelligenza artificiale tra incubo e sogno, Milano, 2019, p. 75 e ss.; J. Kaplan, Intelligenza artificiale. Guida al prossimo futuro, Roma, 2017. Sulle ragioni di questa rapida evoluzione, cfr. C. Cath – S. Wachter – B. Mittelstadt – M. Taddeo – L. Floridi, Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach, in Science and Eng. Ethics, 2018, p. 505.
[8] Il dibattito sviluppatosi in materia è cresciuto in maniera significativa negli ultimi anni. Tra i diversi contributi pubblicati sul tema, cfr., di recente e senza pretese di completezza, F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Dir. pen. cont., 29 settembre 2019; M. Caianiello, Criminal Process faced with the Challenges of Scientific and Technological Development, in European Journal of Crime, Criminal Law and Criminal Justice, 2019, p. 267; G. Canzio, Intelligenza artificiale e processo penale, in Cass. pen., 2021, p. 797; G. Contissa – G. Lasagni, When it is (also) Algorithms and AI that decide on Criminal Matters: In Search of an Effective Remedy, in European Journal of Crime, Criminal Law and Criminal Justice, 2020, p. 280; B. Galgani, Considerazioni sui “precedenti” dell’imputato e del giudice al cospetto dell’IA nel processo penale, in www.sistemapenale.it, 2020, n. 4, p. 81; M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Dir. pen. cont., 29 maggio 2019; S. Lorusso, La sfida dell’intelligenza artificiale al processo penale nell’era digitale, in www.sistemapenale.it, 28 marzo 2024; V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Aa.Vv., Intelligenza artificiale. Il diritto, i diritti e l’etica, a cura di U. Ruffolo, Milano, 2020, p. 547; U. Pagallo – S. Quattrocolo, The impact of AI on criminal law, and its twofold procedures, in Aa.Vv., Research Handbook on the Law of Artificial Intelligence, a cura di W. Barfield e U. Pagallo, Cheltenham-Northampton, 2018, p. 385; D. Polidoro, Tecnologie informatiche e procedimento penale: la giustizia penale “messa alla prova” dall’intelligenza artificiale, in www.archiviopenale.it, 16 novembre 2020; C. Piergallini, Intelligenza artificiale: da “mezzo” ad “autore” del reato?, in Riv. it. dir. proc. pen., 2020, p. 1745; S. Quattrocolo, Artificial Intelligence, Computational Modelling and Criminal Proceedings. A Framework for A European legal Discussion, Cham, 2020, passim; G. Riccio, Ragionando su intelligenza artificiale e processo penale, in www.archiviopenale.it, 21 novembre 2019; P. Severino, Intelligenza artificiale e diritto penale, in Aa.Vv., Intelligenza artificiale, cit., p. 531; S. Signorato, Il diritto a decisioni penali non basate esclusivamente su trattamenti automatizzati: un nuovo diritto derivante dal rispetto della dignità umana, in Riv. dir. proc., 2021, p. 101.
[9] In argomento, si vedano, per tutti, Aa.Vv., Predictive Policing and Artificial Intelligence, a cura di J. McDanie e K. Pease, Oxon-New York, 2021, passim; L. Bennet Moses – J. Chan, Algorithmic prediction in policing: assumptions, evaluation, and accountability, in Policing and Society, 2016, p. 1; P.J. Brantingham, The Logic of Data Bias and Its Impact on Place-Based Predictive Policing, in Ohio State Journal of Criminal Law, 2018, p. 473 e ss.; C. Burchard, L’intelligenza artificiale come fine del diritto penale?, cit., p. 1922 e ss. Degno di menzione è il tool statunitense PredPol, in grado di individuare zone ad “alto rischio” di criminalità (cfr. https://www.predpol.com/). Inoltre, per una recente disamina sui predictive policing tools olandesi Syri e CAS, v. L. Strikwerda, Predictive policing: the risk associated with risk assessment, in The Police Journal: Theory, Practice and Principle, 2020, p. 1 e ss.
[10] Cfr. M.B. Armiento, La polizia predittiva come strumento di attuazione amministrativa delle regole, in Dir. amm., 2020, p. 990 e ss.; G. Contissa – G. Lasagni – G. Sartor, Quando a decidere in materia penale sono (anche) algoritmi e IA: alla ricerca di un rimedio effettivo, in Diritto di internet, 2019, p. 621.
[11] V. C. Morabito, La chiave del crimine, in https://www.poliziadistato.it/statics/16/la-chiave-del-crimine.pdf; M. Serra, Rapinatore seriale catturato grazie al software “Key crime”, in https://www.lastampa.it/2018/01/05/milano/rapinatore-seriale-catturato-grazie-al-software-key-crime-ijoXB7yQTI4P0g5noFfteI/pagina.html.
[12] Per indicazioni al riguardo cfr. https://corrieredelveneto.corriere.it/venezia-mestre/cronaca/18_novembre_16/venezia-l-algoritmo-che-prevede-furti-avvisa-polizia-colpo-sventato-d62fe1fc-e9ab-11e8-9475-b8ef849c8bde.shtml.
[13] Art. 6, § 2, ove si richiama l’Allegato III, § 6 del Regolamento.
[14] Cfr. E. Pierocarlo, La predictive policing nel regolamento europeo sull’intelligenza artificiale, in www.lalegislazionepenale.eu, 26 settembre 2024.
[15] Sul rapporto tra artificial intelligence e prova penale, si veda il lavoro pionieristico di L. Lupária, Prova giudiziaria e ragionamento artificiale: alcune possibili chiavi di lettura, in Il concetto di prova alla luce dell’intelligenza artificiale, Milano, 2005, p. XIV e ss. Sul tema, cfr., tra i molti, S. Lorusso, Digital evidence, cybercrime e giustizia penale 2.0, in Proc. pen. giust., 2019, p. 821 e ss.; L. Lupária – G. Ziccardi, Investigazione penale e tecnologia informatica, Milano, 2007, passim; M. Pittiruti, Digital evidence e procedimento penale, Torino, 2017, passim; S. Quattrocolo, Equità del processo penale e automated evidence alla luce della Convenzione europea dei diritti dell’uomo, in Revista Italo-Española de Derecho Procesal, 2019, p. 2 e ss.; G. Vaciago, Digital evidence. I mezzi di ricerca della prova digitale nel procedimento penale e le garanzie dell’imputato, Torino, 2012, passim.
[16] V. U. Pagallo – S. Quattrocolo, The impact of AI on criminal law, cit., p. 385.
[17] Cfr. S. Quattrocolo, Equo processo penale e sfide della società algoritmica, in BioLaw Journal, 2019, 1, p. 138.
[18] Così, J. Della Torre, Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice, in Dir. pen. cont. – Riv. Trim. 1/2020, p. 232.
[19] In questo senso, R. Lopez, La rappresentazione facciale tramite software, in Aa. Vv., Le indagini atipiche, a cura di A. Scalfati, 2ª ed., Torino, 2019, p. 241.
[20] Cfr. R. Lopez, La rappresentazione facciale, cit., p. 241.
[21] Com’è noto, tale scandalo è emerso dopo un’inchiesta condotta dal New York Times: cfr. K. Hill, The Secretive Company That Might End Privacy as We Know It, in www.nytimes.com, 18 gennaio 2020. Per indicazioni in merito, cfr. J. Della Torre, Novità dal Regno Unito, cit., p. 234. Per una disamina del caso Clearview, secondo una prospettiva eurounitaria, v. I.N. Rezende, Facial recognition in police hands: Assessing the “Clearview case” from a European perspective, in New Journal of European Criminal Law, 2020, p. 375 e ss. Non va, peraltro, sottaciuto come la questione dell’utilizzo dei facial recognition systems risulti particolarmente spinosa: al riguardo, degna di menzione è la recente pronuncia della Court of Appeal dell’Inghilterra e Galles, R (on the application of Edward Bridges) v. The Chief Constable of South Wales Police, [2020] EWCA Civ 1058, la quale, disattendendo la pronuncia della High Court of Justice, ha considerato lesivo dell’art. 8 CEDU l’impiego degli strumenti di riconoscimento facciale. Sulla decisione di primo grado, si veda, ancora, l’analisi di J. Della Torre, Novità dal Regno Unito, cit., p. 236 e ss.
[22] Sul punto, cfr. J. Della Torre, Novità dal Regno Unito, cit., pp. 241-242; R. Lopez, La rappresentazione facciale, cit., p. 240 e ss.; E. Sacchetto, Face to face: il complesso rapporto tra automated facial recognition technology e processo penale, in www.lalegislazionepenale.eu, 16 ottobre 2020, p. 7 e ss.; R. Valli, Sull’utilizzabilità processuale del SARI: il confronto automatizzato di volti rappresentati in immagini, in ilPenalista, 16 gennaio 2019.
[23] Così, Ministero dell’Interno. Dipartimento della pubblica sicurezza, Capitolato tecnico. Procedura volta alla fornitura della soluzione integrata per il sistema automatico di riconoscimento immagini S.A.R.I., p. 7, consultabile in https://www.poliziadistato.it/statics/06/20160627-ct-sari–4-.pdf.
[24] In questi termini, di nuovo, Ministero dell’Interno. Dipartimento della pubblica sicurezza, Capitolato tecnico, cit., p. 7.
[25] Così ha dichiarato l’ex Ministro dell’Interno nel corso di un’interrogazione parlamentare, il cui testo è rinvenibile in http://documenti.camera.it/leg18/resoconti/commissioni/bollettini/html/2020/02/05/01/allegato.htm.
[26] Cfr. Ministero dell’Interno. Dipartimento della pubblica sicurezza, Capitolato tecnico, cit., p. 7.
[27] V. European Committee on Crime Problems, Working Group of Experts on Artificial Intelligence and Criminal Law – Working Paper for the meeting of 27 March 2019, p. 4. Sulla distinzione tra digital evidence e automated evidence, v. S. Quattrocolo, Prueba penal generada automáticamente: el nuevo límite de la igualdad de armas, in Uso de la información y de los datos personales en los procesos: los cambios en la era digital, coordinato da M.A. Catalina Benavente e S. Oubiña Barbolla, Cizur Menor, 2022, p. 340.
[28] In merito, v., per tutti, F. Taroni – S. Bozza – J. Vuille, Il ruolo della probabilità nella valutazione della prova scientifica, in Aa.Vv., Prova scientifica e processo penale, a cura di G. Canzio e L. Lupária, Milano, 2017, p. 23 e ss.
[29] Al riguardo, sia consentito il rinvio, anche per ulteriori riferimenti bibliografici, a M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit.
[30] Cfr. European Commission, Cross-border Digital Criminal Justice. Final Report, Lussemburgo, 2020.
[31] In ordine all’impatto dell’IA sui diritti fondamentali della persona, si veda, in termini generali, lo studio pubblicato da FRA – European Union Agency for Fundamental Rights, Getting the future right – Artificial intelligence and fundamental rights, 14 dicembre 2020, consultabile in https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights. In dottrina, cfr., tra gli altri, J. Nieva-Fenol, Intelligenza artificiale e processo, Torino, 2019, p. 118 e ss.; A. Završnik, Criminal justice, artificial intelligence systems, and human rights, in ERA Forum, 2020, p. 567 e ss.
[32] In argomento, v., tra gli altri, E. Carloni, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, in Dir. amm., 2020, p. 281 e ss.; S. Cristi, Evoluzione tecnologica e trasparenza nei procedimenti “algoritmici”, in Diritto di internet, 2019, p. 382 e ss.; M. Ferrari, La complessità della digitalizzazione e dell’uso degli algoritmi nella PA, ivi, 2020, p. 338 e ss.; A.G. Orofino – G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giur. it., 2020, p. 1738; B. Raganelli, Decisioni pubbliche e algoritmi: modelli alternativi di dialogo tra forme di intelligenza diverse nell’assunzione di decisioni amministrative, in www.federalismi.it, 2020, p. 242 e ss.
[33] Cfr. Cons. Stato, sez. VI, 13 dicembre 2019, n. 8472, in Giur. it., 2020, p. 1190, con nota di M. Timo, Il procedimento di assunzione del personale scolastico al vaglio del Consiglio di Stato.
[34] Cfr., sul punto, L. Lupária, Privacy, diritti della persona e processo penale, in Riv. dir. proc., 2019, p. 1464.
[35] In merito, si veda, da ultimo, S. Quattrocolo, Artificial Intelligence, Computational Modelling and Criminal Proceedings, cit., p. 91 e ss.
[36] Cfr. J. Burrell, How machines think: Understanding opacity in machine-learning algorithms, in Big Data and Society, 2016, vol. 1, p. 1.
[37] Cfr. F. Pasquale, The black box society: The secret algorithms that control money and information, Harvard University Press, 2015; nonché F. Palmiotto, The Black Box on Trial: The Impact of Algorithmic Opacity on Fair Trial Rights in Criminal Proceedings, in Aa.Vv., Algorithmic Governance and Governance of Algorithms, a cura di M. Ebers e M. Cantero Gamito, Cham, 2020, p. 49 e ss.
[38] Cfr. S. Quattrocolo, Equità del processo penale, cit., pp. 112-113; R. Sicurella – V. Scalia, Data mining and profiling in the Area of Freedom, Security and Justice, in New Journal of European Criminal Law, 2013, p. 409 e ss.
[39] V. O. Pollicino – M. Bassini, Commento all’art. 8, in Aa.Vv., Carta dei diritti fondamentali dell’Unione europea, a cura di R. Mastroianni – O. Pollicino – S. Allegrezza – F. Pappalardo – O. Razzolini, Milano, 2017, p. 134 e ss.
[40] Difatti, «as a result of the need to learn by analysing vast amount of data, AI has become hungry for data, and this hunger has spurred data collection, in a self-reinforcing spiral. Thus, the development of AI systems based on machine learning presupposes and fosters the creation of vast data sets, i.e., big data»: così, l’European Parliamentary Research Service (EPRS), The impact of the General Data Protection Regulation (GDPR) on artificial intelligence, Brussels, 2020, p. 16.
[41] Cfr. Corte Giust. UE, Grande Sezione, 8 aprile 2014, C-293/12 e C-594/12, Digital Rights Ireland Ltd c. Minister for Communications, Marine and Natural Resources e a. e Kärntner Landesregierung e a., punto 62. Su tale decisione, cfr., per tutti, L. Trucco, Data retention: la Corte di giustizia si appella alla Carta UE dei diritti fondamentali, in Giur. it., 2014, p. 1850.
[42] Il riferimento è a Corte Giust. UE, Grande Sezione, 2 marzo 2021, C-746/18, H.K. c. Prokuratuur.
[43] In merito, cfr. i rilievi di L. Parlato, Libertà della persona nell’uso delle tecnologie digitali: verso nuovi orizzonti di tutela nell’accertamento penale, in Proc. pen. giust., 2020, p. 297 e ss.
[44] Cfr. S. Rodotà, Il mondo nella rete. Quali i diritti, quali i vincoli, Roma, 2014, p. 30.
[45] Queste le parole di S. Rodotà, Privacy, libertà, dignità. Discorso conclusivo, 26a Conferenza Internazionale sulla Privacy e sulla Protezione dei Dati Personali, Wroclaw (PL), 14, 15, 16 settembre 2004, reperibile in https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/1049293#:~:text=Senza%20una%20forte%20tutela%20del,la%20costruzione%20di%20una%20societ%C3%A0.
[46] Ci si riferisce al d.l. 30 dicembre 2019, n. 161, convertito, con modificazioni, dalla l. 28 febbraio 2020, n. 7. Per una disamina sul tema del captatore alla luce della riforma, v. L. Agostino – M. Peraldo, Le intercettazioni con captatore informatico: ambito di applicazione e garanzie procedurali, in Le nuove intercettazioni. Legge 28 febbraio 2020, n. 7, a cura di M. Gialuz, in Diritto di internet, suppl. al fascolo 3/2020, p. 44 e ss.
[47] Per un quadro sulle potenzialità e sui pericoli dell’IA, si vedano A. Carratta, Decisione robotica e valori del processo, in Riv. dir. proc., 2020, pp. 493-497; L. Floridi – J. Cowls – M. Beltrametti – R. Chatila – P. Chazerand – V. Dignum – C. Luetge – R. Madelin – U. Pagallo – F. Rossi – B. Schafer – P. Valcke – E. Vayena, An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, in https://www.researchgate.net/publication/328699738, 2018, p. 2 e ss.
[48] Cfr. The European Commission’s high-level expert group on artificial intelligence, Draft Ethics Guidelines for Trustworthy AI, in https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai, p. 13.
[49] Com’è noto, la direttiva 2016/680/UE è stata attuata nell’ordinamento italiano dal d.lgs. 18 maggio 2018, n. 51, sul quale v. C. Pansini, Novità legislative interne, in Proc. pen. giust., 2018, p. 690 e ss.
[50] Cfr. A. Ripoll Servent, Protecting or Processing?, in Aa.Vv., Privacy, Data Protection and Cybersecurity in Europe, a cura di W.J. Shünemann e M.O. Baumann, Cham, 2017, p. 125.
[51] Cfr. art. 1, § 1, direttiva 2016/680/UE.
[52] Sulla portata dell’art. 11 direttiva 2016/680/UE, sia consentito il rinvio a M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit., p. 16 e ss. Più di recente, per un’analisi di tale previsione, dal punto di vista del rispetto della dignità umana, cfr. S. Signorato, Il diritto a decisioni penali non basate esclusivamente su trattamenti automatizzati, cit., p. 107 e ss.
[53] M. Gialuz, Intelligenza artificiale e diritti fondamentali in ambito probatorio, in Aa.Vv., Giurisdizione penale, intelligenza artificiale ed etica del giudizio, Giuffrè, 2021, p. 61-63.
[54] V. Cass., sez. I, 21 maggio 2008, Franzoni, in Cass. pen., 2009, p. 1840, con nota di F. Caprioli, Scientific evidence, logiche del probabile nel processo per il “delitto di Cogne”.
[55] Cfr. J. Della Torre, Novità dal Regno Unito, cit., p. 242, nota 112.
[56] V. J. Della Torre, Novità dal Regno Unito, cit., p. 242, nota 112; nonché le considerazioni di R. Lopez, La rappresentazione facciale, cit., p. 255.
[57] Cfr. Cass., sez. Un., 28 marzo 2006, Prisco, in Riv. it. dir. proc. pen., 2006, p. 1537.
[58] In questo senso, A. Camon, La fase che “non conta e non pesa”: indagini governate dalla legge?, in Dir. pen. proc., 2017, p. 433.
[59] Cfr. Garante per la protezione dei dati personali, Sistema automatico di ricerca dell’identità di un volto, 26 luglio 2018, n. 440.
[60] V. Garante per la protezione dei dati personali, Parere sul sistema Sari Real Time, 25 marzo 2021, n. 127.
[61] Cfr. J. Della Torre, Novità dal Regno Unito, cit., p. 242 e ss.
[62] Così, ancora, Garante per la protezione dei dati personali, Parere sul sistema Sari Real Time, cit.
[63] Epperò, in una «situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione a condizione che tale autorizzazione sia richiesta senza indebito ritardo, al più tardi entro 24 ore».
[64] Cfr. le indicazioni contenute in Gruppo di Esperti MISE sull’intelligenza artificiale, Proposte per una Strategia italiana per l’intelligenza artificiale, 2 luglio 2020, p. 11, reperibili in https://www.mise.gov.it/index.php/it/per-i-media/notizie/2041246-intelligenza-artificiale-online-la-strategia.
[65] In argomento, sia consentito rinviare a M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit., p. 10 e ss.
[66] Sul punto, cfr. V. Manes, L’oracolo algoritmico e la giustizia penale, cit., p. 561.
[67] Cfr., da ultimo, i rilievi formulati dal Gruppo di Esperti MISE sull’intelligenza artificiale, Proposte per una Strategia italiana per l’intelligenza artificiale, cit., p. 17. È noto, peraltro, che l’amplificazione delle forme di discriminazione è uno degli aspetti maggiormente criticati nell’utilizzo di tools basati sull’IA. A titolo emblematico, si veda il famoso studio realizzato con riferimento al risk assessment tool COMPAS; da tale ricerca è emerso, in particolare, che il software in questione sarebbe «biased against blacks»: così, J. Angwin – J. Larson – S. Mattu – L. Kirchner, Machine Bias, in www.propublica.org, 23 maggio 2016. Sul punto, cfr., volendo, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit., p. 7. In aggiunta, tra i molti contributi pubblicati in argomento, v., recentemente, J. Kleinberga – J. Ludwigb – S. Mullainathanc – C.R. Sunsteind, Algorithms as discrimination detectors, in https://doi.org/10.1073/pnas.1912790117, 2020; F.J. Zuiderveen Borgesius, Strengthening legal protection against discrimination by algorithms and artificial intelligence, in The International Journal of Human Rights, 2020, p. 1572 e ss. Si consideri, da ultimo, quanto emerso nella discussione della Commissione LIBE su Artificial Intelligence in Criminal Law and its Use by the Police and Judicial Authorities in Criminal Matters, in relazione ai potenziali effetti discriminatori dei facial recognition systems: in proposito, cfr. T. Wahl, EP LIBE: AI in Criminal Law, in Eucrim, 1° aprile 2020.
[68] Sul problema della trasparenza dei tools fondati sull’IA, si vedano, tra i molti, M. Loi – A. Ferrario – E. Viganò, Transparency as design publicity: explaining and justifying inscrutable algorithms, in Ethics and Information Technology, 2020; V. Manes, L’oracolo algoritmico e la giustizia penale, cit., p. 558 e ss.; S. Quattrocolo, Artificial Intelligence, cit., p. 17 e ss.
[69] Cass., sez. IV, 18 giugno 2019, n. 39731, § 4, in OneLegale.
[70] Sulla disposizione di cui all’art. 22 GDPR, v. G.N. La Diega, Against the Dehumanisation of decision-Making. Algorithmic decisions at the Crossroads of Intellectual Property, Data Protection, and Freedom of Information, in JIPITEC, 31 maggio 2018, pp. 18-19; nonché, F. Peluso – M. Saporito, Profilazione e privacy: un confronto fra i modelli Google, Amazon e Facebook, in Diritto di internet, 2021, pp. 210-211; D. Sancho, Automated Decision-Making under Article 22 GDPR, in Aa.Vv., Algorithms and Law, a cura di M. Ebers e S. Navas, Cambridge, 2020, p. 136 e ss.
[71] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, in www.pa.leggiditalia.it. Su tale pronuncia, v. J. Della Torre, Verso uno statuto delle decisioni algoritmiche: dal Consiglio di Stato spunti estensibili anche alla giustizia penale, in Riv. dir. proc., 2021, p. 713 e ss.; nonché A.G. Orofino – G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative, cit.
[72] V., supra, nota 33.
[73] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[74] V. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[75] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[76] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[77] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[78] V. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[79] V. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit. La celebre pronuncia richiamata dall’arresto è la decisione della Corte suprema del Wisconsin del 31 luglio 2016 State v. Loomis, 881 NW 2d749 (WIS 2016), sulla quale si veda S. Quattrocolo, Artificial Intelligence, Computational Modelling and Criminal Proceedings, cit., p. 156 e ss.
[80] V. G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, in Dir. pen. cont. – Riv. trim., 4/2020, p. 83.
[81] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[82] Cfr. Cons. Stato, sez. VI, 4 febbraio 2020, n. 881, cit.
[83] Così, S. Rodotà, Privacy, libertà, dignità, cit.