Enter your keyword

INTELLIGENZA ARTIFICIALE E DIRITTO PENALE:  PROVE TECNICHE DI CONVIVENZA – DI FABIO BASILE E BEATRICE FRAGASSO

INTELLIGENZA ARTIFICIALE E DIRITTO PENALE: PROVE TECNICHE DI CONVIVENZA – DI FABIO BASILE E BEATRICE FRAGASSO

BASILE FRAGASSO – INTELLIGENZA ARTIFICIALE E DIRITTO PENALE PROVE TECNICHE DI CONVIVENZA.pdf

INTELLIGENZA ARTIFICIALE E DIRITTO PENALE: PROVE TECNICHE DI CONVIVENZA

di Fabio Basile* e Beatrice Fragasso**

Il contributo[1] si propone di riflettere sull’impatto dell’intelligenza artificiale (i.a.) sulla responsabilità penale. Lo sviluppo di sistemi che agiscono in maniera imprevedibile, e il cui funzionamento è (almeno in parte) oscuro agli esseri umani, rischia di mettere in crisi i tradizionali meccanismi di imputazione penale dell’evento lesivo, che presuppongono la possibilità di controllare le fonti del rischio. In questo contesto, sono due le prospettive penalistiche che – nei progetti legislativi, così come nell’ambito della riflessione dottrinale – si stanno imponendo con maggior forza: da un lato, la possibile predisposizione di forme anticipate di responsabilità penale (o para-penale), per sanzionare eventuali negligenze nella gestione del rischio da parte degli sviluppatori dei sistemi di i.a.; dall’altro lato, l’introduzione di una posizione di garanzia in capo alle persone incaricate della sorveglianza sul funzionamento dei sistemi di i.a. Il contributo esamina entrambe le prospettive, mettendone in luce i punti di forza e i limiti.

This paper explores the impact of artificial intelligence (AI) on criminal liability. The unpredictability and opacity of AI systems could threaten the classical mechanisms of attributing criminal liability for harmful events, which traditionally relies on the ability to control sources of risk. In this context, two legal approaches are emerging in regulatory frameworks and scholarly debate. The first one involves introducing new negligence offenses for AI developers, focused on failures in AI risk management. The second approach considers assigning criminal liability to supervisors of AI systems for inadequate oversight. This article explores both perspectives, highlighting their strengths and limitations.

Sommario: 1. L’intelligenza artificiale, tra fantascienza e attuali applicazioni. – 2. Dalla causalità alla statistica: in che modo i sistemi di i.a. sono diventati “pappagalli stocastici”? – 3. Governare l’imprevedibile: le sfide della regolazione. – 4. Il diritto penale di fronte all’imprevedibilità algoritmica. – 5. La posizione degli sviluppatori: la negligente gestione del rischio da intelligenza artificiale. – 6. La posizione dei sorveglianti, tra technological complacency, control dilemma e opacità. – 7. Considerazioni conclusive.

  1. L’intelligenza artificiale, tra fantascienza e attuali applicazioni.

L’aspirazione di modellare delle creature “a propria immagine e somiglianza” ha costituito uno dei temi centrali e più rappresentativi dell’immaginario fantascientifico letterario e cinematografico del Ventesimo secolo – ultimo capitolo, almeno per ora, di quella hybris, che, da Prometeo a Icaro, induce immancabilmente gli uomini a sfidare i limiti della Natura. Gli attuali modelli di “intelligenza artificiale”, in realtà, hanno ben poco in comune con gli androidi scaturiti dalla penna di Isaac Asimov o di Philip K. Dick, aventi sembianze e capacità intellettive paragonabili a quelle degli esseri umani (tanto che uno dei topos di questo immaginario consiste proprio nella lotta degli automi per sfuggire al controllo dell’uomo). Al contrario, quando oggi parliamo di sistemi di i.a. facciamo riferimento ad algoritmi in grado di svolgere compiti molto specifici (come guidare un autoveicolo, effettuare negoziazioni sui mercati finanziari, pubblicare contenuti sui social network, etc.), ma del tutto privi, non solo delle sembianze, ma anche di un’intelligenza ad ampio spettro assimilabile a quella di un essere umano (c.d. narrow artificial intelligence) – tanto che autorevoli studiosi della materia considerano fuorviante l’utilizzo della stessa espressione “intelligenza artificiale”[2]. Se, dunque, non dobbiamo aspettarci (quantomeno, non nell’immediato!) una sedizione dei sistemi di i.a. volta ad ottenere il riconoscimento di uno status civile e sociale, cionondimeno, la crescente diffusione, in molteplici aspetti della nostra vita quotidiana, di sistemi in grado di svolgere determinate attività in base a processi decisionali razionali, e indipendentemente dall’intervento di un essere umano, apre una serie di interrogativi sul piano politico, etico, economico, e, ovviamente, giuridico.

In particolare, per quanto in questa sede maggiormente ci interessa, la parziale perdita di controllo dell’operatore umano (dell’utilizzatore, così come del produttore, del programmatore, dello sviluppatore, etc.) sul processo decisionale e sul comportamento dell’algoritmo solleva questioni che, da qualche anno, stanno facendo discutere giuristi e filosofi, ognuno nei rispettivi ambiti di competenza. Le domande che più circolano nel dibattito attuale sono formulabili nei seguenti termini: chi può essere ritenuto responsabile degli eventi lesivi che derivano dall’attività degli agenti artificiali? L’aver sviluppato un sistema di i.a. può determinare, di per sé, in capo allo sviluppatore, una responsabilità per le decisioni assunte dall’algoritmo? E ancora, più radicalmente, ha senso parlare di responsabilità in relazione al “comportamento” di agenti che non hanno alcuna comprensione simbolica e semantica della realtà umana?[3]

  1. Dalla causalità alla statistica: in che modo i sistemi di i.a. sono diventati “pappagalli stocastici”?

Ma andiamo con ordine, ed esaminiamo – seppur per sommi capi, e compatibilmente con le nostre limitate competenze tecniche – come funzionano gli attuali sistemi di machine learning. Nel farlo, possiamo partire da un editoriale pubblicato su Wired nel 2008: poco più di quindici anni fa, che, tuttavia, sembrano un secolo, se rapportati alla crescita rapidissima che, in tale periodo, ha vissuto il settore dell’intelligenza artificiale. In un articolo intitolato, evocativamente, “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete”, il giornalista Chris Anderson sosteneva che la capacità degli algoritmi di inferire correlazioni nell’enorme quantità di dati disponibili avrebbe reso obsoleti i metodi scientifici tradizionali, basati sulla formulazione di ipotesi e sulla ricerca di relazioni causali[4]. Anderson, in particolare, preconizzava che il metodo statistico utilizzato da Google per indicizzare i contenuti sul motore di ricerca potesse essere proficuamente esteso anche in altri contesti, e che fosse ormai superata l’idea che l’accertamento del nesso causa-effetto fosse sempre necessario per la descrizione dei fenomeni e, di conseguenza, per lo sviluppo di nuove tecnologie: «Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required».

Quella che nel 2008 poteva apparire come una provocazione suona, oggi, quasi come una profezia. L’attuale successo dell’intelligenza artificiale, infatti, deriva proprio dalla capacità degli algoritmi di machine learning di riconoscere, nei dati, correlazioni statistiche che la mente umana non sarebbe in grado di rilevare, se non in tempi e con impiego di risorse ben maggiori, e di fondare su di esse delle predizioni. Il sistema di riconoscimento immagini utilizzato dai veicoli a guida autonoma, ad esempio, non contiene informazioni teoriche su come è fatto un segnale di stop; esso, tuttavia, è in grado di riconoscere e distinguere i cartelli stradali, perché è stato addestrato su immensi dataset di immagini opportunamente etichettate. Lo stesso meccanismo vale, in ambito medico, per i c.d. clinical decision support systems, che, secondo alcuni studi, già oggi potrebbero essere in grado di effettuare diagnosi di cancro più accurate di quelle effettuate dai medici[5]. Per questo motivo si parla di machine learning: dopo aver analizzato milioni di immagini raffiguranti tumori già diagnosticati, il sistema impara a riconoscere i tumori. Ma le concrete applicazioni del machine learning non si fermano al riconoscimento di immagini. Anche la c.d. i.a. generativa – ossia quella tipologia di i.a. che consente la creazione di nuovi contenuti (quali audio, video, foto, testi, etc.) – si basa sulla generalizzazione di pattern statistici. ChatGPT, ad esempio, nelle stesse parole degli sviluppatori di OpenAI, «responses to user requests by predicting the next most likely words that might appear in response to each prompt»[6]: per questo motivo, i large language models come ChatGPT sono stati definiti come “pappagalli stocastici”, a significare che essi sono in grado di generare testi plausibili, senza tuttavia avere alcuna comprensione del significato dei testi prodotti[7].

Tale approccio induttivo (bottom-up) parte dalla constatazione che molte delle attività che l’essere umano svolge non sono formalizzabili attraverso l’esplicitazione di regole definite, ma sono frutto di esperienza e di imitazione – operazioni nelle quali l’intelligenza artificiale eccelle.

È a questa capacità “evolutiva” che ci si riferisce quando si parla di “autonomia” dei sistemi di i.a.: gli algoritmi non agiscono sulla base di schemi decisionali predefiniti (o, quantomeno, non soltanto sulla base di essi), ma sono in grado di prendere decisioni in situazioni di incertezza, adattandosi alle specificità del contesto, al fine di raggiungere, nella maniera più efficiente, gli obiettivi stabiliti in sede di programmazione[8]. Di qui, l’imprevedibilità del comportamento dei più sofisticati sistemi di machine learning – e, parallelamente, in un’ottica ex post, l’incomprensibilità dei processi decisionali algoritmici (c.d. black box).

Al successo tecnologico del machine learning – che esprime una fase avanzatissima del dominio dell’uomo sulla natura – è dunque legato un risultato paradossale: gli stessi ricercatori che sviluppano i sistemi di i.a. non sono in grado di prevedere, né di comprendere a fondo, come e perché gli algoritmi pervengono a determinati output.

  1. Governare l’imprevedibile: le sfide della regolazione.

La questione di come gli ordinamenti giuridici debbano rispondere ad un cambiamento così profondo e rapido è una delle più dibattute a livello globale. Si avverte, in particolare, una certa sfasatura tra l’incessante e fluida evoluzione dell’intelligenza artificiale e le esigenze di certezza proprie del diritto.

Innanzitutto, lo sviluppo di sistemi che agiscono in maniera imprevedibile, e il cui funzionamento è (almeno in parte) oscuro agli esseri umani, impone la necessità di realizzare un bilanciamento tra rischi e benefici: una questione che potremmo definire come “classica” – connotando essa la regolazione di qualsiasi attività pericolosa socialmente utile –, ma che con riferimento all’i.a. assume un ruolo cruciale e quasi “esistenziale” per la società, atteso il potenziale “trasformativo” dell’intelligenza artificiale[9]. In particolare, in relazione alla regolazione dell’intelligenza artificiale, il bilanciamento rischi-benefici apre un interrogativo inedito, che così potrebbe essere formulato: siamo disposti, come collettività, ad accettare un certo grado di incomprensibilità e di imprevedibilità dell’apparato informatico-tecnologico in cui viviamo, in cambio di un complessivo, atteso, aumento di efficienza nello svolgimento di una serie di attività? E se sì, con quali limiti, e in quali ambiti?

Si tratta, evidentemente, di interrogativi schiettamente politici, non esistendo una soluzione neutrale, che sia in grado di realizzare, di per sé, il “perfetto” contemperamento tra interessi confliggenti. Un primo passo, in questo senso, è stato realizzato dall’Unione europea, con l’approvazione del Regolamento sull’intelligenza artificiale (c.d. AI Act)[10], considerato, a livello globale, come il primo atto normativo volto a fornire un quadro normativo vincolante e orizzontale (nel senso che non è limitato ad un singolo settore di applicazione) per lo sviluppo e la commercializzazione di sistemi di i.a.

Al centro dell’AI Act vi è proprio il concetto di rischio. In particolare, l’AI Act divide i dispositivi di intelligenza artificiale in tre categorie – a seconda del rischio che questi pongono per la sicurezza degli utenti ed il rispetto dei diritti fondamentali dei cittadini – , individuando per ciascuna categoria un regime giuridico applicabile: così, i sistemi di i.a. che presentano rischi considerati “inaccettabili” non potranno essere introdotti nel mercato europeo (art. 5); i sistemi ad alto rischio (artt. 6 e 7) potranno essere commercializzati, purché siano conformi rispetto ad una serie di requisiti (artt. 8-15); per i sistemi a rischio limitato (art. 50), infine, basterà il rispetto di alcuni obblighi di trasparenza[11].

Rinviamo al testo del Regolamento per la precisa individuazione dei criteri che consentono di distinguere le varie categorie di sistemi di i.a., nonché dei requisiti di commercializzazione per i sistemi a rischio alto e limitato. Il rilevo che qui ci pare importante mettere in evidenza, invece, è che la normativa europea – nonostante costituisca la strategia di governance dell’intelligenza artificiale che, a livello globale, maggiormente si pone l’obiettivo di tutelare le persone dai rischi derivanti dallo sviluppo tecnologico – non potrà impedire, in assoluto, che i sistemi di intelligenza artificiale, pur conformi rispetto alla normativa sulla sicurezza, cagionino offese a beni giuridici.

  1. Il diritto penale di fronte all’imprevedibilità algoritmica.

Quale può essere, in questo contesto, il ruolo del diritto penale, nella prevenzione degli eventi lesivi “da intelligenza artificiale”? La casistica di “incidenti” che sono derivati dall’attivazione di sistemi di i.a. è già molto estesa, ed è probabilmente destinata ad ampliarsi ancora, man mano che cresceranno le applicazioni dell’intelligenza artificiale[12]. Ci limitiamo qui a qualche esempio: automobili a guida autonoma che investono pedoni; droni militari che selezionano ed ingaggiano obiettivi civili, in contrasto con il diritto internazionale umanitario; chatbot che forniscono informazioni lesive della reputazione di terzi; algoritmi di trading che – ponendo in essere operazioni artificiose – determinano sensibili alterazioni nel prezzo degli strumenti finanziari.

Se tali condotte fossero realizzate direttamente da un essere umano, potrebbero esserci gli estremi per il riconoscimento, in capo all’agente, di una responsabilità penale a titolo di omicidio stradale, omicidio doloso, diffamazione, manipolazione di mercato – sempre che, ovviamente, nel caso concreto risultino integrati tutti gli elementi di tali fattispecie. Il fatto che, invece, gli eventi lesivi, nei casi citati, siano scaturiti direttamente da una “decisione algoritmica” rischia di ostacolare la possibilità di individuare delle responsabilità individuali, in capo ai produttori e agli sviluppatori dei sistemi di i.a., per il verificarsi dell’evento.

In realtà, laddove l’evento lesivo sia scaturito dall’attivazione di sistemi di i.a. prodotti in maniera conforme alla normativa di settore, la necessità di individuare il soggetto personalmente responsabile per l’evento non dovrebbe nemmeno porsi. Come già evidenziato, infatti, attraverso la perimetrazione del livello di rischio socialmente accettato il legislatore determina il grado di tutela che l’ordinamento intende assicurare ai beni giuridici potenzialmente interessati dallo svolgimento dell’attività pericolosa – c’est à dire, la quota di eventi lesivi che una società è disposta a tollerare, in cambio dei benefici complessivi derivanti dalla produzione industriale e dalla messa in commercio di prodotti ad alta tecnologia[13]. Se si consentisse al giudice di sostituire il proprio apprezzamento a quello del legislatore – individuando, ex post, un dovere di astenersi, laddove fosse astrattamente prevedibile il verificarsi di eventi lesivi – si finirebbe per ledere l’affidamento del produttore nella liceità del proprio operato, con conseguente violazione dei principi costituzionali di colpevolezza e di legalità (sub specie di prevedibilità della sanzione penale)[14].

Il problema è che, anche al di fuori del perimetro del rischio consentito legalmente determinato, le concrete possibilità di accertare una responsabilità penale in capo al produttore per l’evento lesivo algoritmico si preannunciano – a meno di non voler rinunciare ai principi cardine del diritto penale – piuttosto scarse. Viene in rilievo, in particolare, il principio di personalità della responsabilità penale, sia nella sua accezione minima e “oggettiva” (riferibilità materiale del fatto e divieto di responsabilità per fatti altrui), sia nella sua moderna versione personalistica, legata alla rimproverabilità del fatto offensivo (principio di colpevolezza). L’imprevedibilità e l’opacità del decision making algoritmico, infatti, allontanano l’evento lesivo dalla condotta umana, incidendo così sulla possibilità di muovere un rimprovero al produttore e, prima ancora, di individuare con certezza il nesso di causalità tra condotta umana ed evento lesivo. Se è vero che di una “crisi” del diritto penale d’evento si parla ormai da tempo in dottrina, il rischio è che tale crisi sia accelerata e aggravata dal diffondersi di prodotti “intelligenti”, che, intrinsecamente, presentano caratteri di imponderabilità e imperscrutabilità[15].

Di fronte alla prospettiva di una vanificazione della funzione general-preventiva dell’ordinamento penale, ci sembra che, nella regolazione e nelle riflessioni dottrinali, stiano emergendo due tendenze – tra di loro complementari – che mirano a recuperare un ruolo di centralità del diritto punitivo: da un lato, si enfatizza la necessità di predisporre forme anticipate di responsabilità penale (o para-penale), per sanzionare eventuali negligenze nella gestione del rischio da intelligenza artificiale da parte degli sviluppatori dei sistemi di i.a.; dall’altro lato, vi è la tendenza ad individuare, quale soggetto penalmente responsabile per gli eventi lesivi “da intelligenza artificiale”, la persona incaricata della sorveglianza sul funzionamento dei sistemi di i.a.

Nei prossimi paragrafi esamineremo brevemente tali prospettive, evidenziando quelli che, a nostro parere, sono i punti di forza e i limiti di ciascuna di esse[16].

  1. La posizione degli sviluppatori: la negligente gestione del rischio da intelligenza artificiale.

In un contesto in cui l’evento lesivo algoritmico costituisce l’esito finale di una lunga serie di “decisioni” imponderabili ed imprevedibili assunte dal sistema di i.a., il nucleo del rimprovero che potrà essere mosso allo sviluppatore non consiste tanto nella realizzazione dell’evento di danno, quanto nell’aver commercializzato un prodotto intelligente — di cui ben si conoscono, quantomeno in via generale, le potenzialità lesive — in assenza delle dovute cautele. È in quest’ottica che, de jure condendo, diversi autori hanno proposto l’introduzione di forme anticipate di tutela penale, sotto forma di reati di pericolo astratto che, quantomeno in determinati settori di sviluppo dell’intelligenza artificiale, sanzionino la creazione o il mantenimento di rischi illeciti a beni giuridici di primaria importanza, quali la vita e l’integrità fisica[17].

Nella medesima direzione parrebbe muoversi anche il d.d.l. governativo in materia di i.a. (n. 1146 del 2024), attualmente in discussione al Senato, nella parte in cui propone di delegare al Governo l’introduzione di «una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale […]»[18].

Non possiamo non rilevare, tuttavia, come l’introduzione di reati di pericolo astratto – oltre a porsi in uno stato di inevitabile tensione con il principio di offensività[19] – si sia rivelata, in passato, tutt’altro che risolutiva: si pensi, in particolare, alle contravvenzioni previste dalla disciplina generale sulla sicurezza dei prodotti (vd. art. 112, codice del consumo), che, ad oggi, sono rimaste soltanto sulla carta, complici anche cornici edittali non del tutto adeguate allo scopo di deterrenza. Il rischio da evitare, allora, è che i nuovi reati si vadano ad aggiungere a quella folta schiera di contravvenzioni che pullulano nella legislazione complementare, e che, sulla spinta di esigenze di tutela settoriali, hanno determinato una disordinata evoluzione ipertrofica del diritto penale, tanto da tracciare i confini di quello che è stato autorevolmente definito come un “feudalesimo penale”[20]. In quest’ottica, l’opera di individuazione delle condotte la cui violazione determini l’applicazione di una sanzione penale dovrà improntarsi ai criteri di precisione e di extrema ratio, e, possibilmente, dovrà svolgersi proprio in collaborazione con le società produttrici, spesso dotate di un’expertise tecnologica e di una conoscenza delle fonti di pericolo che non ha paragoni nel settore pubblico.

Parallelamente all’introduzione di fattispecie incriminatrici di pericolo astratto, un’efficace prevenzione del rischio da intelligenza artificiale non potrà non passare per una qualche forma di responsabilizzazione anche dell’ente-fornitore – che costituisce il soggetto che è effettivamente destinatario delle cautele approntate, a livello regolatorio, per la mitigazione dei rischi produttivi.

A proposito di questa eventuale responsabilità dell’ente, occorre, tuttavia, rilevare che la caratteristica imprevedibilità dei sistemi di i.a. potrebbe amplificare quelle istanze, provenienti da una parte della dottrina, che sostengono la necessità di favorire una maggiore indipendenza dei criteri ascrittivi della responsabilità “da reato” dell’ente rispetto a quelli della persona fisica, attraverso la valorizzazione del principio di “autonomia delle responsabilità dell’ente” (art. 8, d.lgs. 231 del 2001)[21], o attraverso l’introduzione di nuovi meccanismi diretti di responsabilizzazione (para) penale dell’ente[22]. Se è, infatti, innegabile che vi sia sempre, in relazione ai criteri ascrittivi della responsabilità ex d.lgs. 231/2001, un certo grado di disarmonia tra carattere “culturalmente” collettivo della criminalità d’impresa[23] e conformazione personalistica della responsabilità penale, tale disarmonia è evidentemente destinata ad accentuarsi nel contesto della produzione di sistemi intelligenti, in cui l’offesa ai beni giuridici sembra fuoriuscire definitivamente dalla sfera di controllo del singolo partecipante alle decisioni d’impresa[24].

D’altra parte, una funzione general-preventiva potrebbe essere svolta anche dalla predisposizione di sanzioni amministrative rivolte alla società che non adotti adeguate procedure di risk management[25]. In questa direzione, tra l’altro, parrebbe muoversi la già citata Proposta di Regolamento europeo sull’intelligenza artificiale, che obbliga gli Stati membri ad introdurre sanzioni «effettive, proporzionate e dissuasive» per il caso di mancato rispetto della disciplina ivi stabilita (vd. art. 99, AI Act). Viene in rilievo, in particolare, l’art. 9 dell’AI Act, che impone al fornitore di sistemi di i.a. ad alto rischio di predisporre un “sistema di gestione dei rischi”, da intendersi come «un processo iterativo continuo pianificato ed eseguito nel corso dell’intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici» (art. 9, par. 2).

Niente di nuovo, da un certo punto di vista: i processi di identificazione, valutazione e gestione dei rischi costituiscono – fin dalla seconda metà del Novecento, in corrispondenza con l’emergere di quella che Ulrich Beck chiamava, notoriamente, la “società del rischio”[26] – uno dei momenti centrali nell’organizzazione e nella pianificazione dell’attività di impresa. Il carattere imprevedibile e imperscrutabile dei sistemi di i.a., tuttavia, conferisce alle fasi di risk management nuovi significati: nel quadro regolatorio fissato ex ante dal legislatore, le società fornitrici sono infatti, spesso, gli unici soggetti in grado di monitorare le performance degli algoritmi, identificando e valutando l’eventuale emersione di nuovi profili di rischio.

In particolare, ai sensi dell’art. 9, par. 2, dell’AI Act, il sistema di gestione dei rischi dovrà necessariamente comprendere:

(i) una fase di identificazione e di valutazione dei rischi pre-market, volta ad analizzare «i rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può porre per la salute, la sicurezza e i diritti fondamentali quando il sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista» (art. 9, par. 2, lett. a), o «in condizioni di uso improprio ragionevolmente prevedibile» (art. 9, par. 2, lett. b);

(ii) una fase di valutazione post-market, che prenda in considerazione tutti quei rischi che possono eventualmente emergere dopo la messa in commercio del prodotto (art. 9, par. 2, lett. c);

(iii) una fase attuativa, nella quale vengono adottate le misure volte a gestire i rischi emersi (art. 9, par. 2, lett. d).

È quest’ultima, ci pare, la fase più delicata, che presumibilmente darà luogo ad accesi dibattiti interpretativi[27]. Una volta individuati ed analizzati i rischi (ai sensi dell’art. 9, par., 2, lett. a, b e c), che fare? Quali rischi dovranno essere necessariamente eliminati, al fine di poter commercializzare il sistema di i.a., e quali, invece, dovranno essere semplicemente ridotti e “gestiti”?

L’AI Act, da questo punto di vista, non è particolarmente d’aiuto, arrivando a sfiorare la tautologia quando dispone che «Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che i pertinenti rischi residui associati a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili» (art. 9, par. 5). Quella del “rischio accettabile” è, infatti, di per sé, una formula vuota, che – come già sottolineato – necessita di essere “riempita” da considerazioni e decisioni eminentemente politiche. Si attendono, in questa prospettiva, le normative settoriali e gli standard tecnici, che dovrebbero contribuire ad una più precisa definizione del bilanciamento tra rischio da intelligenza artificiale e tutela dei diritti fondamentali dei cittadini (o, in un’ottica penalistica, dei beni giuridici).

  1. La posizione dei sorveglianti, tra technological complacency, control dilemma e opacità.

Nonostante la crescente capacità dei sistemi di i.a. di svolgere attività senza intervento umano dovrebbe, logicamente, preludere ad uno spostamento del focus della responsabilità penale sullo sviluppatore, le già citate difficoltà in ordine all’accertamento della responsabilità per gli eventi lesivi “da intelligenza artificiale” rischiano di scoraggiare le indagini in quella direzione, favorendo invece una ricerca di responsabilità nei confronti del c.d. human-in-the-loop, ossia del soggetto – individuato, di volta in volta, dalla normativa rilevante – incaricato di supervisionare il funzionamento del sistema di intelligenza artificiale.

La necessità che vi sia sempre un essere umano in grado di esercitare un controllo significativo sul funzionamento del sistema è prevista dalla gran parte delle fonti internazionali, sovranazionali e nazionali[28]. In particolare, il principio dello human oversight è uno dei perni attorno ai quali ruota l’AI Act, costituendo – nelle intenzioni del legislatore europeo – la modalità principe per conservare la centralità dell’essere umano in ogni fase dello sviluppo e dell’implementazione delle pratiche di intelligenza artificiale[29]. L’art. 14, rubricato “Sorveglianza umana” stabilisce che «[i] sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso» (par. 1). Nello specifico, il par. 4 dell’art. 14 elenca una serie di misure tecniche che, “ove opportuno e proporzionato”, devono essere predisposte dal fornitore, al fine di garantire un effettivo esercizio della sorveglianza da parte dell’utente. Il par. 4 dell’art. 14, oltre ad alcune misure volte a garantire la “comprensibilità” del sistema di i.a. (lett. a, b e c), descrive, alle lett. d) ed e), quelle che possiamo definire come “misure di sorveglianza in senso stretto”, ossia misure attraverso le quali la persona fisica può concretamente esercitare un controllo sull’attività algoritmica. In particolare, il Regolamento pare individuarne due tipologie, a seconda che si tratti di sistemi che necessitano di un filtro umano per incidere sul mondo (c.d. recommendation systems, ad esempio un clinical decision support system) o sistemi che, invece, incidono direttamente sulla realtà (ad esempio, un veicolo a guida autonoma, o un drone dotato di capacità di apprendimento). Nel primo caso, la persona fisica deve essere messa in grado di «decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio[30]» (art. 14, par. 4, lett. d); nel secondo, invece, la persona fisica dovrà poter «intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di “arresto” o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza» (par. 4, lett. e).

Il potere di controllo attribuito al supervisore avrà, insomma, un carattere prettamente “negativo”: non si richiede, infatti, che il sorvegliante debba essere messo nelle condizioni di svolgere, al posto del dispositivo, la funzione alla quale il dispositivo stesso era predisposto; si prevede, piuttosto, che questi possa arrestare il sistema, o non prendere in considerazione la raccomandazione fornita dal sistema di i.a.

Nonostante l’art. 14 dell’AI Act non imponga obblighi alla persona fisica alla quale è affidata la sorveglianza umana, si può facilmente immaginare come gli obblighi di progettazione posti in capo al fornitore troveranno un corrispettivo in appositi obblighi di controllo imposti alla persona incaricata della sorveglianza. Ed è quanto è effettivamente già accaduto, prima ancora dell’approvazione dell’AI Act, in materia di circolazione di auto a guida autonoma: le normative che, nel corso degli ultimi anni, sono state introdotte in vari paesi europei prevedono sempre, infatti, degli obblighi di supervisione ed intervento in capo a soggetti specificamente determinati[31].

Già de jure condito, il mancato rispetto degli obblighi di sorveglianza sull’attività algoritmica dovrà essere preso in considerazione – qualora si verifichi un evento lesivo dell’integrità fisica – nella valutazione della responsabilità dell’operatore a titolo di omicidio colposo o lesioni colpose.

Va premesso, a tal proposito, che, dal punto di vista oggettivo, è probabile che si assisterà ad un sostanziale cambio di paradigma nell’imputazione penale, da commissiva ad omissiva[32]. L’operatore, infatti, più che una persona che adopera direttamente il dispositivo intelligente, è il soggetto che ha l’obbligo di supervisionarlo e di intervenire qualora emergano malfunzionamenti. Ecco che, in questa prospettiva, gli obblighi di sorveglianza potrebbero eventualmente assumere rilievo come obblighi di impedire determinati eventi lesivi, integrando così la clausola di estensione della tipicità penale di cui all’art. 40, comma 2, c.p.

Non è questa la sede per soffermarci sull’annoso dibattito circa l’individuazione dei criteri distintivi tra struttura tipica del reato omissivo e momento omissivo della colpa[33]. In questa sede, ci accontenteremo di rilevare che l’inintelligibilità e l’imprevedibilità dei sistemi di intelligenza artificiale potrà incidere in vario modo sia sulla concreta possibilità di adempiere al potere-dovere giuridico di impedire l’evento, sia sul rispetto delle regole cautelari (scritte e non scritte) che regolano l’esercizio di tale potere-dovere. In particolare, possiamo individuare tre fattori, tipicamente legati all’autonomia dei sistemi di i.a., che potrebbero incidere, da un lato, sull’esigibilità della conformazione all’obbligo di sorveglianza da parte dell’operatore e, dall’altro, sull’evitabilità dell’evento lesivo:

a) la c.d. “distorsione dell’automazione” (anche detta technological complacency), ossia quella tendenza delle persone ad affidarsi eccessivamente alla tecnologia e a non metterne in discussione i risultati[34];

b) la ridotta capacità di reazione durante le situazioni di emergenza, dovuta al fatto che il livello di attenzione di chi si limiti a monitorare l’attività altrui è più debole rispetto a quello di chi agisce in prima persona (c.d. control dilemma)[35];

c) l’opacità, che potrebbe impedire all’operatore di riconoscere l’errore algoritmico e di intervenire o discostarsi dalla raccomandazione ricevuta.

Sebbene, insomma, la presenza costante di un human-in-the-loop potrebbe effettivamente scongiurare alcuni effetti negativi derivanti da errori e bias algoritmici[36], è altresì essenziale evitare che il sorvegliante si trasformi in un capro espiatorio, sul quale scaricare la responsabilità per le deficienze dei dispositivi di i.a.

L’impatto dell’automazione sulle capacità cognitive e psico-fisiche dei sorveglianti ha indotto alcuni autori ad ipotizzare una limitazione della responsabilità in capo a questi ultimi, attraverso la valorizzazione di protocolli e linee guida per l’esercizio dell’attività di sorveglianza. In particolare, una parte della dottrina ritiene che la causa di esclusione della responsabilità di cui all’art. 590-sexies c.p. – in materia di esercizio della professione sanitaria – possa fungere da modello per una norma che escluda la responsabilità penale dell’utilizzatore del sistema di i.a., nel caso in cui siano rispettate «le raccomandazioni previste dai protocolli sull’IA come definiti e pubblicati ai sensi di legge ovvero, in mancanza di questi, secondo le buone pratiche operative, sempre che le raccomandazioni previste dai predetti protocolli o le buone pratiche risultino adeguate alle specificità del caso concreto»[37]. Sebbene l’obiettivo della proposta sia senz’altro condivisibile, non possiamo tuttavia non rilevare come la formulazione dell’art. 590-sexies c.p. abbia dato vita a molteplici incertezze interpretative[38], e come, d’altra parte, il sistema di accreditamento delle linee-guida in ambito medico stenti, per ora, a decollare[39]: un risultato (quantomeno in parte) deludente, che sembrerebbe scoraggiare una diretta trasposizione di tale modello nell’ambito della sorveglianza dei sistemi di i.a.

Un’ulteriore forma di limitazione della responsabilità dell’operatore – mutuata anch’essa, evidentemente, dalla disciplina della responsabilità medica – potrebbe individuarsi, poi, nella restrizione della colpa alla sola forma grave, il che consentirebbe di tenere debitamente in considerazione le già citate difficoltà tecniche che possono emergere nel governo di un sistema di intelligenza artificiale[40]. In particolare, tra i parametri cumulativi che, ai fini della valutazione circa la sussistenza di una colpa grave, potranno essere presi in considerazione, specifico rilievo dovrebbe essere attribuito al grado di violazione della regola cautelare, ovverosia al livello di divergenza tra condotta astrattamente doverosa (da individuarsi sulla base del parametro dell’agente modello) e comportamento concretamente tenuto dall’agente. Tali suggestioni, d’altra parte, lungi dal costituire un’isola remota nell’orizzonte del dibattito scientifico sulla colpa, paiono inserirsi perfettamente nell’attuale discussione sull’opportunità di ripensare il modello della responsabilità colposa, in modo da favorire, da un lato, la determinatezza della fattispecie, e, dall’altro, la valorizzazione del “momento soggettivo” della colpa, ossia della concreta rimproverabilità dell’agente[41].

  1. Considerazioni conclusive.

È ancora presto, ci pare, per intuire la portata delle trasformazioni che l’intelligenza artificiale sta portando nelle nostre vite. Quel che è certo è che la crescente diffusione, nei più svariati settori, di applicativi di i.a. sempre più imprevedibili – oltre che più accurati e performanti – costituisce una sfida inedita per il mondo del diritto, costretto a rincorrere l’evoluzione tecnologica senza poterla comprendere a pieno.

Da questo punto di vista, il diritto penale è, tra settori dell’ordinamento giuridico, uno di quelli maggiormente sottoposti a tensione, fondato com’è sull’idea di rimproverabilità personale per un fatto umano proprio – rimproverabilità che, evidentemente, non potrebbe ritenersi sussistente laddove il reato appaia esclusivamente frutto del decision making autonomo di un sistema di i.a.

In questo contesto, sono due le prospettive che, nella riflessione penalistica, si stanno imponendo con maggiore convinzione, e che ambiscono a conservare un ruolo, per il diritto penale, nella tutela dei beni giuridici messi in pericolo dallo sviluppo e dall’utilizzo di sistemi di i.a. Da un lato, preso atto di come l’imprevedibilità e l’opacità dei sistemi di i.a. mettano in crisi i tradizionali meccanismi di imputazione dell’evento lesivo, si evidenzia la necessità di predisporre delle forme anticipate di tutela penale, che sanzionino lo sviluppo e la messa in commercio di sistemi di i.a. in assenza delle dovute cautele. Dall’altro lato, si registra la tendenza ad individuare una posizione di garanzia (o, quantomeno, ad auspicarne l’introduzione) in capo alla persona incaricata della sorveglianza sul funzionamento dei sistemi di i.a.

Le due prospettive, come abbiamo cercato di mettere in luce, non sono esenti da criticità, e necessiteranno di un’accurata riflessione teorica – ben più approfondita di quella che, in questa sede, abbiamo potuto dedicare loro – per poter essere eventualmente implementate. Esse, tuttavia, testimoniano come l’intelligenza artificiale rappresenti un eccellente banco di prova per testare la tenuta delle tradizionali categorie del diritto penale di fronte a contesti di iper-complessità tecnologica e relazionale, costituendo altresì l’occasione per sperimentare soluzioni innovative o, comunque, non ancora del tutto valorizzate (maggiore autonomia della responsabilità degli enti, individuazione della colpa grave quale soglia della responsabilità penale, ruolo delle linee guida, etc.). La sfida, in questo contesto, sarà quella di salvaguardare l’insostituibile utilità sociale del diritto penale – quale strumento essenziale di prevenzione delle aggressioni ai beni giuridici – senza, tuttavia, cedere a “flessibilizzazioni” nell’interpretazione degli elementi del reato[42], che minerebbero il fondamentale nucleo garantistico del diritto punitivo.

*Professore ordinario di diritto penale

**Assegnista di ricerca in diritto penale presso l’Università degli studi di Milano.

[1] Il presente contributo è frutto del confronto e della comune riflessione di entrambi gli Autori. Ad ogni modo, nelle sedi in cui ciò possa rilevare, vanno attribuiti a Fabio Basile i paragrafi 1 e 3, e a Beatrice Fragasso gli ulteriori paragrafi.

 [2] K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Il Mulino, 2021, passim; L. Floridi, Digital’s Cleaving Power and Its Consequences, in Philosophy & Technology, vol. 30, 2017, 126.

[3] La letteratura che esamina i rapporti tra intelligenza artificiale e responsabilità (dal punto di vista giuridico, così come dal punto di vista filosofico) è ormai davvero sterminata. Per l’indicazione dei principali contributi in ambito penalistico, vd., oltre ai contributi richiamati qui di seguito, la bibliografia citata in alcuni nostri precedenti contributi: F. Basile, Intelligenza artificiale e diritto penale: qualche aggiornamento e qualche nuova riflessione, in G. Balbi e al. (a cura di), Diritto penale e intelligenza artificiale. “Nuovi Scenari”, Giappichelli, 2023, p. 1 ss.; B. Fragasso, Intelligenza artificiale e crisi del diritto penale d’evento: profili di responsabilità penale del produttore di sistemi di i.a., in Riv. it. dir. proc. pen., fasc. 1, 2024, p. 287 ss. Per una riflessione filosofica sui temi della responsabilità è imprescindibile A. Matthias, The responsibility gap: Ascribing responsibility for the actions of learning automata, in Ethics and Information Technology, 2004, vol. 6, p. 175.

[4] C. Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, in Wired, 23 giugno 2008, disponibile al seguente link: https://www.wired.com/2008/06/pb-theory/.

[5] Vd. I. Steadman, IBM’s Watson is better at diagnosing cancer than human doctors, in Wired UK, 11 febbraio 2013, disponibile a questo link: https://www.wired.co.uk/article/ibm-watson-medical-doctor, ove si legge che alcuni esperimenti condotti presso lo Sloan-Kettering Hospital negli Stati Uniti suggeriscono che le diagnosi effettuate dal CDSS Watson sono più accurate di quelle effettuate dai medici. La media di diagnosi di cancro corrette è del 90% per Watson, rispetto al 50% di un medico; vd. anche E. Blakemore, AI outdoes radiologists when it comes to identifying hip fractures, study shows, in Washington Post, 20 febbraio 2022, disponibile a questo link: https://www.washingtonpost.com/health/2022/02/20/hip- fractures-ai/.

[6] Vd., sul sito di OpenAI, nella sezione General FAQ, la pagina “How ChatGPT and our language models are developed?” (https://help.openai.com/en/articles/7842364-how-chatgpt-and-our-language-models-are-developed).

[7] E.M. Bender e al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT ’21, p. 610 ss.

[8] Sull’“autonomia artificiale” come capacità di prendere decisioni in situazioni di incertezza vd. A. Beckers – G. Teubner, Three Liability Regimes for Artificial Intelligence, Bloomsbury, 2022; G. Teubner, Soggetti giuridici digitali. Sullo status privatistico degli agenti software autonomi, Edizioni Scientifiche Italiane, 2019, p. 55 ss.

[9] Con il termine “trasformativo”, ormai invalso negli studi in materia, si intende dare rilievo al fatto che l’i.a. è una tecnologia che è in grado di modificare radicalmente, e in tutti gli ambiti, le modalità con le quali gli esseri umani operano nel mondo, determinando cambiamenti che, secondo alcuni, sarebbero addirittura paragonabili a quelli innescati dalla rivoluzione agricola e da quella industriale. Per una panoramica sulle varie accezioni che l’espressione Transformative AI assume nella letteratura scientifica vd. R. Gruetzemacher – J. Whittleston, The transformative potential of artificial intelligence, in 135 Futures, 2022. In ambito penalistico vd. B. Fateh-Moghadam, Innovationsverantwortung im Strafrecht: Zwischen strict liability, Fahrlässigkeit und erlaubtem Risiko – Zugleich ein Beitrag zur Digitalisierung des Strafrechts, in ZStW 2019, 131(4), p. 863 ss.

[10] Regolamento 2024/1689 sull’intelligenza artificiale (c.d. AI Act), pubblicato sulla Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024 ed entrato in vigore il primo agosto 2024.

[11] Disposizioni specifiche sono inoltre previste per i modelli di i.a. per finalità generali (art. 51 ss.), ossia per quei modelli che sono «in grado di svolgere con competenza un’ampia gamma di compiti distinti» (art. 3, n. 63).

[12] Ci sono diversi database online che monitorano e classificano gli incidenti che coinvolgono i sistemi di i.a.; vd., ad esempio, l’OECD AI Incidents Monitor (AIM), disponibile al seguente link: https://oecd.ai/en/site/incidents; o l’AI incident database, disponibile al seguente link: https://incidentdatabase.ai.

[13] È impossibile riassumere, in questa sede, decenni di sofisticate riflessioni teoriche circa la sussistenza e i confini di un perimetro di rischio consentito in materia penale. Per una panoramica sul punto si rinvia a F. Consulich, (voce) Rischio consentito, in M. Donini (diretto da), Reato colposo, Enc. dir. – I Tematici, Giuffrè, 2021, p. 1102 ss.

[14] Quanto detto è valido, ovviamente, a meno di casi patologici, in cui la normativa sia gravemente ed evidentemente deficitaria, a tal punto da risultare assolutamente inidonea al raggiungimento degli obiettivi di contenimento del rischio prefissati dal legislatore. Sul possibile “fallimento” delle norme cautelari vd., per tutti, G. Forti, Colpa ed evento nel diritto penale, Giuffrè, 1990, p. 671 ss.

[15] Per una più ampia riflessione sulla crisi del diritto penale d’evento, così come accentuata nel contesto degli eventi lesivi che coinvolgano sistemi di i.a., si consenta il rinvio a B. Fragasso, Intelligenza artificiale e crisi del diritto penale d’evento, cit. In generale, sulla responsabilità penale per danno da prodotto, imprescindibile è il riferimento a C. Piergallini, Danno da prodotto e responsabilità penale. Profili dogmatici e politico-criminali, Giuffrè, 2004.

[16] Non ci soffermeremo, invece, in questa sede, sulla proposta di introdurre una responsabilità penale diretta in capo ai sistemi di i.a., il cui principale sostenitore è il penalista israeliano Gabriel Hallevy, vd. G. Hallevy, Liability for Crimes Involving Artificial Intelligence Systems, Springer, 2015. Per una panoramica sul dibattito in materia vd. A. Giannini, Criminal behavior and Accountability of Artificial Intelligence Systems, Eleven, 2023.

[17] N. Amore, L’effetto della robotica e dell’IA nell’imputazione giuridica degli eventi infausti, in N. Amore – E. Rossero, Robotica e intelligenza artificiale nell’attività medica. Organizzazione, autonomia, responsabilità, Il Mulino, 249 ss.; F. Consulich, Flash offenders. Le prospettive di accountability penale nel contrasto alle intelligenze artificiali devianti, in Riv. it. dir. proc. pen., fasc. 3, 2022, p. 1053; volendo, vd. anche B. Fragasso, Intelligenza artificiale e crisi del diritto penale d’evento, cit., p. 302 ss.

[18] Art. 22, c. 3 e c. 5, lett. b), Disegno di legge n. 1146, Disposizioni e delega al Governo in materia di intelligenza artificiale, comunicato alla Presidenza del Senato il 20 maggio 2024, disponibile a questo link: https://www.senato.it/leg/19/BGT/Schede/Ddliter/58262.htm.

[19] Vd., a tal proposito, per tutti F. Stella, Giustizia e modernità. La protezione dell’innocente e la tutela delle vittime, Giuffrè, III ed., 2003; F. D’Alessandro, Pericolo astratto e limiti soglia. Le promesse non mantenute del diritto penale, Giuffrè, 2012, p. 255 ss.

[20] F. Palazzo, I confini della tutela penale, in Riv. it. dir. e proc. pen., fasc. 2, 1992, p. 457; fondamentale, in argomento, C.E. Paliero, «Minima non curat praetor». Ipertrofia del diritto penale e decriminalizzazione dei reati bagatellari, Cedam, 1985.

[21] C. Piergallini, Intelligenza artificiale, da ‘mezzo’ ad ‘autore’ del reato?, in Riv. it. dir. proc. pen., fasc. 4, 2020, p. 1766; F. Consulich, Il nastro di Möbius. Intelligenza artificiale e imputazione penale nelle nuove forme di abuso del mercato, in Banca borsa, 2018, vol. 71, n. 2, p. 195 ss.

[22] A. Gargani, Profili della responsabilità collettiva da reato colposo, in Riv. trim. dir. pen. econ., 2022, n. 1-2, p. 59 ss.; con specifico riferimento ai reati ambientali L. Maldonato, Il crimine ambientale come crimine delle corporations: cooperazione pubblico-privato e responsabilità indipendente dell’ente, in Riv. trim. dir. pen. econ., 2021, n. 3-4, p. 527 ss.; in relazione, invece, ai reati alimentari vd. E. Birritteri, Salute pubblica, affidamento dei consumatori e diritto penale, Giappichelli, 2022, p. 352 ss.

[23] C.E. Paliero, La società punita: del come, del perché, del cosa, in Riv. it. dir. e proc. pen., fasc. 4, 2008, p. 1518.

[24] Nella letteratura statunitense, sulla necessità di ampliare i criteri ascrittivi della corporate criminal liability, così da renderla applicabile anche alle “condotte illecite” poste in essere dai sistemi di i.a., vd. M. Diamantis, The Extended Corporate Mind: When Corporations Use AI to Break the Law, 98 North Carolina Law Review, 2020, p. 893.

[25] Nello specifico settore delle auto a guida autonoma vd. M. Lanzi, Self-driving cars e responsabilità penale, Giappichelli, 2023, p. 228 ss., che ritiene che tali sanzioni possano essere più efficaci – sul piano general-preventivo – rispetto all’estensione dell’ambito applicativo del d.lgs. 231/2001.

[26] U. Beck, La società del rischio. Verso una seconda modernità, Carocci, 2000 (ed. ted., Risikogesellschaft. Auf dem Weg in eine andere Moderne, Suhrkamp, 1986).

[27] In argomento vd. diffusamente J. Schuett, Risk management in the Artificial Intelligence Act, in European Journal of Risk Regulation, 2023, p. 1 ss.; H. Fraser – J. Bello y Villarino, Acceptable Risks in Europe’s Proposed AI Act: Reasonableness and Other Principles for Deciding How Much Risk Management Is Enough, in European Journal of Risk Regulation, 2023.

[28] Per una panoramica delle disposizioni che, a livello statale o internazionale, richiedono la sorveglianza umana sui sistemi di i.a. vd. B. Green, The flaws of policies requiring human oversight of government algorithms, in 45 Computer Law & Security Review, 2022. p. 6 ss.

[29] Vd. considerando 27, che, basandosi sugli orientamenti espressi dal Gruppo di esperti ad alto livello sull’intelligenza artificiale, Orientamenti etici per un’IA affidabile, cit., collega definisce il principio di “intervento e sorveglianza” in relazione alla necessità che i sistemi di i.a. siano «strumenti al servizio delle persone, nel rispetto della dignità umana e dell’autonomia personale».

[30] Misure specifiche di verifica dell’output sono inoltre previste, per i sistemi di identificazione biometrica, dall’art. 14, par. 5, che prevede, salvo le eccezioni ivi indicate, che «il deployer non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità».

[31] Per una rassegna delle principali discipline normative, in ambito europeo, in materia di circolazione di auto a guida autonoma v. M. Lanzi, Self-driving cars e responsabilità penale, cit., p. 55 ss.; R.M. Vadalà, La questione penale delle auto a guida autonoma in prospettiva comparata, in Legisl. penale, 13 novembre 2023.

[32] C. Piergallini, Intelligenza artificiale, cit., 1753; con specifico riferimento agli autonomous vehicles v. A. Cappellini, Profili penalistici delle self-driving cars, in Dir. pen. cont. – Riv. Trim., n. 2, 2019, p. 334 ss.; Si tratta di un mutamento di paradigma soltanto tendenziale, dal momento che – in relazione all’impiego di sistemi di AI parzialmente autonomi – la condotta illecita dell’operatore potrebbe avere connotati anche commissivi.

[33] In materia v., per tutti, A. Massaro, La colpa nei reati omissivi impropri, Aracne, 2011; F. Viganò, Il rapporto di causalità nella giurisprudenza penale a dieci anni dalla sentenza Franzese, in Dir. pen. cont. – Riv. Trim., n. 3, 2013, p. 391.

[34] B. Panattoni, Intelligenza artificiale: le sfide per il diritto penale nel passaggio dall’automazione tecnologica all’autonomia artificiale, in fasc. 1, Dir. inf., p. 337; A. Giannini, Intelligenza artificiale, human oversight e responsabilità penale: prove d’impatto a livello europeo, in Discrimen, 2022, p. 23.

[35] E. Hilgendorf, Automated Driving and the Law, in E. Hilgendorf – U. Seidel (eds.), Robotics, Autonomics, and the Law, Nomos, 2017, p. 187.

[36] Va tra l’altro sottolineato che autonomia e automazione dei sistemi di i.a. possono altresì essere causa di nuovi rischi, determinati proprio dalla necessaria condivisione del decision-making tra persona fisica e algoritmo. Su questi aspetti vd. diffusamente W.B. Wendel, Technological Solutions to Human Error and How They Can Kill You: Understanding the Boeing 737 Max Products Liability Litigation, in 84 J. Air L. & Com. 379, 2019; M.C. Elish, Moral crumple zones: Cautionary Tales in Human-Robot Interaction, in Engaging Science, Technology, and Society 5, 2019, p. 40 ss

[37] Così A. Fiorella, Responsabilità penale dei Tutor e dominabilità dell’Intelligenza Artificiale. Rischio permesso e limiti di autonomia dell’Intelligenza Artificiale, in R. Giordano e al. (a cura di), Il diritto nell’era digitale. Persona, mercato, amministrazione, giustizia, Milano, 2022, p. 662-663.

[38] Sui contrasti giurisprudenziali sorti in relazione all’applicazione dell’art. 590-sexies c.p. vd., per tutti, M. Caputo, (voce) Colpa medica, in M. Donini (diretto da), Reato colposo, Enc. dir. – I Tematici, cit., p. 153 ss.; M.L. Mattheudakis, La punibilità del sanitario per colpa grave. Argomentazioni intorno a una tesi, Aracne, 2021; volendo, F. Basile – P.F. Poli, Il punto in tema di colpa medica, in Dir. pen. cont. – Riv. trim., 2021, n. 4, p. 80 ss. Segnaliamo, a tal proposito, che le difficoltà applicative relative all’art. 590-sexies c.p. hanno condotto all’elaborazione, in dottrina, di diverse proposte di riforma dell’articolato, vd. il documento redatto dal Sottogruppo AIPDP coordinato dal prof. Sergio Seminara e composto dai proff. Domenico Pulitanò e Matteo Caputo, Il regime di responsabilità penale dell’esercente una professione sanitaria, 2022, disponibile sul sito dell’AIPDP, a questo link: https://www.aipdp.it/allegato_prodotti/60_colpa_medica_Caputo.pdf; C. Cupelli, Una proposta di riforma della responsabilità penale degli operatori sanitari (art. 590-sexies c.p.), in Sist. pen., 20 giugno 2022.

[39] F. Basile – P.F. Poli, Il punto in tema di colpa medica, cit., p. 87-89.

[40] Così A. Fiorella, Responsabilità penale dei Tutor e dominabilità dell’Intelligenza Artificiale, cit., p. 662-663; M. Lanzi, Self-driving cars e responsabilità penale, cit., 198 ss.

[41] Vd., per tutti, L. Cornacchia, Responsabilità colposa: irrazionalità e prospettive di riforma, in Arch. pen., n. 2, 2022, passim, al quale si rimanda per un’ampia ricostruzione delle ragioni che militano per questa tesi, non nascondendosi, d’altra parte, il rischio che il criterio della gravità si possa risolvere in un incremento di indeterminatezza della fattispecie colposa. Sulla colpa grave vd. funditus P.F. Poli, La colpa grave. I gradi della colpa tra esigenze di extrema ratio ed effettività della tutela penale, Giuffrè, 2021.

[42] A. Gargani, La “flessibilizzazione” giurisprudenziale delle categorie classiche del reato di fronte alle esigenze di controllo penale delle nuove fenomenologie di rischio, in Legis. pen., 2011, n. 2, p. 403 ss.