Enter your keyword

IL DIRITTO PENALE AL TEMPO DELL’INTELLIGENZA ARTIFICIALE. PROSPETTIVE PUNITIVE NAZIONALI DOPO L’AI ACT – DI FEDERICO CONSULICH

IL DIRITTO PENALE AL TEMPO DELL’INTELLIGENZA ARTIFICIALE. PROSPETTIVE PUNITIVE NAZIONALI DOPO L’AI ACT – DI FEDERICO CONSULICH

CONSULICH – IL DIRITTO PENALE AL TEMPO DELL’INTELLIGENZA ARTIFICIALE.PDF 

IL DIRITTO PENALE AL TEMPO DELL’INTELLIGENZA ARTIFICIALE PROSPETTIVE PUNITIVE NAZIONALI DOPO L’AI ACT

di Federico Consulich*

Quale atteggiamento assumere di fronte all’erompere dell’intelligenza artificiale nella società contemporanea? Due modelli disciplinari possono tornare utili per rispondere alla domanda: quello statunitense, settoriale poiché dedicato alla tutela dei mercati finanziari, e quello eurounitario, proteso alla costruzione di una rete regolatoria generale. Sotteso ad entrambi i paradigmi è il concetto di rischio legale, che determina la rilevanza, potenzialmente foriera di responsabilità penale in un prossimo futuro, della mera trasgressione di norme di condotta a vocazione precauzionale. Il legislatore italiano sta progettando un intervento di adeguamento del nostro sistema alle domande di tutela che emergono in questo campo, ma non pare orientato a selezionare le tecniche di tutela più adeguate a disciplinare in modo razionale il danno da AI.

What is the correct approach to the rapid development of AI in contemporary society? Two disciplinary models can be useful to answer this question: the U.S. model, sectorial because it is dedicated to the protection of financial markets, and the European Union model, committed to the construction of a general regulatory network. Underlying both paradigms is the concept of legal risk, which determines the relevance, and potentially heralds the criminal liability in the near future, of the mere violation of preventative rules of conduct. The Italian lawmaker is planning to adjust our system to protection requests arising from this field, but he does not seem oriented to select the most appropriate protection techniques to regulate AI damage in a rational way.

 1.     Confidenza o diffidenza rispetto all’AI?

Difficile comprendere quale atteggiamento assumere di fronte alla rivoluzione tecnologica in atto, densa di implicazioni etiche e sociali, caratterizzata dall’affiancamento, sempre più pervasivo, alla persona in carne e ossa di un pensiero estruso da un’intelligenza non umana, ma ad essa comparabile per profondità e ricchezza intuitiva.

La diffidenza, oggi, non pare giustificata dallo stato evolutivo dell’AI, ancora fortemente dipendente da input umani, ben di più può esserlo invece se guardiamo al futuro, precisamente alla rapida acquisizione di tecniche e conoscenze che, stratificandosi, rendono via via più difficile per la persona fisica prevedere il funzionamento e le determinazioni della macchina. Banale constatare che più sono i dati conosciuti, maggiori sono le combinazioni che se ne possono avere all’interno del processo decisionale del software e tendenti all’infinito gli output che ne possono discendere.

Per il penalista questo stato di cose è ancora irrilevante, poiché, salvo che nel caso dei mercati finanziari, non si è ancora avuta manifestazione di offese compiute da o attraverso l’AI.

In assenza di una dimostrazione oggettiva di un qualche danno già sperimentato, ogni impiego di fattispecie incriminatrici sarebbe ispirato alla precauzione, incompatibile con la razionalità dell’intervento penale e i suoi principi di tipicità, materialità e provabilità processuale. Se un ruolo un simile controverso principio può svolgere, è solo in chiave politica e, semmai, sul piano dell’implementazione di soluzioni amministrative. Deve rimanere ferma la consapevolezza che ogni formula penalistica ispirata alla precauzione razionalizzi a posteriori una reazione nutrita da un’atavica, ritualistica, paura dell’ignoto, che da sempre accompagna lo sviluppo dell’uomo nella relazione con ciò che la scienza non abbia ancora illuminato.

Quel che è certo è che la regolamentazione è urgente. Ma se l’an della regolazione non è in discussione, non così il quomodo, ancor di più rispetto alla spendita della sanzione penale. La causalità e l’imputazione soggettiva rischiano di collassare sotto il peso di criticità oramai ben note agli studiosi della materia: many hands problem[1] e black box problem[2], passando per lo shortcuts problem[3], sono solo alcune delle espressioni suggestive impiegate per significare i plurimi deficit cognitivi e logici che si incontrano quando si tenta di formalizzare una qualche responsabilità per il fatto dell’AI[4].

Le prospettive lesive di un’AI deviante si possono immaginare rispetto a qualsiasi interesse penalmente presidiato, almeno a livello teorico, ma è principalmente nei confronti di beni patrimoniali che allo stato si può ipotizzarne una più insidiosa e prossima manifestazione; solo in seconda battuta, anche se a ridotta distanza, si intravedono gli aspetti di tutela della persona, ad esempio rispetto all’impiego dell’AI in campo medico[5], della circolazione di veicoli a guida autonoma[6], nonché del funzionamento dei processi democratici[7] e della riservatezza della persona[8].

Un ragionamento fondato in chiave di offesa ed eventuale imputazione penale è attuale solo rispetto ai mercati finanziari, poiché questi hanno sperimentato violenti eventi manipolativi, denominati in gergo flash crashes, che hanno avuto tra i propri protagonisti proprio l’AI, nella specie i traders algoritmici ad alta frequenza (il cui acronimo è HFT)[9].

È in questo contesto che, anche e soprattutto all’estero, in particolare nei Paesi in cui si collocano i mercati finanziari più avanzati, è stata percepita l’urgenza di regolamentare, anche in chiave punitiva, l’impiego dell’AI.

Nel gennaio 2024 la SEC, insieme al North American Securities, l’Associazione degli amministratori e l’Autorità di regolamentazione del settore finanziario, hanno messo in guardia gli investitori da un’ondata di schemi fraudolenti che sfruttano l’intelligenza artificiale[10]. Anche la Commodity Futures Trading Commission ha consigliato al pubblico di diffidare degli investimenti che vantano di ricorrere ad algoritmi di ultima generazione per produrre rendimenti improbabili, dimostrando grande preoccupazione rispetto all’impiego di queste tecnologie emergenti per la commissione di frodi a danno degli investitori[11]. Sottolineando ulteriormente i potenziali rischi, il 14 febbraio 2024 il vice procuratore generale del Dipartimento di Giustizia degli Stati Uniti ha fatto riferimento all’AI come a uno strumento potente, ma pericoloso, suggerendo pene più severe per i reati compiuti per suo tramite[12]. La posizione proattiva delle autorità di regolamentazione statunitensi in ambito finanziario è senza dubbio un indicatore estremamente orientativo per la comunità globale nell’ottica di aumentare l’attenzione e l’azione internazionali per contrastare la manipolazione del mercato guidata da traders algoritmici.

2.     AI e tecniche lesive di interessi patrimoniali altrui: il paradigma della fraudolenza.

Sia chiaro: nulla vieta di pensare che, in presenza di AI incorporate in supporti meccanici capaci di movimento fisico, dagli elettrodomestici, ai veicoli, ai macchinari industriali e così via, il loro piano offensivo possa prima o poi traslarsi dal paradigma della frode a quello della violenza (anche fisica)[13]. Naturalmente rimaniamo all’ambito delle applicazioni civili, poiché in campo militare i sistemi di arma autonomi sono da tempo realtà. Per il momento, comunque, seguendo l’antico adagio: “un problema per volta”, conviene in questa sede parametrare la disciplina alle forme più prossime e prevedibili di offesa ad interessi patrimoniali di persone fisiche (anche come organi di quelle giuridiche, ovviamente).

Le forme di devianza dell’AI paiono al momento riconducibili alla insidiosa alterazione della realtà percepita da soggetti deboli nel momento in cui si trovino ad interagire contingentemente, in ambito economico, con una controparte virtuale (sia che ne siano consapevoli, che sia ignorino di rapportarsi ad un interlocutore non umano).

Tra queste, ad esempio, emerge il cd. AI washing, la pratica delle aziende che ingannano gli investitori sul loro utilizzo dell’AI e sui rischi associati. Il presidente della Securities and Exchange Commission statunitense, Gary Gensler, pronunciando un discorso alla Yale Law School il 13 febbraio 2024, in cui si sono discussi vari aspetti dell’AI e delle sue implicazioni[14], si è occupato tra l’altro proprio di questa strategia di marketing ingannevole, in cui le imprese sopravvalutano il ruolo dell’AI nei loro prodotti o servizi, analogamente alle pratiche di «greenwashing» che esagerano (o fingono del tutto) la propria compliance ambientale.

Questa tattica mina la fiducia nell’AI riducendola a una sorta di réclame e può scoraggiare gli investimenti futuri e l’adozione di nuove e migliori tecnologie in questo settore. Le aziende possono ricorrere all’AI washing per attirare investimenti in un mercato sempre alla ricerca di innovazione, per nascondere deficit di adeguatezza del proprio prodotto tecnologico o per la mancanza di una completa comprensione dei processi computazionali e logici sottesi al proprio operatore algoritmico[15].

Vi è poi l’uso doloso dell’AI. Le potenti capacità di analisi ed elaborazione di grandi quantità di dati a velocità e con un livello di riconoscimento dei modelli ben oltre le capacità umane consente di impiegarli, da una parte, per una sempre migliore comprensione di come le variazioni di prezzo influenzino la domanda dei consumatori, ma anche, dall’altra parte, per individuare sempre nuove occasioni e modalità di alterazione del mercato e trarne vantaggio.

Per inciso, entrambi i due impieghi illeciti dell’AI si muovono ancora nella prospettiva in cui questa è un mero strumento, per quanto ‘intelligente’, nelle mani di un individuo che compie speculazioni illecite (e nello stesso senso si muove il legislatore italiano in prospettiva di riforma, come vedremo).

È un approccio che in fondo non possiamo ancora definire scorretto, ma al più poco lungimirante: la maggior parte dei programmi di intelligenza artificiale sono ancora incapaci, allo stato, di replicare l’ampia capacità di sintesi e di combinazione delle informazioni esibita dalla mente umana. L’AI è “debole” perché questi sistemi sono sì abili nell’eseguire compiti specifici per i quali sono addestrati, ma le loro capacità sono limitate dalla portata e dalla natura degli input che ricevono. Proprio questa dipendenza dai dati sottolinea una potenziale vulnerabilità dell’AI: se le informazioni sono incomplete o errate (prospettiva colposa) o manipolate e distorte scientemente (prospettiva dolosa) i sistemi di intelligenza artificiale potrebbero rivelarsi sleali e decettivi.

Vi è però un’alternativa destinata probabilmente ad occupare il centro della scena nei prossimi anni. Si tratta del caso in cui, in una sorta di dialettica post moderna della dinamica servo padrone di hegeliana memoria, l’AI abbandona il ruolo di strumento passivo, per assurgere a quello di protagonista di condotte dannose, primariamente di carattere fraudolento, ideando e portando ad esecuzione schemi truffaldini su larga scala.

Si tratta di constatare quel che già oggi è più che chiaro in alcuni limitati casi. Esistono già software che sono passati da una consistenza debole a forte; l’AI si può insomma evolvere per essere più “autonoma” nelle sue operazioni, non semplicemente “artificiale”. In questi casi l’algoritmo di intelligenza artificiale non è programmato per eseguire un compito, ma per imparare a eseguirlo sulla base di intricati frameworks matematici che consentono alle macchine di assimilare informazioni da nuovi input di dati e perfezionare i loro output di conseguenza.

È noto che comprendere come evolva e dove si indirizzi la crescita delle conoscenze dell’AI è pressoché impossibile. È il già cennato tema della “scatola nera”, vero topos dell’argomento, riassumibile nella notazione che, sebbene inizialmente creati da programmatori, i sistemi di intelligenza artificiale costruiscono e ricostruiscono sé stessi analizzando e imparando continuamente da vasti flussi di dati per perfezionare i loro schemi di ragionamento, con cui la mente umana non riesce a tenere il passo[16]. Seppure inizialmente progettati per scopi legittimi, questi algoritmi potrebbero dunque prendere improvvisamente ad adottare strategie che, via via, potrebbero diventare prima irregolari, poi illecite, poi criminali.

3.     La scelta americana della presunzione di responsabilità civile nello specifico settore della sicurezza finanziaria.

Il 18 dicembre 2023 i senatori Mark Warner e John Kennedy hanno avviato, con una loro proposta, l’iter di approvazione del cd. FAIRR Act (acronimo per “Financial Artificial Intelligence Risk Reduction Act”)[17], con cui si intende aggiornare la legislazione in materia finanziaria all’epoca dell’intelligenza artificiale.

Il FAIRR Act definisce l’AI rimandando alla Sec. 5002 del citato National Artificial Intelligence Initiative Act, dove si può leggere al n. 3) che

«The term “artificial intelligence” means a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations or decisions influencing real or virtual environments. Artificial intelligence systems use machine and human-based inputs to (A) perceive real and virtual environments; (B) abstract such perceptions into models through analysis in an automated manner; and (C) use model inference to formulate options for information or action».

Si tratta di una descrizione alquanto ampia, che coglie la cifra essenziale dell’intelligenza artificiale nel rapporto tra ambiente e macchina, sul fronte dell’input, e tra macchina e ambiente (in chiave di opzioni operative possibili), su quello dell’output. Su una piattaforma concettuale così aperta viene poi costruita una disciplina quadro destinata ad implementare le competenze del National Artificial Intelligence Initiative Office[18].

Ulteriormente, il progetto mira a modificare la Legge di Stabilità Finanziaria del 2010 per attribuire al FSOC (Financial Stability Oversight Council[19]) compiti specifici per la sorveglianza sull’impiego dell’AI nel settore finanziario[20].

È il FSOC, infatti, ad assumere il compito di identificare le minacce alla stabilità del mercato poste dall’uso di strumenti di AI, attraverso una mappatura del ruolo nelle transazioni, in vista dello sviluppo di normative mirate per prevenirne gli abusi. Un simile approccio di sorveglianza e regolamentazione proattiva mira ad assicurare che i progressi tecnologici contribuiscano positivamente all’integrità delle interazioni mobiliari e non già alla loro perturbazione.

Inoltre, la sec. 6 del FAIRR Act propone di modificare l’art. 21(d)(3) del Securities Exchange Act del 1934 triplicando le sanzioni civili già esistenti quando l’AI viene utilizzata per violare le regole della SEC. Chiaro lo scopo: rafforzare il deterrente contro l’uso improprio[21]. Il legislatore nostrano dovrebbe trarne un importante esempio, comprendendo che prevenzione generale e diritto penale non sono un’endiadi indissolubile e che si può attribuire una funzione di intimidazione, ammonimento e orientamento sociale anche con altri strumenti afflittivi: oltreoceano l’obiettivo è garantire un trattamento sanzionatorio civile sufficientemente grave da scoraggiare l’uso dannoso dell’AI nei mercati finanziari.

Il FAIRR Act potrebbe altresì colmare il ben noto responsibility gap in materia[22]: con esso di propone infatti di emendare la sec. 42(a) del Securities Exchange Act per modernizzare lo “standard dell’intent“, dunque l’imputazione soggettiva dell’illecito, in modo tale da consentire sempre il rimprovero degli sviluppatori ogni volta che un’AI violi la regolamentazione di settore[23].

L’intent si ritiene infatti integrato sulla base di una vera e propria presunzione di conoscenza e volontà che impedisce a qualunque deployer (fornitore) anche indiretto di AI in ambito finanziario di addurre l’ignoranza delle azioni del software. Inoltre, ove approvata la proposta di riforma, la nuova sec. 42(b) del  Securities Exchange Act modificherebbe la responsabilità civile degli sviluppatori di modelli di AI, affermandone l’inderogabilità rispetto ai difetti di progettazione e alle violazioni di garanzie che comportino la trasgressione delle leggi federali in materia finanziaria[24]. Agli sviluppatori di AI sarebbe così precluso di ricorrere ad ogni tipo di esonero contrattuale dalla responsabilità.

Si tratta di un meccanismo che mira evidentemente a contrastare le frodi autonomamente generate dall’AI, attraverso i propri processi di apprendimento e decisionali: ritenendo responsabili gli sviluppatori e i distributori per le azioni della loro creatura informatica, si rimprovera loro, in sostanza, di non aver per tempo assunto azioni preventive adeguate. Pare, dunque, che, anche dimostrando la massima cura nella progettazione e realizzazione del software, costoro non potrebbero in alcun modo scampare alla sanzione; si tratta di una scelta discutibile, se non controproducente, poiché disincentiva la ricerca e la messa in opera di tutele e meccanismi di sicurezza.

Il precetto comportamentale fondamentale, emergente dall’intera proposta di riforma è, dunque, che qualsiasi soggetto fisico o giuridico coinvolto, direttamente o indirettamente, nel processo di implementazione di un modello di AI è tenuto soddisfare una serie di requisiti tecnici pensati per assicurare il contenimento del rischio finanziario illecito.

FAIRR Act e AI Act condividono lo scenario di partenza, poiché tanto in Europa che negli Stati Uniti non esisteva in precedenza alcuna previsione mirata a presidiare il rischio da intelligenza artificiale, ma approcci normativi e strategie di attuazione differiscono significativamente.

Il FAIRR Act rappresenta dunque uno sforzo legislativo cruciale, specificamente progettato per gestire la complessità e potenziali rischi di pratiche scorrette indotte dall’AI nei mercati finanziari: a differenza dell’AI Act dell’UE, che stabilisce un ampio quadro normativo applicabile in vari settori (economici e non), il legislatore americano ha ristretto e concentrato per il momento la sua attenzione sul solo mercato dei titoli.

Precisamente, mentre il regolatore europeo ha inteso stendere con l’atto normativo del 2024 una rete disciplinare generale, lasciando poi a interventi successivi la concretizzazione in specifici campi, quello americano, dopo l’entrata in vigore  del National Artificial Intelligence Initiative Act del 2020 (15  U.S. Code §9401), incentrato sulla creazione di strutture consultive delle amministrazioni federali, nonché sulla ricerca, educazione e standardizzazione rispetto all’AI, pare infatti voler presidiare verticalmente un solo settore, quello dei mercati finanziari. Prendendo le mosse dai profili definitori, giunge a disciplinare anche aspetti amministrativi e la stessa attività di analisi scientifica in argomento, al fine di esaurire tutte le tematiche che in questo campo l’impiego degli algoritmi potrebbe porre.

4.     La scelta europea per una disciplina generale orientata sul rischio.

L’AI Act ha indubbiamente ridotto il tasso di incertezza nell’ambito della disciplina dell’intelligenza artificiale. A cominciare dalla definizione di cui all’art. 3. Sulla sponda europea, ovviamente, anche l’AI Act identifica il sistema di AI – ripresa, nel nostro piccolo, dal d.d.l. 1146/2024 (su cui infra, § 5) all’art. 2, lett. a). Il legislatore continentale ha incentrato la propria attenzione sulla capacità dell’agente non umano di incidere sull’ambiente circostante. Si parla di «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali». Per inciso i primi commentatori rilevano correttamente che una simile descrizione normativa pare precludere l’attribuzione all’apparato informatico di una autonoma personalità giuridica in grado di esercitare diritti e, soprattutto, cui potersi imporre doveri di condotta in via diretta[25].

Si tratta di una disciplina in divenire. Il regolamento è infatti solo un primo passo e lo step successivo sarà costituito dalla direttiva sulla responsabilità da intelligenza artificiale, mirata a garantire regole uniformi di illecito civile per l’AI[26].

Mentre l’AI Act riguarda prioritariamente i “fornitori” (ai sensi dell’art. 3 n. 3, lo sviluppatore, il distributore, l’importatore e chiunque metta il proprio nome o marchio su un sistema di AI), nonchè gli utilizzatori professionali (deployers nel lessico del Regolamento), la direttiva interesserà tutti coloro che, direttamente o indirettamente, interagiranno con l’intelligenza artificiale.

Naturalmente il legislatore europeo non è intervenuto quest’anno su un terreno vergine, poiché anzi il regolamento deve armonizzarsi, tra l’altro, con la c.d. Direttiva NIS2 (Direttiva (UE) 2022/2555 dedicata alla sicurezza cibernetica e delle infrastrutture tecnologiche) e le sue disposizioni di attuazione, dati i rispettivi campi di competenza, finitimi se non integrati tra loro.

Di particolare importanza è l’art. 25 dell’AI Act, che costruisce una rete di responsabilità lungo tutta la catena del valore per garantire che i sistemi di AI ad alto rischio siano conformi ad uno standard di sicurezza ritenuto adeguato. Fornitori e deployers devono rispettare gli obblighi previsti dall’art. 16 dell’AI Act. Si tratta di vincoli che si applicano anche se un software non ad alto rischio venga modificato in un secondo momento in modo tale da rientrare nella categoria per cui il regolatore mostra maggiore preoccupazione (cfr. art. 25 comma 1, lett. c).

Nel caso in cui il sistema intelligente venga rielaborato da un nuovo fornitore, il primo deve collaborare fornendo tutte le informazioni necessarie e l’accesso tecnico per garantire la conformità alle normative, a meno che abbia chiaramente vietato l’innalzamento del livello di rischio (art. 25 comma 2).

Sono molteplici le strategie operative che la Commissione Europea propone parallelamente all’introduzione dell’AI Act. Per quel che qui più interessa, va segnalata la creazione del Comitato Europeo per l’Intelligenza Artificiale, dunque una nuova autorità di vigilanza europea, supportata da supervisori nazionali, per garantire l’applicazione delle norme e monitorare i progressi scientifici nel settore[27].

Come noto, l’impronta che è stata prescelta e che percorre l’intero testo normativo è di tipo precauzionale, basata su una tassonomia che trova nel rischio la propria ratio essendi.

Siffatta nozione è definita all’art. 3, n. 2) dell’AI Act come un concetto a doppia entrata, risultato della combinazione di due fattori elementari,  la probabilità di un danno e la sua gravità.

Il cuore del provvedimento consiste proprio nella classificazione delle forme di manifestazione dell’intelligenza artificiale in base al loro livello di rischio, dalla graduazione del quale consegue evidentemente una scalarità delle tutele (si veda il rapporto tra art. 16 e art. 53 del Regolamento).

Anzitutto, quelli c.d. inaccettabile per l’utente per come classificato all’art. 5 del Regolamento: nelle ipotesi menzionate si è in presenza di una minaccia considerevole per la persona, dunque questi tipi di software sono semplicemente vietati. Si va dai sistemi che utilizzano tecniche di manipolazione comportamentale, a quelle funzionali a stilare un social scoring, cioè una valutazione di affidabilità in senso lato degli individui sulla base delle loro abitudini, caratteristiche personali e così via, da cui possa discendere un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi nell’allocazione di risorse e servizi o nell’esercizio di diritti e libertà rispetto alla generalità dei consociati.

Vi è poi la categoria degli strumenti ad alto rischio di cui all’art. 6, in cui vengono ricondotte le AI che impattano direttamente sulla salute, la sicurezza e i diritti  fondamentali delle persone (un riferimento esplicito è presente all’art. 6 comma 3). Stando all’allegato III, possono dunque rilevare le applicazioni che definiscono il merito creditizio o le procedure di selezione del personale o che rappresentano una componente di  nuovi dispositivi in ambito sanitario o di sistemi di guida autonoma utilizzati su veicoli di varia natura.

Siamo qui in presenza di strumenti consentiti, ma a condizione che permangano sotto una stretta sorveglianza tecnica oltre ad una verifica di conformità ex ante, attinente al rispetto di specifici obblighi e alla tutela dei diritti fondamentali, nonché regole di trasparenza. Chiaramente l’obbiettivo è garantire una pronta gestione dei rischi che potrebbero emergere durante il loro utilizzo. È richiesto, altresì, la registrazione in un’apposita banca dati UE, chiaramente necessaria a risalire in ogni momento alle specifiche rilevanti per il monitoraggio tecnologico.

Un riferimento importante è poi rappresentato dal rischio sistemico, descritto sia all’art. 3 n. 65) che all’art. 51 del Regolamento: esso è connesso ai modelli di AI per finalità generali che hanno una capacità di impatto potenzialmente elevato su mercato, salute pubblica, sicurezza, diritti fondamentali e società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore.

Non tutte le categorie impiegate sono delineate in modo perspicuo. Non è agevole, infatti, comprendere quali situazioni rientrino tra gli appena citati modelli di AI per finalità generali, definiti al considerando n. 97 e all’art. 3 n. 63) enigmaticamente come quelli che hanno la capacità di perseguire varie finalità e di svolgere con competenza un’ampia gamma di compiti distinti, anche per effetto dell’integrazione in altri sistemi di AI.

4.1.          La nozione di rischio legale.

La nozione di rischio che ritorna a più riprese nel Regolamento europeo si configura come intrinsecamente normativa. Non si basa cioè su una propensione effettiva, verificata esperienzialmente, alla causazione del danno, ma, a conferma di un’ottica precauzionale, sul superamento di livelli di cautela condensati in regole giuridiche. Legal risk dunque[28], poggiato su documenti di standard-setting, anche affidate ai privati (e si registrano peraltro già esperienze in tal senso[29]).

Per quanto L’AI Act non disciplini i profili di responsabilità penale riconnessi alla materia, ne rappresenta la futura piattaforma concettuale: ogni fattispecie incriminatrice che dovesse essere introdotta (così come quelle già esistenti e che dovessero essere applicate in questo ambito tecnologico) dipenderà dalle cautele e dagli standard richiesti nel Regolamento europeo per l’immissione nel mercato e l’utilizzo di strumentazioni di intelligenza autonoma. In breve: il livello di rischio oltre il quale si preannuncia una responsabilità penale, in caso di violazione e inosservanza, è stato in gran parte deciso in sede eurounitaria.

L’approccio risk based adottato dal legislatore di Bruxelles cela però un’insidia.

La categorizzazione impiegata, che sostanzialmente identifica una scala decrescente di rischio, ha una conformazione statica, realizza cioè una fotografia di alcuni tipi di intelligenze artificiali che di per sé possiedono un coefficiente di dannosità potenziale.

Non si coglie però la possibilità che sia le attività menzionate negli allegati al Regolamento sia quelle che nemmeno vi compaiono, perché ritenute non pericolose o perché non ancora entrate sulla scena, “saltino di scala”: apprendano, in via esperienziale, una potenzialità lesiva che in origine non avevano (o meglio: non sapevano di avere).

Dunque, la classificazione operata a priori dal regolatore europeo potrebbe presentare profili di rapida obsolescenza e trovarsi così ben presto anacronistica: sono definiti solo in sede tecnica i meccanismi di adeguamento della disciplina, in assenza di criteri individuati dal legislatore con scelte politiche.

Eppure, nel testo del Regolamento emerge la consapevolezza di dover adottare un modello di regolazione flessibile per adeguarsi ad un contesto fattuale così fluido[30]: non a caso infatti, ma per necessità, si assiste all’impiego di norme standard, che non descrivono condotte vietate, ma livelli di sicurezza da soddisfare, sulla base di valutazioni tecniche.

In questo quadro si preannuncia non semplice per il giudice orientarsi nelle complesse operazioni di bilanciamento che saranno necessarie per comprendere quale sia il quantum di sicurezza presidiato e quindi valutare nel processo se, pur in assenza di conseguenze dannose effettive, siano comunque stati creati dei rischi inaccettabili[31].

Sarebbe più che opportuno che il legislatore italiano, nell’adattare la normativa interna a quella eurounitaria, anche alla luce del principio più à la page del momento nella letteratura penalistica, vale a dire la proporzionalità[32], tentasse di definire i criteri di riconoscimento del rischio consentito.

5.     La ricaduta italiana: tra ritocchi minimi e future iniziative di sistema.

Proprio in questi mesi, uno schema di disegno di legge delega (il già citato n. 1146/2024) si propone di attribuire al Governo la possibilità di adattare il nostro sistema all’AI Act europeo.

All’art. 22 si rivengono i criteri direttivi cui l’Esecutivo dovrebbe attenersi nell’adozione di uno o più decreti legislativi volti all’adeguamento della normativa nazionale al Regolamento sull’intelligenza artificiale, tra cui uno inerente alla previsione di strumenti, anche cautelari, in ambito civile, amministrativo e penale, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, assistiti da sanzioni effettive, proporzionate e dissuasive.

In secondo luogo, si vorrebbero introdurre una o più autonome fattispecie di reato, punite tanto a titolo di dolo come di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, nonché ulteriori incriminazioni dolose, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione e che non siano adeguatamente presidiate in base alla disciplina già vigente.

Da ultimo, la previsione di una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incrementi la gravità della lesione al bene giuridico tutelato, includendovi i casi di offesa alla persona e allo Stato.

Nel disegno di legge però si rinviene anche un intervento immediato e diretto sul sistema penale, senza attendere un decreto legislativo. Principalmente vengono inserite alcune aggravanti speciali (in tema di aggiotaggio, riciclaggio, truffa, sostituzione di persona, violazione del diritto d’autore) e una circostanza comune all’art. 61 n. 11 novies c.p., tutte incentrare sull’AI come strumento per la commissione del reato.

Si segnala fin d’ora per la sua genericità la previsione di un nuovo delitto che dovrebbe essere introdotto nel codice penale: il nuovo art. 612-quater, punito con la reclusione da uno a cinque anni, mirerebbe a reprimere l’illecita messa in circolazione di contenuti generati o alterati grazie a sistemi di AI. Una fattispecie d’evento che pretende la causazione di un non altrimenti definito danno ingiusto ad una persona e un vincolo di condotta incentrato sulla cessione, pubblicazione e diffusione indebita (senza il consenso del soggetto coinvolto) di immagini, video o voci tecnologicamente creati o falsificati e idonei a indurre in inganno sulla loro genuinità[33].

La indeterminatezza dell’evento consente di intenderlo sia in chiave patrimoniale che meramente reputazionale e in effetti, a conferma di questa seconda lettura, manca la previsione di un fine di profitto da parte dell’autore della condotta[34]. Chiaro il riferimento alla diffusione non consensuale dei cd. deep fakes, spesso a contenuto sessuale, ma si tratta di un frammento della capacità offensiva dell’AI ed è dunque da chiedersi se in realtà la manipolazione di immagini e voci possa porre in pericolo ben altri interessi, fino allo stesso svolgimento di procedure democratiche e all’attività di organi costituzionali, per cui quindi un reato causalmente orientato, che si limita a considerare il danno alla persona è evidentemente inadeguato per difetto.

Al di là dell’esame di queste specifiche possibili modifiche normative, quel che conta al momento considerare è l’approccio del nostro legislatore. L’AI viene ancora intesa in chiave strumentale, nel pieno dominio del suo creatore o utilizzatore, ma potrebbe essere un orientamento già obsoleto.

L’insidia dell’AI non risiede solo nella capacità di camuffamento della realtà che può generare (di qui la sua considerazione nell’ambito di aggravanti ‘modali’, in cui dunque lo strumento informatico aumenta le opzioni offensive del truffatore, del manipolatore, del riciclatore e così via), ma nella idoneità, che prima o poi saremo costretti a constatare, di sottrarsi alle istruzioni impartite (non è da escludere che ciò accada proprio per la cattiva qualità delle stesse, ad esempio perché ambigue o comunque aperte a interpretazioni che implichino il ricorso a condotte dannose).

Nell’adempimento della delega, il legislatore dovrà auspicabilmente adottare una linea di intervento non limitata a imbellettare il codice con qualche circostanza aggravante concepita ancora sull’AI come mero mezzo della commissione del reato doloso, ma a costruire fattispecie colpose di omesso controllo, negligente programmazione e superficiale impiego del software, in particolare quando quest’ultimo si rende almeno in parte autonomo dagli input inizialmente fornitigli da una persona fisica che non è più pienamente ‘in command’ rispetto al soggetto artificiale.

Tra i principi di delega di cui all’art. 22 vi è una grande assente: la responsabilità della persona giuridica. Non vi è alcun riferimento all’accorto ricorso al d. lgs. 231 del 2001, per quanto essenziale per la definizione di un livello di risposta adeguata alla criminalità connessa all’impiego dell’AI.

Non solo perché spesso la persona giuridica è il più corretto centro di imputazione dell’interesse alla commissione dell’illecito (soprattutto quando sono in gioco utilità economiche), ma anche in ragione dell’impossibilità, non infrequente, del rimprovero soggettivo e finanche del collegamento oggettivo tra il fatto della macchina intelligente e un qualche individuo all’interno dell’organizzazione. Si ripercuotono qui i problemi della parcellizzazione delle condotte, della opacità delle strutture aziendali e della decisione autonoma del software che interpreta o esegue a proprio piacimento delle indicazioni operative del programmatore e dello sviluppatore. Solo la responsabilizzazione della societas, per il tramite dell’art. 8 d. lgs. 231 del 2001 (che come noto consente di prescindere dalla colpevolezza e finanche dalla identificazione dell’organo o dipendente infedele), assicura una pronta e adeguata reazione sanzionatoria dell’ordinamento[35].

6.     L’importanza di un intervento di parte generale, tra cautele autonormate e posizioni di garanzia.

Si tratta insomma di affrontare a tutto tondo una sfida che coinvolge il rapporto tra “intelligenze” (umana e artificiale) sul piano della tutela di interessi meritevoli e bisognosi di tutela.

Premessa l’assurdità delle proposte di una punibilità diretta dell’AI[36], più che di interventi di parte speciale, si tratta allora di interessarsi ad un modello di parte generale in grado di sostenere una sfida di simile portata.

È l’occasione di mettere mano ad un capitolo cruciale della regolazione, quello della responsabilità da prodotto, ancora oggi delegato a esauste fattispecie pensate per rapporti dannosi occasionali e individuali e non certo per fenomeni seriali attinenti alla produzione e commercializzazione di massa, senza che le blande incriminazioni previste nel cd. codice del consumo siano mai riuscite anche solo a dare una qualche prova di sé nel contrasto a questi illeciti. Il riferimento va all’art. 112 d.lgs. 6 settembre 2005, n. 206 che punisce il produttore o il distributore che immette sul mercato beni pericolosi in violazione del divieto di cui all’art. 107, comma 2, lettera e).

La colpa sembra il titolo di imputazione più promettente. È vero che, allo stato, le cautele scritte aventi ad oggetto lo sviluppo e somministrazione al mercato di sistemi di AI sono pochissime. Nell’AI Act si inizia però finalmente ad intravedere una griglia tecnica di riferimento, attinente ad esempio a requisiti da soddisfare per la commercializzazione di tali strumenti, specie per quelli c.d. “ad alto rischio”, che saranno poi specificati e concretizzati attraverso l’emanazione di norme armonizzate da parte degli enti a ciò preposti (CEN, Comitato europeo di normalizzazione, e CENELEC, Comitato europeo di normalizzazione elettrotecnica)[37].

Tra i requisiti per lo sviluppo e la messa in commercio di dispositivi “ad alto rischio” vi sono vari precetti cautelari o meta-cautelari (attinenti cioè alla costruzione di una corretta organizzazione in materia): si impongono l’adozione di un “sistema di gestione dei rischi” (art. 9); l’utilizzo di set di dati che soddisfano determinati livelli “di qualità” (art. 10); la predisposizione di idonea documentazione tecnica (art. 11); la registrazione automatica di eventi significativi nell’ottica della sicurezza (art. 12) la previsione di meccanismi che garantiscano il costante controllo di una persona fisica (art. 14, dedicato alla sorveglianza umana).

La codificazione delle norme cautelari è destinata poi a passare dagli standard emanati dalla International Organization for Standardization (c.d. ISO) e dalla International Electrotechnical Commission (c.d. IEC).

A fronte di un comparto di presidi che si farà ben presto assai fitto, puntare sul meccanismo imputativo dell’omissione impropria sembrerebbe la strada più semplice: la valorizzazione del rischio come elemento da neutralizzare o contenere in  modo adeguato evoca infatti subito la tematica di una posizione di garanzia.

La stessa strategia prescelta in sede europea (si pensi in questo senso al sistema di prevenzione cautelare di cui all’art. 9 del Regolamento) sembra condurre alla edificazione di una rimprovero per il mancato impedimento dell’evento avverso prodotto dall’agente artificiale.

Tra i soggetti che più probabilmente saranno chiamati a rispondere in via omissiva vi sono il programmatore o l’utilizzatore, in quanto abbiano assunto un ruolo di controllo su quello specifico sistema intelligente al fine di prevenirne le capacità lesiva[38].

Più di una riserva però si impone rispetto al ricorso, anche in questa sede, ad una responsabilità omissiva, già proliferata oltre ogni limite in molteplici settori penalistici, in particolare nel campo delle attività a rischio lecito di base.

Innanzitutto, deve rilevarsi che spesso, soprattutto con riguardo al programmatore, egli non omette, ma semmai agisce in modo pericoloso, consapevolmente o meno, costruendo una forma di intelligenza artificiale non adeguatamente istruita per evitare danni. Dunque, non vi è necessità di costruire una imputazione per non aver impedito un evento avverso: sarebbe sufficiente constatare che egli ha prodotto una condizione di insicurezza.

In secondo luogo, rimane il dato empirico della molteplicità di soggetti che intervengono nella costruzione di un’AI: difficile allora pensare che vi sia un unico individuo chiamato a rispondere per tutti perché dotato del potere organizzativo di coordinarne le attività; qui il capitolo penalistico da implementare non è quello della responsabilità omissiva, ma, come detto, del concorso di persone, per lo più colposo.

Infine, anche laddove avessimo costruito una posizione di garanzia per il fatto dell’algoritmo, resterebbe irrisolto il profilo della frequente imprevedibilità dell’agire dell’AI, che preclude la possibilità di imputare anche solo per colpa l’evento non impedito.

Dunque, ricorrere in questo ambito alla tradizionale nozione di posizione di garanzia significa definire semplicemente un centro di accollo di responsabilità in caso di eventi dannosi, senza in realtà che ciò presupponga una rimproverabilità del garante[39].

7.     La responsabilità per colpa in agendo.

Una soluzione di parte generale più efficiente e coerente con le garanzie penalistiche potrebbe essere la costruzione di una responsabilità colposa per la creazione o l’aumento del coefficiente di rischio illecito rilasciato da un’intelligenza artificiale.

Si deve dunque ritenere che, se l’imputazione dolosa è tendenzialmente inattivata dalla distanza tra fatto concreto compiuto dall’agente artificiale e generiche istruzioni lesive inserite dal programmatore, quella colposa consente di identificare nella negligenza la genesi di un rischio non schermato: se lo specifico evento storico appartiene alla classe quelli che potevano essere ipotizzati al momento della creazione del sistema intelligente, vi sono i presupposti per il riconoscimento della responsabilità.

Si dirà che la colpa come criterio ascrittivo di un evento avverso di consistenza patrimoniale potrebbe apparire un ossimoro. Certo non altrettanto potrebbe dirsi quando le conseguenze lesive attengano a interessi personalistici, quindi fuori dal mercato finanziario, ad esempio, ma effettivamente si percepisce un deficit di meritevolezza di pena quando la responsabilità per colpa si associa alla offesa a beni meramente strumentali, per quanto collettivi (si potrebbe riesumare qui la vecchia etichetta dell’economia pubblica) possano essere[40].

È evidente allora che occorre una valutazione differenziata. Nei contesti dolosi potrà adottarsi come base della responsabilità dell’individuo la generazione di un rischio irragionevole omettendo di gestire un sistema di intelligenza artificiale che può determinare conseguenze dannose, ad esempio per l’investimento collettivo.

Non sarà necessario che ci si rappresenti l’iter produttivo dell’evento, né l’evento stesso, ma sarà sufficiente l’assunzione di un rischio in grado di determinare quel tipo di lesione.

Laddove invece vengano in rilievo interessi meritevoli anche da aggressioni colpose, certamente il livello di lesività potenziale sarà quello suscettibile di integrare un rimprovero a titolo di negligenza, nella consapevolezza che sarà più alto di quello rilevante per l’imputazione dolosa, poiché evidentemente la direzione della volontà rende potenzialmente letali anche situazioni  che di per sé non sarebbero probabilmente in grado di sfociare in danno, ma che adeguatamente guidate dall’intenzione possono rivelarsi fatali.

La responsabilità da assunzione colposa o dolosa di rischio illecito concentra la valutazione di disvalore proprio sulla perdita, volontaria o per negligenza, del controllo sulla fonte del pericolo, lasciando sullo sfondo l’evento, che il più delle volte, anzi pressoché sempre, sfugge alle possibilità di previsione dell’agente.

Il rimprovero di enti e persone fisiche in questa materia potrebbe basarsi dunque su fattispecie di pericolo che puniscano la mancata realizzazione di una rete protettiva attorno all’operatività dell’AI e l’omessa tempestiva attivazione di misure di sicurezza in caso di segnali di allarme. Ad esse potrebbero affiancarsi ipotesi costruite sulla tecnica ingiunzionale ove il privato (soggetto individuale o collettivo) risponda penalmente se non ottempera alla prescrizione di riparare una falla nei meccanismi preventivi di protezione individuata dalle Autorità preposte alla sorveglianza o non ristora i danni prodottisi a seguito di un disguido nel funzionamento dell’AI[41].

Essenziale, dunque, è la prudente organizzazione dell’attività rischiosa nella prevenzione della lesione da tecnologia e nella costruzione di fattispecie penali poste ‘a chiusura’ della disciplina di controllo delle AI.

Un’osservazione finale. Nulla vieta di pensare a misure extrapenali in questo ambito, anche alla luce della prevedibile tenuità delle comminatorie che potrebbero essere concepite per reati colposi di pericolo: senza dubbio un’interdizione in via amministrativa vale più di una pena sospesa ad assicurare un monitoraggio pubblico efficace. Va da sé che il legislatore sarebbe libero di esercitare la propria discrezionalità in relazione al genus della sanzione.

Al cuore del problema di una corretta allocazione della responsabilità, in modo coerente con il complessivo assetto prescelto dall’Unione europea, potrebbe giungere una soluzione ‘organizzativa’: la costruzione di una fattispecie colposa per il malgoverno della fonte di rischio.

Il capitolo della colpa è in evoluzione. Il reato d’evento pare destinato a lasciare ampio spazio a fattispecie di mera condotta per omesso o insufficiente controllo[42]. Si potrebbe discutere a lungo se simile evoluzione sia commendevole, allorché l’estremo del danno perde il proprio ruolo e diviene condizione di punibilità o scompare dai presupposti di responsabilità, ma quel che è certo è che, in alcuni settori, il danno è al di fuori dell’orizzonte di signoria dell’essere umano.

È proprio quel che accade nel campo dell’intelligenza artificiale, dove si va verso la produzione di conseguenze lesive imprevedibili se non in termini generali. Non potendosi ricorrere in un diritto penale liberale all’agevole categoria punitiva del dolo generale, la determinazione di classi di accadimenti aspecifici può combinarsi solo con la colpa, che opera strutturalmente per categorie di eventi, dato che per aversi responsabilità occorre che l’avvenimento hic et nunc non previsto sia però riconducibile ad un genus di accadimenti avversi, quelli considerati ex ante dalla cautela violata. Nell’ambito del malfunzionamento o dell’‘ammutinamento’ dell’AI, i danni sono predeterminabili per tipi in base alla forma di AI che viene in rilievo e al contesto in cui svolge la propria attività, sicché già negli Stati Uniti si è ritenuta compatibile con il sistema una imputazione a titolo di negligence o recklessness di cui abbia programmato o si sia avvalso dell’AI[43], accostando questo settore a quello della responsabilità da prodotto[44]. D’altra parte, la già citata proposta di regolamento eurounitario in materia di AI formulata dalla Commissione adotta proprio questo approccio, in particolare rispetto agli agenti artificiali classificati come ad alto rischio in un apposito elenco, in ragione della potenzialità lesiva per salute, sicurezza o diritti fondamentali dei cittadini. Con riferimento a questi sistemi, si applicano dei requisiti che prevedono, tra gli altri, una valutazione di conformità ex ante, nonché la supervisione sulle pratiche di governance, gestione e raccolta delle banche dati per l’addestramento di un’AI. Una procedura di registrazione automatica degli eventi durante il funzionamento del sistema dovrebbe permettere di tracciarne i percorsi decisionali (almeno nei passaggi essenziali) e di monitorarne ex post l’attività. Si prevede, poi, un vincolo di trasparenza verso gli utenti per permettere loro di avere chiarezza, tra gli altri, in merito alle prestazioni storiche e alla finalità che è stata attribuita all’AI[45].

8.     Le prospettive di riforma in sintesi.

Insomma, prevenzione del rischio e rischio incontrollato sono i nuclei, rispettivamente di valore e disvalore, attorno a cui ruota la strategia eurounitaria di disciplina dell’AI.

Appare dunque possibile strutturare, in relazione al settore dei danni da intelligenza artificiale autonoma, due tipologie di fattispecie.

i) in primo luogo, il reato colposo di evento, ove sia possibile cogliere una verificabile connessione di rischio tra progettazione e/o impiego dell’AI da parte dell’individuo e danno prodottosi concretamente;

ii) in secondo luogo, de lege ferenda, il reato colposo di mera di condotta, in cui l’agente fisico risponde per non aver predisposto (o aver rimosso) adeguate cautele che potessero contenere le scelte devianti dell’AI.

Ove invece la persona fisica mantenga un pieno controllo dell’agente artificiale, facendogli eseguire il fatto illecito specificamente progettato, non vi saranno difficoltà a contestare (ma questo già de lege lata)

iii) il reato doloso di volta in volta rilevante a colui che si è limitato a usare un mezzo inanimato, per quanto tecnologicamente avanzato.

L’ipotesi sub ii) è certamente la più stimolante e merita qualche osservazione ulteriore. Limitatamente al settore dell’AI, potrebbe valere la pena seguire il consiglio di quella dottrina che suggerisce di ripensare, in generale, la responsabilità per colpa, per intenderla non come rimprovero per la causazione di un danno (che di per sé spesso consegue a trame casuali), ma come imputazione per la perdita del controllo di una fonte di potenziali lesioni (o per la mancata costruzione delle precondizioni per esercitarlo effettivamente). Se forse questa rimodulazione complessiva della categoria può stravolgere il peso che il disvalore di evento deve possedere nel diritto penale liberale, è altrettanto vero che nei contesti tecnologici l’accadimento avverso può essere spesso una variabile indipendente dall’implementazione della cautela, giungendo così alla creazione di rischi illeciti anche quando siano rispettate tutte le misure di sicurezza, poiché in realtà si è inserito nella dinamica lesiva il contributo ‘luciferino’ dell’intelligenza artificiale. Si profilerebbe qui l’iniqua conseguenza di comportamenti identici nella violazione della norma di  prudenza che subiscono però un trattamento penale opposto (punizione vs assenza di rimprovero) in dipendenza della verificazione o meno dell’offesa[46]. L’unica soluzione sarebbe per queste ipotesi, ove si dimostrasse l’adozione di ogni strategia possibile di contenimento del rischio, la pura reazione oggettiva dell’ordinamento sotto forma di dismissione dell’AI, in fondo l’unico autore del  fatto dannoso.

Il discontrollo di una condotta pericolosa non è fonte di responsabilità per le conseguenze che ne deriveranno, perché queste sono in concreto imprevedibili al momento dell’azione e ciò preclude non solo il rimprovero per dolo, ma anche quello per colpa (a intendere bene il nesso di rischio su cui questa si fonda, visto che l’uno e l’altra da questo punto di vista differiscono per l’attualità della relazione soggettiva, ma non per il tipo di oggetto).

Non serve insomma pensare a forme di imputazione straordinarie (come actio libera in causa o simili), ma al ricorso alla sanzione penale per la violazione di una regola di comportamento, che potrebbe essere indifferentemente intesa come colpa cosciente o dolo di pericolo, allorché l’agente sia consapevole dell’esistenza e della funzione prevenzionale della norma trasgredita, pur senza prendere posizione, in termini di accettazione o rifiuto, rispetto alle conseguenze che ne potrebbero derivare[47]. Se le categorie penalistiche non possono essere slabbrate per addossare all’agente eventi imponderabili, ci si deve limitare ad aggredire, con pene proporzionate (che potrebbero consistere anche in sanzioni amministrative, magari interdittive), il disvalore di condotte che si attesta a forma di miscompliance individuale rispetto a protocolli preventivi nell’impiego di strumenti tecnologicamente avanzati.

Naturalmente nulla esclude, anzi tutto induce ad auspicare, che accanto alla persona fisica, e a volte al posto di questa, sia chiamata a rispondere l’organizzazione che abbia costruito o si sia avvalsa dell’AI deviante. Un illecito autonomo ed esclusivo della persona giuridica o già normativamente costruito come tale sulla base di presupposti oggettivi da definire e che identifichino una condizione di malgoverno del software o dispiegando in tutta la propria portata il disposto dell’art. 8 del d. lgs. 231 del 2001, che consente come noto di prescindere dal rimprovero per il fatto alla persona fisica legata all’ente[48].

*Professore ordinario di diritto penale presso l’Università di Torino

[1] Su cui Taddeo-Floridi, How AI can be a force for good, Science 2018, p. 751: “The effects of decisions or actions based on AI are often the result of countless interactions among many actors, including designers, developers, users, software, and hardware […]. With distributed agency comes distributed responsibility”.

[2] Essenzialmente l’espressione indica l’incapacità di ricostruire quali nessi logici, collegamenti concettuali, elaborazioni autonome l’intelligenza artificiale compia per tradurre gli input ricevuti nell’output generato. In proposito, con riguardo ai mercati finanziari, si vedano le notazioni di Azzutti-Ring-Stiehl, Machine learning, market manipulation and collusion on capital markets: why the “black box” matters, in U. Pa. J. Int’l L., 2021, 80 ss.

[3] Nel campo del machine learning, l’espressione indica un tipico errore in cui cade l’AI le cui scelte possono in alcuni casi basarsi su una semplice caratteristica di un set di dati, senza coglierne l’insieme e dunque il contenuto informativo se congiuntamente considerati, con la conseguenza di giungere a decisioni imprecise, finanche assurde. È noto l’esempio dell’AI che impara a identificare le immagini delle mucche concentrandosi sull’erba verde che appare nelle foto che gli vengono somministrate, piuttosto che sulla forma e le caratteristiche comuni del quadrupede ruminante. Sul tema di veda Zewe, Avoiding Shortcut Solutions in Artificial Intelligence, in https://news.mit.edu/, 2 novembre 2021.

[4] Per una approfondita analisi dell’imputazione oggettiva e soggettiva nel caso degli illeciti connessi al dispiegarsi dell’intelligenza artificiale si veda Giannini, Criminal Behaviour and Accountability of Artificiale Intelligence System, The Hague, 2023, 149 ss. Sui rischi e le possibili soluzioni per offese penalmente rilevanti compiute da o attraverso AI, King-Aggarwal-Taddeo-Floridi, Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, in 26 Science and engineering ethics, 2019, 89 ss.

[5] In questo ambito si veda l’ampio studio di Amore, L’effetto della robotica e dell’IA nell’imputazione giuridica degli eventi infausti, in Amore-Rossero, Robotica e intelligenza artificiale nell’attività medica. Organizzazione, autonomia, responsabilità, Bologna, 2023, 199 ss.

[6] Da ultimo Compostella, Auto a guida autonoma e diritto penale. Profili di responsabilità individuale e collettiva, Napoli, 2024, 32 ss. e, in precedenza, Lanzi, Self driving cars e responsabilità penale, Torino, 2023, 133 ss.

[7] Sul punto, da ultimo, Pollicino-Dunn, Intelligenza artificiale e democrazia. Opportunità e rischi di disinformazione e discriminazione, Milano, 2024, 119 ss.

[8] Tra gli altri, si segnala il contributo di Peluso, Intelligenza artificiale e tutela dei dati, Milano, 2023, in particolare 45 ss., 93 ss. e, nella prospettiva della privacy mentale e dei neurodiritti Nisco, Le neurotecnologie assistite dall’intelligenza artificiale nell’ottica del diritto penale, in Leg. pen., 13 settembre 2024, in particolare 4 ss.

[9] Proprio il ruolo dell’intelligenza artificiale nei mercati finanziari è stato oggetto di una recente ricerca della Consob, Consulich-Maugeri-Milia-Poli-Trovatore, AI e abusi di mercato: le leggi della robotica si applicano alle operazioni finanziarie?, 2023, reperibile in www.consob.it.

[10]  U.S. Securities and Exchange Commission, Artificial Intelligence (AI) and Investment Fraud: Investor Alert (2024), https://www.investor.gov/introduction-investing/general-resources/news-alerts/alerts-bulletins/investor-alerts/artificial-intelligence-fraud.

[11] Commodity Futures Trading Commission, CFTC Customer Advisory Cautions the Public to Beware of Artificial Intelligence Scams, https://www.cftc.gov/PressRoom/PressReleases/8854-24.

[12] Ben Penn, Criminals Who Misuse AI Face Stiffer Sentences in DOJ Crackdown, Bloomberg Law (2024), https://news.bloomberglaw.com/us-law-week/us-to-seek-stiffer-sentences-when-ai-facilitates-crimes.

[13] Per una panoramica del problema S. Beck, Google cars, software agents, autonomous weapons systems – New challenges for criminal law?, in Hilgendorf-Seidel (a cura di), Robotics, Autonomics, and the Law, Baden, 2017, 227 ss.

[14] Gary Gensler, AI, Finance, Movies, and the Law – Prepared Remarks Before the Yale Law School, in https:// www.sec.gov/news/speech/gensler-ai- 021324.

[15] Ad oggi, la prima class action “AI-Washing” sui titoli negli Stati Uniti è già stata intentata dall’azionista di Innodata nel Distretto del New Jersey il 21 febbraio 2024. La denuncia è stata presentata per conto di una classe di investitori che hanno acquistato i titoli della società tra il 9 maggio 2019 e il 14 febbraio 2024. La causa è stata avviata a seguito di un rapporto pubblicato da Wolfpack Research il 15 febbraio 2024, in cui si sosteneva che l’iniziativa di intelligenza artificiale di Innodata era ingannevole poiché in realtà i suoi prodotti e servizi erano alimentati da migliaia di lavoratori offshore a basso salario, non da una tecnologia di intelligenza artificiale proprietaria. Per maggiori approfondimenti si veda Investigation Into Innodata Inc. (INOD) Announced by Holzer & Holzer, Llc, Morningstar, Inc. (2024), reperibile su https://www.morningstar.com e Block & Leviton LLP, Innodata Shareholder Lawsuit Filed By Block & Leviton – Investors Who Have Lost Money Should Contact The Firm, Globenewswire news room (2024), https://www.globenewswire.com.

[16] Sul punto basti il riferimento, tra i tanti, a Doncieux-Mouret, Beyond black-box optimization: a review of selective pressures for evolutionary robotics, in 7 Evolutionary Intelligence, 2014, 71 ss.

[17] Per la lettura della proposta (S.3554 – FAIRR Act, (2024)) si veda https://www.congress.gov/118/bills/s3554/BILLS-118s3554is.pdf. Il senatore Kennedy ha sottolineato l’urgenza dell’AI: «le nostre leggi dovrebbero fare lo stesso per evitare che la manipolazione dell’AI scuota i nostri mercati finanziari. Il nostro disegno di legge contribuirebbe a garantire che le minacce all’AI non mettano a rischio gli investimenti e i sogni pensionistici degli americani». Il senatore Warner ha sottolineato: «L’AI ha un enorme potenziale ma anche un enorme potere dirompente in vari campi e industrie, forse nessuno più dei nostri mercati finanziari. Il momento di affrontare tali vulnerabilità è ora». La consultazione delle dichiarazione dei due proponenti del progetto è possibile alla seguente url: https://www.kennedy.senate.gov/public/2023/12/kennedy-warner-introduce-bill-to-protect-american-investments-from-ai-manipulation.

[18] Per monitorare e implementare la strategia nozionale in tema di intelligenza artificiale è stato creato nel gennaio 2021 il National Artificial Intelligence Initiative Office, in base al National AI Initiative Act del 2020. Si tratta di un’Autorità che mira a costituire un hub per il coordinamento federale e la cooperazione in tema di ricerca tra Governo, settore privato, accademia e altri portatori di interessi.

[19] Si tratta di un’autorità, presieduta dal Segretario al tesoro, istituita nel 2010 dal Dodd-Frank Wall Street Reform and Consumer Protection Act, con compiti di sorveglianza sulla stabilità del sistema finanziario statunitense.

[20] Si tratta di un’organizzazione governativa federale, istituita nel 2010 e disciplinata dal Titolo I del Dodd–Frank Wall Street Reform and Consumer Protection Act.

[21] Precisamente la Sec. 21(d)(3) del Securities Exchange Act verrebbe emendata aggiungendo un nuovo paragrafo: “Amount of penalty for violation involving machine-manipulated media. – The amount of a civil penalty imposed under subparagraph (A)(i) for a violation involving the use of machine-manipulated media, as defined in section 5724 of the Damon Paul Nelson and Matthew Young Pollard Intelligence Authorization Act for Fiscal Years 2018, 2019, and 2020 (50 U.S.C. 3024 note), shall not exceed 3 times the penalty otherwise determined under clause (i), (ii), or (iii) of subparagraph (B)”.

[22] Sia consentito un rinvio a Consulich, Criminal Law and Artificial Intelligence: Perspective from Italian and European Experience, in 13 Eu. C. L. Rev., 2023, 289 ss.

[23] Alla riformulata sec. 42 del Securities Exchange Act si affermerebbe, ove fosse approvata la sua introduzione: «Any person who, directly or indirectly, deploys or causes to be deployed, an artificial intelligence model shall be deemed to satisfy the scienter, other state of mind, or negligence requirements of the Federal securities laws with regard to any and all acts, practices or conduct engaged in by such model, and any outcome resulting from the use of such model, and shall be liable to the same extent as if such person had committed such acts, practices or conduct directly, unless such person took reasonable steps to prevent such acts, practices, conduct and outcome, which may include but are not limited to establishing, maintaining and enforcing written policies and procedures reasonably designed to prevent violations of the Federal securities laws».

[24] Reciterebbe infatti la nuova formulazione della sec. 42 (b): «Civil liability of a developer of an artificial intelligence model for design defects or breaches of implied warranties with respect to such a model out of which arise a violation of the Federal securities laws may not be waived».

[25] De Flammineis, Fattispecie penali nel contesto dell’intelligenza artificiale. Lo spunto del d.d.l. 1146/2024, in Sist. pen., 2 settembre 2024, 11.

[26] Cfr. Proposta di Direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), reperibile su https://eur-lex.europa.eu/

[27] Si segnala la recente pubblicazione del documento “Strategia italiana per l’Intelligenza Artificiale 2024-2026”, da parte di un Comitato di esperti supportato dall’Agenzia per l’Italia Digitale (AgID), che espone principi ed architettura dei possibili prossimi interventi nazionali, declinandole in quattro diversi campi d’azione (Ricerca; Pubblica amministrazione; Imprese; Formazione), nonché prestando attenzione ad un adeguato sistema di monitoraggio e agli organi regolatori del settore. Il documento è disponibile su https://www.agid.gov.it/.

[28] Sulla nozione, a mero titolo esemplificativo, Mahler, Defining Legal Risk. Proceedings of the conference “commercial contracting for strategic advantage – potentials and prospects”,  Turku University of Applied Sciences, 2007, disponibile in SSRN: https://ssrn.com/abstract=1014364Turku 2007; si leggano anche sul termine Howard, The Dynamics of Legal Risk, in 56 Drake L. Rev. 505 (2007-2008); Fielder, Legal Risk and the Scientific Process, in 19 SMU Sci. & Tech. L. Rev., 407 (2016); Rhee, The Effect of Risk on Legal Valuation, in 78 U. Colo. L. Rev., 193 (2007); di recente nella dottrina italiana, proprio a proposito del regolamento sull’AI, Canato, Verso il superamento del “legal risk” europeo: intelligenza artificiale e approccio proporzionale al rischio, in Leg. pen., 31 luglio 2024, 16.

[29] Si pensi agli standards P7000-P7013 emanati dall’Institute of Electrical and Electronics Engineers (IEEE), organizzazione tecnica di livello globale, che ha codificato già oltre una decina di standard in materia di trasparenza, tutela dei dati e bias algoritmici, rendendoli noti in una dettagliata pubblicazione intitolata Ethically Aligned Design. A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems e reperibile sul sito internet dell’istituto: https://ieeexplore.ieee.org/. Sul punto Fosch Villaronga-Golia, The Intricate Relationships Between Private Standards and Public Policymaking in Personal Care Robots: Who Cares More?, in Barattini-Vicentini-Singh Virk-Haidegger (eds.), Human-Robot Interaction. Safety, Standardization, and Benchmarking, Chapman and Hall, New York, 2019, 9 ss.

[30] La tematica della necessaria flessibilità della disciplina dell’intelligenza artificiale è al centro delle riflessioni di Novelli- Casolari-Rotolo-Taddeo-Floridi, AI Risk Assessment: A Scenario-Based, Proportional Methodology for the AI Act, in 3 Digital Society 2024, 18 ss., dove gli Autori propongono l’impiego di un «(semi)quantitative approach to ascertain when sacrifices to mitigate risk are “grossly disproportionate” (within the scope of the AIA)».

[31] In argomento, Severino, Le implicazioni dell’intelligenza artificiale nel campo del diritto con particolare riferimento al diritto penale, in Severino (a cura di), Intelligenza artificiale. Politica, economia, diritto, tecnologia, Roma, 2022, 94 ss.

[32] Un utile riassunto delle proposte in argomento si trova di recente in Canato, Verso il superamento del “legal risk” europeo, cit., 23 ss.

[33] Il reato sarebbe punibile a querela della persona offesa, salvo che il fatto fosse connesso con altro delitto procedibile d’ufficio ovvero se fosse commesso nei confronti di un incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.

[34] In questo senso già De Flammineis, Fattispecie penali nel contesto dell’intelligenza artificiale, cit., 9.

[35] Per una più ampia riflessione sulle possibilità di questa previsione normativa sia consentito il rinvio a Consulich, Il principio di autonomia della responsabilità dell’ente. Prospettive di riforma dell’art. 8, in Riv. 231, 4/2018, 197 ss.

[36] Su cui, di recente, Florio, Il dibattito sulla responsabilità penale diretta delle IA:  “molto rumore per nulla”?, in Sist. pen., 2/2024, 14 ss. nonché, con grande nitore concettuale, già Piergallini, Intelligenza artificiale: da “mezzo” ad “autore” del reato, in Riv. it. dir. proc. pen., 2020, in particolare 1763 ss. In precedenza, Gless-Silverman-Weigend, If robots cause harm, who is to blame? Self-driving cars and criminal liability, in 19 New Criminal Law Review, 2016, 412 ss.

[37] Sul punto si vedano le approfondite considerazioni di Fragasso, La responsabilità penale del produttore di sistemi di intelligenza artificiale, in Sist. pen., 13 giugno 2023, 14.

[38] In questa direzione, con la identificazione di una Responsible Person (potenzialmente anche una persona giuridica che se ne avvalga per la propria attività caratteristica), a base colposa, con connessi oneri di registrazione e amministrativi e assicurativi, per casi di c.d. hard AI Crime, cioè quelli in cui non è identificabile un autore fisico immediato e diretto anche Abbott-Sarch, Punishing Artificial Intelligence, cit., 378 ss., i quali propongono poi l’istituzione di un fondo di garanzia, alimentato dai soggetti individuali o collettivi che si avvalgano di intelligenze artificiali, per i casi in cui l’AI responsabile del fatto non abbia una persona per lui responsabile o questa sia incapiente o non assicurata.

[39] Sulla stessa linea già Piergallini, Intelligenza artificiale: da ‘mezzo’ ad ‘autore’ del reato?, cit., 1758.

[40] Sulla meritevolezza di pena, contrapposta al bisogno di pena, come dicotomia fondamentale della politica criminale Paliero, Il mercato della penalità, Torino, 2021, 6 ss.

[41] Sulla necessità che il controllo della manipolazione passi dal contributo degli intermediari finanziari e non operi solo a livello dei mercati Yadav, The Failure of Liability in Modern Markets, in 102 Virginia Law Review, 2016, 1090 ss.; Lin, The New Market Manipulation, in 66 Emory LJ, 2016, 1304

[42] Per stimolanti riflessioni sul punto, anche in ottica de lege ferenda, Cornacchia, Responsabilità colposa: irrazionalità e prospettive di riforma, in Arch. pen., 12 luglio 2022.

[43] Lina, Could AI Agents Be Held Criminally Liable, cit., 691. Già un decennio or sono Hollander-Wu, The Current State of Normative Agent-Based Systems, in 14 Journal of Artificial Societies and Social Simulation, 2011, 6 avevano ipotizzato una relazione tra compimento di illeciti da parte di AI e mancata adozione di una adeguata architettura normativa preventiva nel contesto di riferimento.

[44] Gless-Silverman-Weigend, If Robots Cause Harm, Who is to Blame? Self-Driving Cars and Criminal Liability, cit., 425 ss. Sempre in questa direzione, quella della responsabilità da prodotto, ma nel senso che si possa rimanere entro il perimetro delle competenze della Federal Trade Commission, dunque amministrativo-regolatorio e non penalistico, Hartzog, Unfair and Deceptive Robots, in 74 MD. L. Rev., 2015, 811 ss

[45] Per un commento all’approccio della proposta di regolamento Sepe, Innovazione tecnologica, algoritmi e intelligenza artificiale nella prestazione dei servizi finanziari, in Riv. trim. dir. econ., 2021, suppl. 3, 207.

[46] Burghardt, Zufall und Kontrolle, Tübingen, 2018, 1, intendendo il caso come concetto antitetico a quello di controllo: la tesi sostenuta è che il principio del controllo dovrebbe sostituire il concetto di colpevolezza come rimproverabilità (52 ss., 377 ss.); cfr. anche Zaczyk, Über Zufall und Kontrolle Im Strafrecht, in Goltdammer’s Archiv, 2021, 147 ss.

[47] In questo senso si vedano le notazioni, in prospettiva di riforma sulla colpa in generale, di Cornacchia, Responsabilità colposa: irrazionalità e prospettive di riforma, cit., 4.

[48] Si tratta di temi su cui avevamo già speso un serie di argomentazioni e a cui si rimanda, cfr. Consulich, Flash Offenders. Le prospettive di accountability penale nel contrasto alle intelligenze artificiali devianti, in Riv. it. dir. proc. pen., 2022, 1041 ss. Per una proposta in chiave di autonoma responsabilità dell’ente cui si imputerebbero dunque tanto l’azione che la decisione dell’algoritmo Diamantis, The Extended Corporate Mind: When Corporation Use AI to Break the Law, in 98 N.C.L. Rev., 2020, 898 ss.; Id., Algorithms Acting Badly: A Solution from Corporate Law, in 89 GEO. Wash. L. Rev., 2021, 809 ss.; Diamantis-Cochran-Dam, AI and the Law: Can Legal Systems Helps Us Maximize Paperclips while Minimizing Deaths?, in https:// papers.ssrn.com, 4 ss.