USO DI STRUMENTI A INTELLIGENZA ARTIFICIALE E IMPUTAZIONE DELLA RESPONSABILITÀ PENALE: DIFFICOLTÀ RICOSTRUTTIVE E PROSPETTIVE DI INTERVENTO – DI MASSIMILIANO LANZI
LANZI M. – USO DI STRUMENTI A INTELLIGENZA ARTIFICIALE E IMPUTAZIONE DELLA RESPONSABILITÀ PENALE: DIFFICOLTÀ RICOSTRUTTIVE E PROSPETTIVE DI INTERVENTO.PDF
USO DI STRUMENTI A INTELLIGENZA ARTIFICIALE E IMPUTAZIONE DELLA RESPONSABILITÀ PENALE: DIFFICOLTÀ RICOSTRUTTIVE E PROSPETTIVE DI INTERVENTO
di Massimiliano Lanzi*
Lo sviluppo e la diffusione di strumenti a Intelligenza Artificiale comportano notevoli sfide per le scienze giuridiche, specie per il Diritto penale, materia strutturalmente pensata, più di ogni altra, per l’uomo e sull’uomo. Nel caso in cui robot “intelligenti” cagionino eventi lesivi, gli ordinari criteri di attribuzione della responsabilità penale entrano in crisi. Nel presente contributo si affronteranno, in particolare, le criticità che si riscontrano sul piano della ricostruzione causale e della colpevolezza, cercando altresì di pesare la verosimiglianza di una futura attribuzione di responsabilità penale allo stesso agente intelligente artificiale.
The development and spread of Artificial Intelligence tools pose significant challenges for legal sciences, especially for criminal law, a field structurally designed, more than any other, for humans and about humans. When “intelligent” robots cause harm, the usual criteria for assigning criminal responsibility are disrupted. In this essay, the focus will be on the critical issues encountered in terms of causal reconstruction and culpability, while also attempting to assess the plausibility of recognizing criminal liability for the artificial intelligence agent itself in the future.
Sommario: I. Introduzione. L’imputazione penale alla prova dell’intelligenza artificiale; II. Dalla responsabilità dell’uomo a una responsabilità del robot? Machina delinquere potest?; III. Comportamento autonomo degli strumenti “intelligenti” e teorie causali; IV. La colpevolezza penale nell’impiego di strumenti “prevedibilmente imprevedibili”; IV. a. Profili di responsabilità dell’utilizzatore di strumenti a IA; IV. b. Colpa penale del progettista – sviluppatore – produttore di mezzi smart; V. In conclusione: che futuro per la responsabilità penale in ambito di IA?
I. Introduzione. L’imputazione penale alla prova dell’intelligenza artificiale.
L’irrompere sulla scena dell’intelligenza artificiale rappresenta, nell’opinione di molti, un momento “decisivo” nella storia degli ordinamenti giuridici[1]. Nessuna novità, invero, nel dover adattare leggi e discipline a nuovi strumenti che l’evoluzione tecnologica porta nella disponibilità dell’uomo. A ciò siamo ben abituati, e il diritto, che è scienza sociale e umana, è strutturalmente chiamato a fornire risposte e soluzioni adeguate a esigenze nuove e, talvolta, inaspettate.
Lo sviluppo delle IA, tuttavia, comporta delle assolute novità a livello qualitativo e assiologico, dal momento che le stesse minacciano di “mettere in ombra” la centralità dell’uomo come protagonista non solo dell’attuazione, ma anche della decisione e ideazione di scelte di azione significative e potenzialmente lesive.
Si tratta ovviamente di una sfida di particolare complessità soprattutto per il diritto penale, che più di ogni altro, tra le materie giuridiche, è interamente «pensato ed edificato sull’uomo»[2], e le cui categorie sono state elaborate, nel corso del tempo, per rispondere a caratteristiche e qualità spiccatamente umane. Si pensi agli statuti dell’imputabilità, della colpevolezza, della rimproverabilità e della finalità rieducativa della pena. Ma anche alla «capacità a delinquere» quale criterio di commisurazione della pena, o ancora alla «volontà», nella descrizione normativa del dolo.
Tutte problematiche di alto profilo, che andranno progressivamente ad aumentare di quantità e intensità, al progredire della scienza e alla sempre maggiore permeazione dell’IA nel tessuto sociale, economico e produttivo: del resto, quella dell’intelligenza artificiale è una strada a senso unico, i cui esatti confini futuri non sono ad oggi del tutto nitidi, neppure agli studiosi del settore[3].
Guardando ai possibili campi di inferenza tra attribuzione della responsabilità penale e impiego di strumenti ad intelligenza artificiale, si pongono una serie di problemi fondamentali di grande rilievo.
Le macchine ad intelligenza artificiale non si limitano, infatti, ad eseguire la volontà umana, a creare cioè un output corrispondente all’input elaborato dall’uomo che vi sta alle spalle, programmatore, costruttore o utilizzatore.
Queste, piuttosto, grazie a sofisticati e (pressocché) inaccessibili percorsi algoritmici tipici del machine learning, apprendono dall’esperienza, si migliorano, generano risposte e quindi scelte di azione in cui “ci mettono del loro”. Si crea, insomma, uno iato tra impulso umano e “comportamento” della macchina.
Nell’eventualità in cui tali strumenti intelligenti diano corso a eventi lesivi e antigiuridici, ecco porsi problematiche di alto profilo in merito ai criteri di ascrizione della responsabilità. Per quanto ci riguarda, naturalmente, anche sul piano penale.
Una serie di elementi, infatti, mettono in crisi i fondamenti della materia punitiva, e sono stati variamente analizzati da chi, nel dibattito scientifico internazionale, si è interessato di queste tematiche. Nella presente sede, se ne affronteranno, in particolare, tre.
Una prima problematica – cui forse è sensibile il dibattito divulgativo e mediatico più di quello prettamente scientifico-giuridico – attiene a eventuali spazi di punibilità della macchina medesima, in quanto soggetto “intelligente” a cui potrebbero quindi essere mossi rimproveri punitivi.
Un secondo profilo, di certo interesse del penalista, riguarda le conseguenze della descritta autonomia decisionale della macchina rispetto alla ricostruzione del rapporto causale tra eventuali eventi lesivi e le condotte umane poste a monte del mezzo smart.
Un ultimo aspetto che merita di essere trattato, e su cui si concentrano forse le riflessioni più interessanti in argomento, riguarda la complessa interazione tra l’imprevedibilità del comportamento autonomo della macchina intelligente e la colpevolezza; la quale risulta invece fondata, all’opposto, sulla prevedibilità degli accadimenti lesivi e antigiuridici.
Moltissimi sono gli ambiti produttivi ed industriali in cui si pongono con intensità tali problematiche, e tra questi, in particolare, destano interesse le auto a guida autonoma (c.d. self-driving cars), il cui driver di sviluppo risiede nella promessa, formulata in maniera abbastanza unanime dagli esperti del settore, che le stesse aumenteranno in maniera molto significativa la sicurezza della circolazione stradale: considerando che ad oggi, a livello mondiale, oltre il 90 % degli incidenti stradali con conseguenze lesive è dovuto da errori umani[4].
E si tratta, a ben vedere, di scenari di stretta attualità, solo a considerare, ad esempio, l’ampia diffusione di self-driving cars nelle aree urbane degli Stati Uniti e della Cina. Nonché – guardando al panorama europeo – le nuove norme in materia di omologazione dei veicoli a motore, le quali comportano già ora, per tutti i veicoli di nuova omologazione, la presenza di sistemi “intelligenti” di assistenza alla guida, di particolare momento sulla via verso una possibile futura completa automazione dei trasporti[5].
Prendendo le mosse dalle self-driving cars, tuttavia, si potranno formulare considerazioni valide per ogni altro strumento a intelligenza artificiale, impiegato in diversi contesti sociali e produttivi.
II. Dalla responsabilità dell’uomo a una responsabilità del robot? Machina delinquere potest?
Si può affrontare, anzitutto, l’eventualità forse più temuta sul piano dei rapporti tra eventi lesivi cagionati da uno strumento a IA e responsabilità penale, ovvero quella in cui non si riscontri, a monte, alcun errore o violazione di regola cautelare da parte degli agenti umani che, a vario livello, sono intervenuti nel programmare, costruire, commercializzare o “condurre” lo strumento stesso.
In simili ipotesi, la lesione antigiuridica verificatasi sarebbe quindi frutto di una decisione autenticamente della macchina, e nel dibattito internazionale sono state avanzate possibili prospettive punitive dello stesso robot. Non sono mancati sforzi, in questo senso, per argomentare come la sanzione criminale ben potrebbe adattarsi a un agente artificiale, in maniera funzionale a raggiungerne tutti gli ordinari scopi, sia general- che special-preventivi[6]. Da qui, interessanti speculazioni in merito al possibile futuro superamento del principio per cui machina delinquere non potest, messo peraltro in connessione con un certo trend evolutivo “spersonalizzante” del diritto panale, nel solco del quale si collocherebbe anche l’avvenuta introduzione di istituti punitivi nei confronti delle persone giuridiche[7]. Per quanto suggestivi, tali scenari restano ben poco realistici. E infatti, gli agenti artificiali sono ontologicamente incompatibili con la sanzione penale, la quale necessita e presuppone un agente cosciente, rimproverabile e motivabile, caratteristiche estranee ad una macchina, quale che ne sia il grado di sviluppo e di intelligenza algoritmica[8]. Anche il parallelismo con la responsabilità punitiva delle persone giuridiche, a ben vedere, non convince, considerando che la stessa, infatti, si riferisce pur sempre a colpe organizzative riconducibili all’agire di esseri umani. E inoltre, si fatica a comprendere quale sarebbe l’esigenza di politica criminale a fondamento della comminazione di una sanzione punitiva a una macchina, pur intelligente. Laddove se ne riscontrasse infatti la pericolosità, l’autorità pubblica, anche alla luce delle disposizioni in materia di tutela dei consumatori, dovrebbe ordinarne comunque al produttore o al distributore la modifica o persino, nei casi più gravi, il ritiro dal mercato, lo spegnimento o la distruzione.
Archiviata quindi la possibilità di riconoscere una capacità penale, seppur mitigata, agli strumenti artificiali intelligenti, occorre avere riguardo agli eventuali profili di responsabilità degli esseri umani che si collocano alle “spalle” della macchina.
Il che solleva significative problematiche, come anticipato, sui piani tanto della causalità quanto della colpevolezza.
III. Comportamento autonomo degli strumenti “intelligenti” e teorie causali.
La scarsa comprensibilità dei percorsi decisori delle intelligenze artificiali costituisce, come anticipato, uno dei principali limiti del diritto penale classico a fungere da utile strumento di governo di questa nuova tipologia di rischio. Acuendo, per certi versi, la crisi in cui già si trovano le ordinarie teorie causali e il tradizionale paradigma nomologico-deduttivo, al cospetto della complessità della post-modernità[9].
E infatti, nel caso in cui un malfunzionamento dello strumento “intelligente” causi un evento lesivo a danno di terzi (pensiamo al caso di una self-driving car che, in modalità autonoma, esca di strada e investa dei pedoni sul marciapiede) si presenta di particolare complessità individuare, tra i molti programmi che concorrono a governare l’auto autonoma, il bug che ha generato tale accadimento. E da qui, naturalmente, accertare le condotte di coloro che hanno cagionato tale errore, o che non hanno adeguatamente presidiato tale rischio, in senso causalmente rilevante rispetto all’evento. La catena causale è ovviamente resa ancora più inestricabile dalla presenza della capacità decisionale autonoma dei mezzi in questione, figlia delle capacità di machine learning che rappresentano il “cuore” di queste nuove tecnologie[10]. Ebbene, alcuni vedono addirittura in tale decisione robotica un elemento sopravvenuto potenzialmente interruttivo del nesso causale, ai sensi dell’art. 41, comma 2, c.p. La stessa, infatti, si porrebbe tra le condotte dei programmatori/produttori e l’evento lesivo, sì da generare un rischio qualitativamente diverso rispetto a quello attribuibile ex ante all’agente umano, per il quale lo stesso non sarebbe più dominabile.
Invero, solo eventi sopravvenuti eccezionali, cioè assolutamente imprevedibili, dovrebbero poter spezzare, sul piano sostanziale, il nesso di causalità. Così non possono dirsi, riteniamo, i comportamenti autonomi del veicolo, neppure quelli “errati”, trattandosi pur sempre di una “imprevedibilità prevedibile”, che comporta l’esigenza anzi di presidiare adeguatamente quella fonte di rischio da parte dell’agente umano che lo ha introdotto. Un eventuale responsibility gap avrebbe, peraltro, l’effetto di minare profondamente il consenso sociale allo sviluppo delle tecnologie in argomento.
La partita dell’attribuzione di responsabilità nell’impiego di strumenti a IA, quindi, si gioca non già sul piano della causalità, quanto su quello della colpevolezza.
IV. La colpevolezza penale nell’impiego di strumenti “prevedibilmente imprevedibili”.
Entrando quindi nel campo dei criteri di imputazione soggettiva, il problema dell’ascrizione di responsabilità non si pone, riteniamo, con riferimento alle fattispecie dolose. L’acclarata volontà dell’agente di conseguire un certo risultato antigiuridico, infatti, renderebbe del tutto irrilevante che il fatto tipico sia commesso con l’utilizzo di un mezzo “tradizionale” ovvero di uno “intelligente”: la responsabilità, evidentemente, andrebbe comunque allocata a monte, in capo all’agente umano che abbia fornito l’imput criminoso, e la macchina “intelligente” resterebbe mero «strumento» del reato[11].
È in merito, piuttosto, all’imputazione colposa che si rintracciano i profili di maggiore interesse. Due, in particolare, i problemi fondamentali. Anzitutto, la difficilissima individuazione di regole cautelari valide ai fini del giudizio di antidoverosità della condotta. Si tratta, infatti, di una materia soggetta a continui sviluppi, in cui risulta oltremodo difficile “fissare” normativamente regole di condotta che tengano il passo dell’evoluzione tecnologica. In questo senso, occorre tenere a mente come gli strumenti informatici, di per sé, sfuggano al sistema delle omologazioni, proprio perché i continui aggiornamenti rendono impossibile esprimere una garanzia di conformità rispetto a un prototipo[12].
Un altro profilo di attrito con lo statuto della colpa penale attiene alla carenza di prevedibilità dell’eventuale comportamento lesivo e antigiuridico della macchina “intelligente”, conseguente al funzionamento di “autoapprendimento” tipico del machine learning.
Ebbene, la tematica può essere affrontata in modo diverso, a seconda che si abbia riguardo ai profili di responsabilità dell’agente umano posto a immediato contatto con la fonte del rischio – e cioè all’operatore/utilizzatore dello strumento a IA – ovvero a chi abbia progettato, programmato o commercializzato il mezzo medesimo.
IV. a. Profili di responsabilità dell’utilizzatore di strumenti a IA.
Occorre anzitutto precisare come il rischio penale dell’”utente finale”, ovvero dell’operatore di strumenti a intelligenza artificiale, sia strettamente normativo, in quanto legato alla minore o maggiore ampiezza della posizione di garanzia che la legge, in futuro, gli attribuirà. Per tornare all’esempio delle smart cars, laddove le normative europee dovessero consentire, un domani, la circolazione di veicoli full-auto, privi di sorveglianza umana, è chiaro che l’eventuale essere umano a bordo sarebbe un mero passeggero, carente di alcuna posizione di garanzia rispetto ai rischi cagionati dal veicolo intelligente. Gli eventuali profili di responsabilità, in questi casi, potrebbero risiedere esclusivamente altrove: in capo ad altri utenti della strada, o ancora – in caso di un malfunzionamento – in capo al produttore.
Le normative europee, tuttavia, hanno confermato l’opposto divieto che una condotta potenzialmente lesiva per interessi fondamentali umani (inclusa quindi la conduzione di veicoli a motore) sia svolta dalla IA senza un effettivo controllo umano. Per quanto riguarda le smart cars, quindi, persiste un obbligo di presenza a bordo di un agente idoneo, in caso di necessità, a prendere il controllo del mezzo.
Questa previsione, tuttavia, cagiona un c.d. control dilemma. All’operatore umano, infatti, viene attribuita una posizione di garanzia, carica di significativi profili di rischio (anche) penale, rispetto però a un’attività completamente svolta da altri (in questo caso, la macchina smart), secondo criteri e percorsi decisori per lui non comprensibili e con un limitatissimo, se non nullo, reale potere impeditivo dell’evento, specie in una situazione di emergenza improvvisa[13]. Il rischio, ovviamente, è che in questo modo l’uomo dietro la macchina diventi un mero capro espiatorio, funzionale a tacitare l’ansia sociale che susciterebbe la diversa scelta di un generale affidamento nella funzionalità e nella sicurezza delle intelligenze artificiali.
Dinamica che purtroppo già si riscontra spesso, in tema di imputazione dei reati colposi d’evento.
Quello dell’utilizzo delle IA, piuttosto, sarebbe un ennesimo campo in cui, al progredire della tecnica e della sicurezza di questi nuovi strumenti, la tipicità colposa andrebbe limitata a soli gradi elevati e qualificati di violazione cautelare[14]. Sempre tornando all’esempio delle self-driving cars, tale sarebbe la condotta di chi abbia sostanzialmente “abdicato” ai propri oneri di controllo, dedicandosi ad altro anziché vigilare sul veicolo autonomo.
Circoscrivere la responsabilità penale alla colpa grave, in questo senso, garantirebbe di riservare la risposta sanzionatoria a quei soli casi in cui l’agente umano esprima un effettivo disvalore di condotta, ovvero un blameworthiness che legittimi il rimprovero. In senso rispettoso, altresì, per la legalità della colpa e dei correlati canoni della predeterminazone e prevedibilità ex ante del precetto e della sanzione[15].
IV. b. Colpa penale del progettista – sviluppatore – produttore di mezzi smart.
Altro piano di potenziale attribuzione di responsabilità, per eventi lesivi cagionati da strumenti a IA, riguarda, come anticipato, lo sviluppatore/progettista/produttore del mezzo. Siamo, con ogni evidenza, nel campo della responsabilità penale da prodotto “difettoso” o da attività pericolosa.
A tale riguardo, si pongono una serie di problemi difficilmente superabili. Anzitutto, la “filieira” di sviluppo di un veicolo autonomo è troppo complessa, frammentata e “opaca” per essere oggetto di un accertamento affidabile e prevedibile sull’allocazione della responsabilità. In tale processo, infatti, intervengono migliaia di attori diversi, e la complessità del funzionamento degli algoritmi dell’IA è tale da impedire, nella maggior parte dei casi, l’individuazione esatta del pattern che ha condotto al “comportamento” lesivo del robot.
E così, la posizione di garanzia dovrebbe concentrarsi sulla figura del produttore, il quale assume una qualificata posizione di garanzia, anche in linea con quanto previsto dal AI Act. Nella prospettiva, in questo senso, di favorire il ricorso a obblighi di compliance nella gestione di quel particolare rischio. Si tratta, appunto, dell’indirizzo assunto dalle norme sovranazionali, che mirano a istituire una sorta di co-gestione pubblico-privata del rischio, con la previsione di obblighi di monitoraggio e controllo, sia in fase di asseverazione e di addestramento della macchina precedenti all’immissione in commercio, sia nella successiva fase di “sorveglianza” dei requisiti di sicurezza del prodotto “intelligente”.
Lo spettro della colpa penale, in questo senso, dovrebbe limitarsi, ancora una volta, a sole ipotesi particolari e limitate di violazione cautelare, corrispondenti alla grave minimizzazione o sottovalutazione del “rischio da IA”. Solo tali casi, infatti, esprimerebbero un disvalore qualificato, percepibile ex ante e incongruente con gli scopi di implementazione della sicurezza e della qualità della vita che costituiscono, all’opposto, i driver per lo sviluppo e dell’accettazione sociale delle intelligenze artificiali embodied. Ricorrendo, in questa prospettiva, alle elaborazioni intervenute in altri settori della colpa penale, si dovrebbe quindi limitare la responsabilità dei produttori alle sole condotte che abbiano dato corso a rischi irragionevoli: è proprio sulla ragionevolezza del rischio residuo da guida autonoma che dovrà essere delineata, nel settore in argomento, un’area di rischio consentito, il cui perimetro sia tracciato dalla portata cautelare delle linee guida oggettiva di settore, nonché dagli obblighi di compliance nella valutazione e gestione del rischio[16].
Avendo però a mente, a tale riguardo, una differenza di particolare rilievo rispetto alla generale tematica della responsabilità penale da prodotto difettoso. In tema di strumenti a IA, e di self-driving cars in particolare, non si tratta di fissare un bilanciamento tra benefici economico-sociali (corrispondenti alla diffusione di un certo prodotto) e nocumento alla sicurezza dei consociati (derivante da quel medesimo prodotto o produzione): non ci configurerebbe quindi, nel settore in argomento, il consueto attrito tra prospettive utilitaristiche e precauzionistiche, il quale dovrebbe condurre, in costanza di rischi per la salute umana, alla cessazione o alla forte limitazione della fonte di rischio.
Il principale beneficio sociale atteso dai veicoli autonomi, infatti, è un decisivo aumento proprio della sicurezza stradale. Il loro sviluppo renderà quindi le strade più sicure, e ogni intervento teso, per ragioni precauzionistiche, alla loro limitazione avrà il paradossale effetto di nuocere alla tutela della salute e dell’incolumità pubblica.
V. In conclusione: che futuro per la responsabilità penale in ambito di IA?
Insomma, le tradizionali fattispecie colpose d’evento, e il criterio descrittivo della colpa penale di cui all’art. 43 c.p., appaiono davvero strumenti farraginosi e inadatti a gestire fenomenologie lesive nuove, conseguenza del “cambio di paradigma” della IA. La disciplina della colpa penale, al contrario, dovrà essere adeguatamente calibrata nell’ottica di fornire soluzioni ragionevoli e sostenibili.
E in questi termini, è ovvio che il diritto penale non potrà costituire la risposta a ogni accadimento lesivo occorso nell’impiego di strumenti a IA.
L’impossibilità di attribuire responsabilità penali, a fronte della verificazione di eventi lesivi cagionati da macchine intelligenti, potrebbe generare naturalmente un’“ansia sociale”, relativa a ipotetici vuoti di tutela di interessi fondamentali, culturalmente non accettabili né quindi politicamente perseguibili. E si tratterebbe di un processo di “rigetto” culturale particolarmente insidioso, capace di mettere addirittura in discussione il futuro stesso degli strumenti a IA.
Simili preoccupazioni, tuttavia, parrebbero profondamente errate, e sarebbero figlie della considerazione del diritto penale quale unica ratio di intervento, in forza della quale ogni mancata attribuzione di una responsabilità penale, per un qualunque accadimento lesivo, equivarrebbe ad un vuoto di tutela.
E invece, ben più efficaci nel garantire la tutela delle vittime dei suddetti futuri eventi lesivi “senza responsabili” saranno gli istituti risarcitori ad hoc in cantiere in sede europea, i quali uniscono a un robusto sistema di assicurazione obbligatoria una presunzione di nesso di causalità tra il difetto del robot e il danno, alleggerendo in questo senso l’onere probatorio della parte lesa. Il riferimento è alle proposte, avanzate nel 2022, per l’introduzione di nuove direttive in materia di responsabilità per danno da prodotto (c.d. Product Liability Directive) e di responsabilità da intelligenza artificiale (c.d. AI Liability Directive).
E ciò, come anticipato, nel quadro della condivisione di una ragionevole soglia di rischio consentito, conforme alla netta prevalenza, parimenti evidenziata dalla ricerca scientifica sul punto, dei vantaggi di questi strumenti per la sicurezza collettiva, rispetto ai residui rischi per quella individuale[17]. E a tutto beneficio, in questo modo, non solo delle possibilità di sviluppo di tali tecnologie positive, ma altresì del rispetto della legalità penale e del principio della extrema ratio della risposta punitiva.
*Avvocato del Foro di Milano, Ricercatore di Diritto penale – Università LUM.
[1] J. Kaplan, Intelligenza artificiale. Guida al prossimo futuro, LUISS Uni. Press, 2017, p. 125 ss.
[2] V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in DisCrimen, 15 maggio 2020.
[3] A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in A. D’Aloia (a cura di), Intelligenza artificiale e diritto, FrancoAngeli, 2020, p. 7 ss.
[4] Vd. il Global Status Report on Road Safety 2018, redatto dalla World Health Organization, in www.who.int.
[5] Si permetta di rinviare, su tali tematiche, a M. Lanzi, Self-driving cars e responsabilità penale. La gestione del rischio stradale nell’era dell’intelligenza artificiale, Giappichelli, 2023.
[6] Vedi, tra i più noti sostenitori di una capacità penale dei robot intelligenti, G. Hallevy, When Robots Kill: Artificial Intelligence under Criminal Law, Northeastern Uni. Press., 2013.
[7] Cfr. le aperture in questo senso in F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Dir. Pen. e uomo, p. 27 ss.
[8] Vedi su tutti nella dottrina italiana, per la contrarietà a scenari punitivi dell’agente artificiale, C. Piergallini, Intelligenza artificiale: da “mezzo” ad “autore” del reato?, in Riv. It. Dir. Proc. Pen., 2020, 4, p. 1745.
[9] Sull’ampia tematica dei rapporti tra diritto penale e sistema produttivo moderno vedi C. Piergallini, Danno da prodotto e responsabilità penale, Giuffré, 2004.
[10] In merito alle difficoltà nelle ricostruzioni causali nel campo della IA, vedi L. Picotti, Categorie tradizionali del diritto penale e intelligenza artificiale: crisi o palingenesi?, in Sist. Pen., 31.7.2024.
[11] P. Severino, Le implicazioni dell’intelligenza artificiale nel campo del diritto con particolare riferimento al diritto penale, in P. Severino (a cura di), Intelligenza artificiale, politica, economia, diritto, tecnologia, Luiss Uni Press, 2022.
[12] Vedi M. Losano, Verso l’auto a guida autonoma italiana, in Il diritto dell’informazione e dell’informatica, 2019, 2, p. 423.
[13] Vedi A. Cappellini, Profili penalistici delle self-driving cars, in Riv. Trim. dir. Pen. Cont., 2019, 2, p. 325.
[14] Il riferimento è a quanto proposto in tema di colpa medica, con il fine di limitare le nocive pratiche di c.d. medicina difensiva. Vd. M.L. Mattheudakis, La punibilità del sanitario per colpa grave. Argomentazioni intorno a una tesi, Aracne, 2021.
[15] Sul tema della legalità della colpa, cfr. F. Giunta, La legalità della colpa, in Criminalia, 2008, p. 149.
[16] Vedi I. Salvadori, Agenti artificiali, opacità tecnologica e distribuzione della responsabilità penale, in Riv. It. Dir. Proc. Pen., 2021, 1, p. 83.
[17] Vedi così S. Preziosi, La responsabilità penale per eventi generati da sistemi di IA o da processi automatizzati, in R. Giordano e al. (a cura di), Il diritto nell’era digitale, Giuffré, 2022, p. 713 ss.