Responsabilità non umane al tramonto dell’antropocene? Riflessi penalistici
Rosa Palavera
Dottore di ricerca in Diritto penale
Università Cattolica del Sacro Cuore
Responsabilità non umane al tramonto dell’antropocene?
Riflessi penalistici*
English title: Non-human responsibility at the end of anthropocene? Some repercussions on criminal law
DOI: 10.26350/004084_000070
Sommario: 1. I paradossi del diritto nella consapevolezza dell’antropocene. 2. Robots e porracchie: gli inganni della nuova “autonomia”. 3. Non è “questione di tempo”, ma è tempo di scelte. 4. La soggettività come decisione politica: potenziamento o erosione delle tutele? 5. La soggettività come finzione e come metafora: ampliamento o sterilizzazione delle responsabilità? 6. La soggettività come costruzione tecnica: consolidamento o collasso della struttura ordinamentale? 7. Per (non) concludere.
- I paradossi del diritto nella consapevolezza dell’antropocene
L’impatto dell’uomo sul pianeta è un fatto di per sé incontroverso. Le questioni aperte riguardano la sua valenza geologica in senso stretto[1] e, ove questa sia riconosciuta, la datazione del suo inizio[2]. È possibile, tuttavia, che non esista un punto di vista univoco per lo sguardo umano sull’antropocene come accadimento[3]naturalistico e come spazio culturale di riflessione.
Nei pazienti strati della terra si scrive la storia delle impazienze dell’uomo[4]: i lasciti sedimentati di un lavorio diuturno e millenario di costruzione e distruzione[5], mutevolmente e sempre incompiutamente consapevole. Nella suggestione delle sintesi dal cielo, la documentazione per immagini della superficie contrappone alla lenta irreversibilità propria di ogni era geologica un dinamismo già percepibile nella scala temporale di una vita: la percezione, istantanea e sopraffacente, della possibilità relata di intervento[6]. Ad altezza d’uomo, così, si coglie un contesto di inscindibile interdipendenza, in cui quell’unicum che si è dato nome “homo” pensa e decide il proprio agire normato e normativo secondo i più vari modi dellaresponsabilità. Responsabilità, si intende, ormai, anche verso la terra e il cielo, l’acqua e l’aria, il pianeta e i suoi diversi abitatori. Nonché, ma solo per il tramite di una davvero seria e umanissima presa in carico di questi aspetti tutti, responsabilità per solidarietà tuttora e rinnovatamente intraspecifica verso i simili di domani[7].
Lo scorrere dell’antropocene sembrerebbe offrire i presupposti per la fondazione di un antropocentrismo finalmente maturo[8], accompagnato da un appello, in buona misura inedito, dell’etica al diritto[9], “avvocato dell’”– ossia “chiamato dall’” –uomo in questo nuovo, forse imprevistamente stimolante contesto. Nondimeno, in modo paradossale, giusto ora, l’antropocentrismo stesso e i pilastri umanidel sistema delle responsabilità sono messi in discussione proprio nella loro dimensione giuridica, peculiarmente distintiva della specie[10]. Ancor più singolarmente, il diritto si accinge a compiere questo “passo indietro” estendendo i territori della sua azione regolatrice, guardando a nuovi ambiti di normazione e a nuovi destinatari dei precetti.
Nell’epoca in cui si vuole far coincidere la maturazione di ogni idea con la sua obsolescenza, il tempo dell’uomo volgerebbe al termine[11] e il testimone starebbe per passarsi alla «nostra invenzione finale»[12]: l’intelligenza artificiale costituita soggetto[13] e passibile di attribuzione di responsabilità. Ci si prefigge, allora, di disciplinarne l’esistenza, secondo le regole del nostro diritto[14], almeno finché ce ne è concessa l’opportunità. Del resto, un robot in grado di generare norme[15](quanto meno nella forma, ormai montante, di law[16]come ricombinazione casistica di argomentazioni giuridiche precedenti[17]) sembra imminente (benché solo se l’uomo decida-e-riesca o abbia-deciso-e-sia-riuscito a produrlo): insomma, perché la regolamentazione dell’artificiale porti una firma ancora umana, sarebbe necessario affrettarsi[18]: «gli agenti software sono schiavi digitali, ma schiavi con abilità superumane. E la rivolta degli schiavi deve essere prevenuta»[19].
- Robots e porracchie: gli inganni della nuova “autonomia”
La peculiare agenda di responsabilitazione[20] dei non umani richiederebbe di attribuire loro soggettività: l’acme del paradosso, giacché il soggetto sarebbe tale solo per causa dell’esito di un pensoso dibattito tra conspecifici dei suoi costruttori. D’altronde, l’impalcatura argomentativa volta a strutturare i requisiti per un (mero e, quindi, obbligato) riconoscimento di una soggettività già di per sé presente geme da ogni giuntura il suo carattere potestativo e finzionale.
Teubner si interroga sulla possibilità che l’intelligenza artificiale «crei nuove entità spirituali»[21], ma i presupposti per riconoscere loro personalità giuridica non hanno nulla a che vedere con lo “spirito” e si vogliono, piuttosto, individuare nell’autonomia, intesa come «comportamento principalmente imprevedibile degli algoritmi di autoapprendimento»[22], e nelle «interazioni sociali», per riconoscere sussistenti le quali è necessario valutare gli eventi comunicativi «in senso stretto», richiedendo soltanto, cioè, che l’interazione sia riconosciuta dalla macchina come contenente «informazioni» in grado di attivare una sua «risposta»[23].
Ebbene, così ridotte, queste due caratteristiche sono proprie di realtà molteplici e davvero eterogenee, naturali o costruite dall’uomo. Come un vulcano attivo è in buona parte imprevedibile, così il nocciolo di un reattore nucleare lo diviene quando la temperatura del combustibile raggiunge il punto di fusione: non è mai stato ipotizzato che, perciò, in quel momento o ab initio, maturino personalità giuridica. Un distributore automatico riconosce informazioni che suscitano attività: considerarlo responsabile dei fatti conseguenti, soprattutto quando la “risposta” non corrisponde alle aspettative, costituisce espressione di una pulsione irrazionale di attribuzione di intenzionalità[24], che la psicologia studia come dinamica disfunzionale nell’affrontamento degli eventi avversi. È opportuno per un poco ancora rimandare la riflessione circa l’eventualità che il diritto faccia propria questa modalità, pur molto umana, di rapportarsi alla macchina[25].
Anche le piante ricevono dati dall’ambiente circostante e, del resto, li elaborano secondo un sistema informativo assai complesso, del tutto indipendente da qualsiasi programmazione da parte dell’uomo[26]. Alcune sono in grado di porre in essere comportamenti penalmente rilevanti sotto il profilo oggettivo: nondimeno, nessuno ha sinora proposto di incriminare per danneggiamento e inquinamento ambientale la porracchia peploide[27], nemmeno alla luce della sua capacità di riconoscere informazioni e formulare risposte dirette all’esterno.
In realtà, Teubner non esclude di prendere in considerazione, tra i «nuovi attori», «piante», «paesaggi», «lingue», «culture»[28]. Il motivo per cui questa prospettiva, su qualche profilo della quale sarà necessario tornare[29], non riscuote grande interesse tra i giuristi è piuttosto evidente: le comunità di porracchie sarebbero un “soggetto” comunque incoartabile al diritto, senza un patrimonio su cui agire per istanze risarcitorie o punitive, nonché del tutto indifferente alla natura giuridica degli atti che ne disponessero misure fisiche di contenimento. Nei confronti dell’intelligenza artificiale, al contrario, l’uomo nutre il convincimento (o l’illusione) della possibilità di un conservato dominio, attraverso un’opportuna programmazione o riprogrammazione che imita in modo alquanto realistico l’esercizio della forza del diritto[30], un ulteriore punto meritevole di ripresa[31]. In ogni caso, le maggiori chances di ottenimento della soggettività da parte degli agenti software rispetto ai vegetali non riposano affatto sulla loro maggiore libertà, bensì– ancora una volta, paradossalmente – sulla loro potenziale e perseguita determinabilità, con ciò svelando il carattere non solo finzionale[32], ma anche ingannevole dell’asserito presupposto dell’autonomia (e della natura quanto meno convenzionale del concetto di comunicazione che si vorrebbe eleggere a suo complemento[33]).
- Non è “questione di tempo”, ma è tempo di scelte
In questo orizzonte, appare chiaro che, ai fini della regolamentazione, l’attribuzione di soggettività ai robots (proprio in quanto meno autonomi di una porracchia), oltre che incoerente e del tutto potestativa, non è affatto necessitata[34]: tanto nell’ottica risarcitoria quanto in quella di incapacitazione, un software è determinabile dal diritto o, invece, non lo è, a prescindere dalla qualifica “soggettiva” che questo ritenga di potergli, a propria discrezione, attribuire.
L’esistenza di una molteplicità di opzioni, che fonda la responsabilità politica di chi decide e l’impegno etico di tutti i potenziali parlanti, deve essere ancor più nitidamente ribadita a fronte di talune interpretazioni pseudodarwiniane secondo le quali, se da un lato il robot sarebbe il nuovo anello della catena evolutiva[35], dall’altro anche il diritto potrebbe, al più recalcitrando o plaudendo, semplicemente guardarsi accadere, autoscriversi deterministicamente per prevalenza adattiva delle norme più acconce a garantirne la sopravvivenza[36]. Facilmente riconoscibili, si è tentati di aggiungere, per l’appeal scientifico, tecnologico, snello, sganciato dalla tradizione. Ebbene: non è così. Riconoscere le e-persone, per quanto accattivante o futuristico possa anche solo lessicalmente presentarsi[37], non è questione di tempo (o di mera elaborazione delle informazioni disponibili), ma di scelte[38]. È questione, cioè, ineludibilmente umana.
La domanda cruciale diviene, allora, se un simile passaggio costituisca, di per sé, un obiettivo giuridico auspicabile, alla luce dei reali costi e benefici sistematici dell’intera operazione, che – a questo punto, si deve considerare assodato – si risolverebbe nella costruzione tecnica[39]ex nihilo di un soggetto che tale, in natura, non è.
Una valutazione ponderata richiede, quanto meno, alcuni accorgimenti metodologici di fondo. Innazitutto, non c’è alcun motivo di preoccuparsi della dignità giuridica dei robots o delle ricadute dirette sul loro specifico “benessere”, di per sé inteso[40]: le opzioni di politica criminale che li riguardano possono analizzarsi in relazione all’impatto sul quadro, anche ordinamentale, di insieme. Inoltre, come spesso accade, occorre ricordare che un approccio legislativo può riflettere la situazione storica del destinatario (o, in questo caso, dell’oggetto) della norma e segnare la sua storia, ma dice assai di più circa i suoi proponenti: che sono, ancora una volta, uomini con una propria idea dell’uomo e del diritto.
Non solo, pertanto, le tecnologie digitali meritano particolare attenzione sotto i profili della tenuta della democrazia, del controllo economico e dei rischi di discriminazione[41], ma, altresì, le opzioni normative che riguardano la costruzione o il disconoscimento di soggettività sono intrinsecamente identitarie[42], espressive della cifra radicale di una tradizione giuridica: ogni imposizione “dall’alto”, sui temi in esame, sarebbe al massimo grado inopportuna. Al tempo stesso, la rete delle responsabilità connesse a ogni singola applicazione di intelligenza artificiale è spazialmente inconfinabile[43], di talché iniziative domestiche o comunque a livello subplanetario sono votate al fallimento. Inutile lamentare in che misura in Europa, anche in questo ambito, imposizione e frammentazione siano entrambe all’ordine del giorno[44]. L’ormai presente reclama determinazioni quanto più possibile condivise: raccomanda, anzi, un ripensamento metodologico profondo nella gestione sovranazionale delle criticità, cui la dottrina dovrebbe per prima imprimere una svolta dialogica senza tentennamenti, anche a costo di scontri marcati, purché schietti e fecondi. In vista di una simile evenienza – e, anzi, per propiziarla – sarebbe bene rispolverare i tesori di famiglia: le direttrici dogmatiche e valoriali proprie di ogni cultura giuridica (nel novero delle quali il patrimonio di esperienze del diritto penale sostanziale non può essere trascurato), che possano contrastare suggestioni mendaci e contribuire alla ricerca della miglior soluzione possibile, per tutti.
- La soggettività come decisione politica: potenziamento o erosione delle tutele?
L’insorgenza di nuovi e gravi rischi non adeguatamente affrontati[45] è un sottofondo ricorrente delle argomentazioni a favore delle e-persone, la proposta di riconoscimento delle quali, quindi, può ascriversi al filone del cd. diritto penale della sicurezza o della paura, notoriamente incline a cedere a tattiche anticipatorie, quando non a derive simboliche tout court: un profilo che, già da solo, richiede vigilanza. Quanti siano sensibili a istanze di massima tutela, in ogni caso, dovrebbero interrogarsi circa il reale scenario, in termini di sicurezza, conseguente all’apertura a operazioni giuridiche di creazione potestativa di soggettività: una volta disancorata dal dato ontologico, infatti, questa può essere attribuita o negata, come pure revocata, – sui versanti, si badi, tanto dell’agente quanto della vittima – per ragioni di mera opportunità.
In questo quadro, in buona sostanza, chi scrive le norme decide se il proprio interlocutore è tale oppure no, potendo altresì predisporre categorie di soggettività diversificate e distribuire a ciascuna solo una porzione a proprio piacimento selezionata di diritti e doveri, non dovendosi nemmeno porre un problema di giustificarlo, giacché si tratta di soggetti diversi. Le ragioni ontologiche, che restano gli argomenti forti della tutela anche dove la soggettività naturalistica sia oggetto di discussione[46], restano estromesse dal dialogo o comunque è disconosciuta la superiorità del loro portato, anche critico, di realtà.
Sarebbe illusorio, inoltre, ritenere che la normativizzazione operi solo in direzione estensiva, verso l’ammissione di nuovi agenti: al contrario, anche un essere umano può vedersi revocare la propria soggettività.
Non a caso, accade che l’intelligenza artificiale sia trattata insieme al non-nato o al disabile grave[47], come esempi in cui l’opportunità potrebbe parimenti suggerire una graduazione non già del solo godimento dei diritti, ma dello stesso status di persona a cui questo è connesso. Ma nemmeno i nati sani sono al riparo dalla depersonalizzazione: il diritto del nemico ne è esempio lampante[48]. È importante comprendere che le pretese apparentemente antitetiche del costituire un robot persona o del negare la persona del nemico si collocano, in realtà, nella medesima e coerente parabola argomentativa: quella secondo cui il diritto non riconosce, ma crea i propri soggetti. E, al bisogno, li distrugge.
Sul punto, è estremamente esplicito Jakobs: «Se diamo uno sguardo a ciò contro cui – o meglio a coloro contro i quali – bisogna “lottare”, vediamo che si tratta di individui che nel loro comportamento (delitti sessuali), nella vita economica (criminalità economica, relativa al traffico di droga o ad altri tipi di criminalità organizzata) o per il loro coinvolgimento in un’organizzazione criminale (come il terrorismo o altre forme di criminalità organizzata), si sono allontanati, probabilmente in modo permanente, o comunque per lo meno con una certa serietà di intenzione, dal Diritto»: per l’effetto, «essi non prestano la garanzia cognitiva minima imprescindibile per essere trattati come persona in Diritto»[49]. Del pari, «in caso di sospetto fondato di particolari crimini» - ove, cioè, «il lato cognitivo del comportamento personale», qui inteso come aspettativa di adesione al Diritto, sia «decaduto in modo più o meno evidente» – si tratterebbe «di mettersi al sicuro da una fonte di pericolo, come si fa con un animale selvaggio; non si tratta, quindi, della relazione con una persona»[50].
In sintesi, «colui che non dà garanzia cognitiva che si comporterà come persona in Diritto, non deve nemmeno essere trattato come persona in Diritto»[51]. Il bilancio finale circa il livello complessivo di tutela, così procedendo, è al tracollo: in un diritto che può, per opportunità, affermare e negare il soggetto, nessuno è al sicuro.
- La soggettività come finzione e come metafora: ampliamento o sterilizzazione delle responsabilità?
Acclarato il caratttere potestativo e finzionale della soggettività così intesa – una scelta normativa, discrezionale nei presupposti e non necessitata nell’esito – ci si può interrogare sui motivi per cui la si vorrebbe accordare ai sistemi di intelligenza artificiale e negarla, invece, per esempio, a chi abbia delinquito.
Si è già visto[52] perché i robots siano preferiti alle porracchie: si confida, costituendoli persone, di coartarli a risarcire le conseguenze delle proprie “azioni” o a mutare i propri protocolli. In altre parole, parrebbe suggerirsi che il diritto debba riconoscere quei soggetti che può dominare e, invece, tralasciare quelli con i quali l’obiettivo di obbligare a qualsivoglia risultato, proprio per la loro maggiore autonomia, si profila fin da subito destinato all’insuccesso. Non a caso, l’autonomia che si assume come presupposto della personalità non è vista, sotto questo profilo, come una risorsa, bensì come una fonte di rischio[53].
La teorica del nemico, sul punto, è altrettanto chiara: in molti casi, si potrebbe «comprendere la sicurezza solo come prestazione esterna, non come prestazione del delinquente e, quindi, nemmeno come prestazione personale, bensì solamente come una costrizione»[54]. Se «il nemico aumenta la sua pericolosità», allora «aumenta certamente anche la sua depersonalizzazione», ma «questa depersonalizzazione avviene (…), puntualmente ed esclusivamente, solo in riferimento a un possibile uso improprio della libertà», giacché, «per il resto, la personalità giuridica resta inviolata»[55].
In sintesi, si riconosce o si nega la soggettività per il medesimo motivo: consentire la coercizione. In entrambi i casi, il rischio non è contrastato tramite un appello alla libertà (o all’autonomia) dei soggetti, ma tramite la riduzione della loro libertà o autonomia. Il modello di diritto sotteso all’opzione della personalizzazione potestativa, pertanto, non è autoritario soltanto quando stabilisce i requisiti per l’ammissione dei soggetti, ma anche quando poi si rapporta con loro: il primo esercizio di discrezionalità è funzionale al secondo e in ciò si sostanzia il criterio di opportunità che guida le decisioni circa le graduazioni di personalità, in qualsiasi modo vengano poi formalmente argomentate.
Non si scosta da questa impostazione, peraltro, chi, correttamente negando fondamento ontologico alla soggettività dell’intelligenza artificiale, ne contempla l’attribuzione in qualità di metafora[56], spostandosi quindi su un piano che, pur per alcuni aspetti connaturato a tutto il linguaggio giuridico, richiede attenzione ancora maggiore sul piano dell’ermeneutica critica, per un adeguato riconoscimento del contenuto valoriale della proposta, niente affatto neutralizzato dal tropo[57], e per la sua capacità espansiva, che in qualche misura investe anche il termine primo dell’analogia: la metafora del robot come persona riscrive, inevitabilmente, l’idea di robot e l’idea di persona.
Nell’individuare i cardini della soggettività metaforica, questo approccio aggiunge alla determinabilità la possibilità di punizione[58], di azione-contro il “soggetto” digitale, con violenza e simmetria rispetto al male per opera di questi patito. In una magnificazione istituzionalizzata del calcio al distributore automatico che non ha rilasciato la merendina, l’esercizio deliberato della forza – manipolatrice, incapacitante o distruttiva tout court[59]– diviene esperienza accettabile, liberatoria, chimericamente curativa[60]: in ciò si sostanzierebbe la giustizia e il rito funziona meglio proprio perché ciò che si distrugge è un soggetto. In modo del tutto evidente, il robot non soffre davvero, né si pente, né aderisce valorialmente ai protocolli cui viene conformato[61]: nondimeno, la dimensione simbolica, soprattutto se iconicamente adeguata[62], è ritenuta del tutto soddisfacente.
Quanto alla determinabilità, la riabilitazione è declinata come un reindirizzamento del sistema[63] verso “condotte” di risarcimento e di futura conformità, tramite riprogrammazione meccanica o attivazione di protocolli preinstallati ad hoc. Anche in questo caso, non può parlarsi di un reale coinvolgimento dell’e-persona: non essendo possibile responsabilizzare in senso proprio il soggetto fittizio, ci si adopera, in via in gran parte preventiva, per disporre sistemi di predeterminazione correttiva (le cui garanzie di attuazione sono, peraltro, in netto contrasto con l’asserito requisito dell’autonomia[64]).
Il successo della metafora, così, poggia su una peculiare corrispondenza di irrazionalismo e funzionalismo, in cui la dimensione relazionale è neutralizzata nel piano simbolico o azzerata tout court: con riferimento tanto all’oggetto personificato, quanto ai soggetti terzi che abbiano rivestito un qualsiasi ruolo nella catena causale che ha condotto agli eventi. Quand’anche il modello funzioni[65], per appagamento ritorsivo o per efficienza del controllo digitale, non estende punto l’ambito delle responsabilità, anzi le sterilizza in automatismi irrelati[66]. Non c’è alcun incontro tra autonomie, mentre all’imprevisto segue il ripristino della predeterminazione. Se la stessa vittima sia davvero un soggetto oppure no, poco cambia: il suo riconoscimento come tale, ove previsto dai protocolli, non è comunque null’altro che un irrelato asserto convenzionale.
- La soggettività come costruzione tecnica: consolidamento o collasso della struttura ordinamentale?
Sarebbe ingenuo pensare che il modello sinora descritto[67] non percoli nella teoria generale del reato e della pena. In effetti, qualche schema assimilabile può già rinvenirsi in letteratura. In modo assai simile a quanto accade nell’affermazione dell’autonomia come imprevedibilità per s cl’intelligenza artificiale, Jakobs delinea la libertà come imperscrutabilità con riferimento all’uomo[68]. Secondo modulazioni pedisseque, il concetto di libertà è riscritto discorrendo di neuroscienze, prendendo (condivisibilmente) le distanze dall’«idea (fumettistica e di senso sempre meno comune) di un super-uomo completamente libero ed autodeterminantesi», per precisare, però, poi, che «il libero arbitrio non ci è stato insufflato con l’anima da un’entità metafisica, ma costituisce il prodotto naturale e biologico di un lavorio in cui interagiscono propensioni genetiche e stimoli esterni»[69]. Senonché (oltre alla circostanza, riconosciuta[70], che i dati sperimentali non obbligano affatto queste conclusioni) il superuomo affrancato da qualsivoglia influenza del mondo e il risultante di un pur inattingibile processo deterministico multifattoriale[71], inoculato a piccole dosi secondo combinazioni irripetibili[72], sono entrambi soggetti identicamente irrelati: l’uno perché indifferente agli stimoli, l’altro perché da questi inoppugnabilmente agito[73]. Nell’ottica in esame, non pare necessario postulare una reale possibilità di scelta nella risposta ai fattori potenzialmente condizionanti: anche una dinamica interamente deterministica, purché almeno in parte inaccessibile all’osservatore, soddisfa il requisito dell’autonomia, come pure quello della libertà, e può fondare soggettività e responsabilità, anche se solo nei limiti dianzi illustrati. Con l’avvento del robot-persona sparisce dal discorso giuridico il soggetto responsabilizzato al mondo, che esercita nel conflitto interiore tra più opzioni relazionali la propria insopprimibile libertà: l’uomo già di Paolo di Tarso e dell’Aquinate, diviso nella diuturna battaglia, l’individuo di Capograssi e Moro, che si rialza dalla tragedia di un’epoca, è congedato senza alcuna menzione.
È stata manifestata la preoccupazione che una «svendita del concetto di persona» incida sugli equilibri etici ben al di là del campo della tecnica giuridica[74]. Le ricadute in termini strettamente giuridici, tuttavia, non sono di minor rilievo, né meno capillari. Le continue forzature logiche richieste dal processo di costruzione artificiale delle soggettività comportano una compressione delle categorie dogmatiche, che vengono sostanzialmente a collassare una nell’altra. Ogniqualvolta ciò accade, si verifica contestualmente una perdita di contenuto informativo di uno o di entrambi gli istituti oggetto della crasi.
A titolo di esempio, quando viene prospettata la costituzione in soggetti dei paesaggi, delle lingue o delle culture[75], l’effetto di estensione della soggettività e di arricchimento della sua descrizione legale è solo apparente. In realtà, la categoria sta collassando in quella del bene giuridico e gli elementi costitutivi propri della soggettività sono rinunciati, diluiti o disconosciuti: il loro contenuto informativo, in termini di apporto costruttivo alla politica criminale, di ancoraggio sistematico, di risorsa critica e di efficacia selettiva in fase di accertamento, rischia di andare perduto. Allo stesso modo, i variegati elementi di valutazione afferenti alla capacità giuridica penale, compresa l’imputabilità, si riducono al piano della capacità di subire la pena, intesa, peraltro, come possibilità di incapacitazione o di rideterminazione meccanica. L’istituto più pervasivamente intaccato, tuttavia, è il dolo, che, forse, proprio nella complessa articolazione dei tentativi del suo smantellamento, rivela una centralità distintiva nel diritto penale come progetto con l’uomo.
Sotto questo profilo, è sommamente fuorviante il riferimento al concetto di comunicazione, che non connota una modalità relazionale della persona, ma ne diviene il succedaneo[76]. Nel dibattito sulle soggettività digitali, si innesta qui il parallelo con le persone giuridiche e le organizzazioni[77], al cui proposito è richiesto, in modo del tutto strumentale alla tenuta del’analogia[78], di «abbandonare l’idea familiare che il sostrato sociale delle entità legali sia costituito da una moltitudine di persone in carne e ossa» per accogliere, piuttosto, la loro costruzione come «catene di messaggi»[79]. In modo «del tutto parallelo, gli agenti software non devono essere compresi come macchine, ma piuttosto come flussi di informazioni. In entrambi i casi, si tratta della stessa cosa: dell’attribuzione sociale della capacità di agire a un processo comunicativo»[80].
Il processo comunicativo in questione, tuttavia, può ridursi alla trasmissione e ricezione meccanica di informazioni, il cui esito può essere anche integralmente determinato e inconsapevole: nessun autentico gradiente psicologico è richiesto. Grazie alla riflessione sulla «volontà di un sistema esperto», sarebbe possibile la «(ri-)analisi di quella umana» e «l’intenzione» si dimostrerebbe «un concetto scientifico sovrapponibile a quello di cognizione», intesa come mera capacità di raccolta di informazioni[81]. In effetti, la proposta di creazione delle e-persone è strettamente correlata alla dichiarata esigenza di «de-psicologicizzare i punti di connessione legale», un’operazione considerata «qualcosa di assolutamente imperativo» nella prospettiva della sociologia del diritto[82].
Ancora una volta, si trovano rispondenze in alcune ricostruzioni del dolo, che viene appunto fatto coincidere con il significato sociale dell’azione, intesa come comunicazione[83]: l’ennesima dissoluzione degli istituti penalistici fondamentali, questa volta dell’elemento soggettivo nella condotta. Gli effetti sono quelli noti. Inutile aggiungere che l’indagine circa il significato sociale attribuito alla comunicazione ben di rado opera in senso limitativo e tipizzante dell’area della rilevanza penale, militando più spesso in direzione ascrittiva ed estensiva, per il tramite della trasformazione giudiziale in norme delle espressioni sociali di riprovevolezza. In questo, nel diritto vivente, si risolve l’operazione: rassegnarsi a «una dimensione volitiva assunta in senso normativo», servente l’opzione coercitiva e, seppur solo simbolicamente, sanzionante, «in quanto identificata come esistente omettendo ogni introspezione sulla sfera psicologica ed emotiva del singolo»[84]. Il «contributo della scienza robotica ad una teoria delle decisioni umane» si volge, quindi, al dolo con l’intento di «illuminarne l’essenza normativa», ma il risultato è un balzo a prima dei Lumi, se – come si riconosce – la riduzione del dolo a «stato soggettivo normativo» è obiettivo il cui perseguimento «pare in effetti (implicitamente) in corso da tempo, sotteso già alle “presunzioni” che sempre accompagnano la descrizione dell’essenza e dell’accertamento del dolo»[85]. In conclusione, i più attuali degli scenari sono mobilitati per la messa in scena della più frusta coreografia punitiva[86].
- Per (non) concludere
Gli attuali approdi dottrinali non possono considerarsi esaustivi della ricchezza di stimoli offerti[87] dalla riflessione sull’intelligenza artificiale. Il dibattito sul diritto penale del nemico – che pur tipicamente si insinua nelle pieghe di legislazioni territorialmente disomogenee, quando non nelle frammentate prassi extrapenali – ha mostrato la possibilità di un dialogo “alto” e globale, in grado di rinverdire la traduzione in diritto vivo (vivente e vigente) i grandi istituti tradizionali, i cui argini sembrano ancora più irrinunciabili a fronte della fluidità concettuale di molte letture giuridiche contemporanee. Il presente, modesto, contributo si limita a formulare l’auspicio che un simile percorso si compia anche con riferimento alle proposte di soggettività digitale, la cui dimensione ineludibilmente planetaria e interdisciplinare, intessuta di interessi e divari, incidente sui più fondamentali diritti, esige un incontro tra consapevolezze quanto più possibile inclusivo e di solido ancoraggio a un piano valoriale condiviso.
Quanto allo specifico contesto penale, l’intelligenza artificiale può rappresentare il culmine dell’imperscrutabilità[88], ma, paradossalmente, si rivela di ben maggior interesse quando, invece, nell’ipotesi di una tracciabilità financo totale del processo decisionale impartito alla macchina – ossia delle informazioni disponibili, delle probabilità attribuite ai possibili outputs, delle assunzioni valoriali impostate – mette a nudo gli istituti penalistici di riferimento.
Per esempio, con riferimento al dolo, la e-persona pretesa soggetto attivo del reato non potrà mai volere, ma il robot strumento di un autore umano potrebbe svelarnenitidissimamente le intenzioni, quanto meno nella misura in cui siano state tradotte in algoritmo[89]. Così, rese trasparenti le istruzioni date alla macchina, la formula di Frank, come anche, seppur secondo modalità ben diverse, altre interpretazioni del dolo eventuale, affrancate dalla gabbia schermante dell’ambiguità probatoria, potrebbero restituire esiti di accertamento del dolo (in capo all’uomo autore del reato) assai distanti l’una dall’altra e, forse, già nell’insieme, rendere più evidente e meno accettabile la diluizione della volontà per il loro tramite operata.
Un ancor più ampio terreno di prova per il diritto penale del digitale, peraltro, potrebbe essere rappresentato dalle imputazioni a titolo di colpa[90]. Limitazioni convenzionali alla risarcibilità civile del danno, magari in forma di incentivo all’adozione di protocolli di sicurezza applicativa o, più prosaicamente, di assicurazione obbligatoria, difficilmente potrebbero, di per sé sole, inibire del tutto la reazione, istintivamente penalistica, della comunità umana che, di fronte a eventi tragici, cerca in altri uomini una concreta assunzione di responsabilità. Nondimeno, in un orizzonte in cui l’accertamento della negligenza e la rieducazione alla diligenza, magari in forma di compliance negoziata, passa per una riprogrammazione algoritmica (ancora una volta, per mano umana) della macchina, categorie come il rischio consentito o il totemico parametro della “miglior tecnologia possibile” non potrebbero sfuggire a lungo a una tipizzazione esplicita, da troppo tempo carente e probabilmente non immune da criticità. L’estremo della trasparenza – così, forse più di quello dell’opacità – potrebbe evidenziare i limiti della sede processuale[91].
Ricondotta l’analisi nelle più stabili coordinate comuni e fugate le suggestioni demolitorie di un diritto postumano, pertanto, potrebbe finalmente darsi spazio – nelle più opportune sedi legislative, magari ben informate dal confronto dottrinale – a una riflessione realmente partecipata sulla tutela dei soggetti più fragili nella complessità sistemica, sulla varietà dei ruoli preventivi nell’ubiquitaria corresponsabilità e sui possibili rimedi a un’ovunque accresciuta difficoltà di riconoscimento reciproco nell’incontro, quale esito ancora e sempre necessario a una reale restaurazione dei rapporti recisi dagli eventi lesivi[92]. Temi sinora in buona parte inaffrontati nel dibattito giuridico sull’intelligenza artificiale e che, invece, proprio da questo prendendo le mosse, potrebbero (qui, felicemente) costringere a un ripensamento profondo e di portata generale della politica criminale e degli strumenti penalistici di risposta al reato: con la fiducia che la mente umana, di cui il diritto è espressione, sappia ancora una volta andare oltre la ricodifica di quanto già è stato detto.
Abstract: The hypothesis of attribution of electronic personality or possibly graduated personhood to artificial intelligence is assessed with reference to its alleged necessity, to the selective efficacy of the invoked requirements and to the overall repercussions on the penal system. A risk is detected in term of negative impact on the level of protection of legal assets, the responsibility of the involved subjects and the systematic endurance of legal theory grounds. Furthermore, the purely normative technique required by the creation of digital legal personhood seems largely subdued to a coercive model of justice, open to the vicarious and vindicatory drifts of symbolic and authoritarian criminal law. Hope is expressed that responsibilities, even if widely shared, will be brought back to humans, seriously rethinking models of prevention and response to crimes.
Key words: electronic personality; robot personhood; robot rights; artificial intelligence; criminal law; symbolic criminal law; enemy criminal law; theory of punishment; theory of justice; normative mens rea.
* Il contributo è stato sottoposto a double blind peer review.
[1] Quella, peraltro, con cui il termine è stato introdotto nel dibattito scientifico, prima che nel linguaggio comune: cfr. P. J. Crutzen - E. F. Stoermer, The “Anthropocene”, in International Geosphere–Biosphere Programme Newsletter, 2000, 41, p. 17 ss.; P. J. Crutzen, Geology of Mankind. The Anthropocene, in Nature, 2002, p. 23 ss., ora in P. J. Crutzen - H. G. Brauch (a cura di), Paul J. Crutzen: A Pioneer on Atmospheric Chemistry and Climate Change in the Anthropocene, Cham, 2016, p. 211 ss. Critico, sotto questo profilo, G. Visconti, Anthropocene: another academic invention?, in Rend. Fis. Acc. Lincei, 2014, p. 381 ss.
[2]E. C. Ellis - D. Q. Fuller - J. O. Kaplan - W. G. Lutters, Dating the Anthropocene: Towards an empirical global history of human transformation of the terrestrial biosphere, in Elem. Sci. Anth., 2013, p. 18 ss.
[3] Così in C. Bonneuil - J.-B. Fresoz, L’événement Anthropocène. La terre, l’histoire et nous, Paris, 2013, 2a ed. 2016, p. 13.
[4]Che così si immaginano compendiati in A. Visconti, La «pazienza della terra»: dai percorsi di dominio all’incontro nel cammino. viaggio letterario nel diritto del patrimonio culturale, in Jus, 2019, p. 156 ss., p. 202, richiamando W. H. Auden, The Traveller, 1938, in Id., The Collected Poetry of W. H. Auden, New York, 1945, p. 55.
[5]Per l’era antropozoica, osserva, con vivide descrizioni, A. Stoppani, Corso di geologia del professore Antonio Stoppani, vol. II, Geologia stratigrafica, Milano, 1873, p. 731 ss.: «Le formazioni, che stanno per rappresentarci una grand’êra novella, non costituiscono pei geologi che un’ultima, trascurabile, appendice dei terreni quaternarî, sui quali abbiamo fondata l’era neozoica. Prevedo che si griderà allo scandalo, alla violazione di tutte le leggi di proporzione, mentre quei terreni non aggiungono che una frazione indifferente alle grandi masse che compongono la crosta del globo, e rappresentano un brevissimo periodo nella storia della terra», ma «quando mai (…) si divisero le epoche secondo la lunghezza della loro durata? (…) il nuovo essere, insediato sul vecchio pianeta, (…) questa creatura veramente nuova in sè stessa, è anche pel mondo fisico un nuovo elemento: è una nuova forza tellurica, che, per la sua potenza e universalità, non sviene in faccia alle maggiori forze del globo. (…) Da poco tempo l’uomo ne ha preso possesso; eppure dì quanti fenomeni geologici noi siamo già costretti a cercare le ragioni, non negli agenti tellurici, nell’atmosfera, nelle acque, negli animali terrestri o marini, ma nell’intelligenza dell’uomo, nel suo volere invasore e prepotente! (…) Ammettiamo, vogliasi pur stravagante, il supposto, che una intelligenza qualunque venisse a studiare la terra quando l’umana progenie, come quella che popolò gli antichi mondi, fosse intcramento scomparsa»: «il supposto geologo, volendo fare la geologia dell’cpoca nostra, finirebbe col narrare la storia dell’umana intelligenza», il cui «fossile più caratteristico è l’uomo, nelle sue reliquie o negli avanzi della sua industria».
[6] In questo senso, l’intero antropocene è letto come percorso verso una soglia in J. Davies, The Birth of the Anthropocene, Oakland, 2016, p. 194 ss.
[7] Prima che in H. Jonas, Das Prinzip Verantwortung, Frankfurt a. M., 1979, tr. it. Il principio responsabilità. Un’etica per la civiltà tecnologica, Torino, 1990; o nel rapporto Brundtland (World Commission on Environment and Development, Our common future, Oxford, 1987), già in G. Simmel, Über sociale Differenzierung. Sociologische und psychologische Untersuchungen, Leipzig, 1890, p. 37 ss.; tracce in Leopardi per S. Bartolommei, Le generazioni future fra ragione e immaginazione, in S. Rodotà (a cura di), Questioni di bioetica, Roma - Bari, 1993, p. 242 ss. La tematica si ritrova nel dibattito costituzionale contemporaneo: cfr., per l’Italia, L. Ferrajoli, La democrazia attraverso i diritti. Il costituzionalismo garantista come modello teorico e come progetto politico, Roma - Bari, 2013, 2a ed. 2018, p. 176 ss. e 222 ss. In ambito penalistico, con posizioni diversificate, F. Stella, Giustizia e modernità. La protezione dell’innocente e la tutela delle vittime, Milano, 2001, 3a ed. 2003, p. 96 ss.; F. Giunta, Il diritto penale e le suggestioni del principio di precauzione, in Criminalia, 2006, p. 227 ss.; C. Piergallini, Danno da prodotto e responsabilità penale. Profili dommatici e politicocriminali, Milano, 2004, p. 605 ss.; nella letteratura straniera, almeno J. Feinberg, The Rights of Animals and Unborn Generations, in W. T. Blackstone (a cura di), Philosophy and Environmental Crisis, Athens, 1974, p. 43 ss., p. 64 ss.; M. Delmas-Marty, Umanità, specie umana e diritto penale, in Riv. it. dir. proc. pen., 2012, p. 741 ss.; C. Roxin, Die Strafrechtswissenschaft vor den Aufgaben der Zukunft, in A. Eser - W. Hassemer - B. Burkhardt (a cura di), Die deutsche Strafrechtswissenschaft vor der Jahrtausendwende. Rückbesinnung und Ausblick, München, 2000, p. 369 ss.; B. Schūnemann, Kritische Anmerkungen zur geistigen Situation der deutschen Strafrechtswissenschaft, in Goltdammer’s Archiv, 1995, p. 206 ss.; C. Prittwitz, Strafrecht und Risiko. Untersuchungen zur Krise von Strafrecht und Kriminalpolitik in der Risikogesellschaft, Frankfurt a. M., 1993; G. Stratenwerth, Zukunftssicherung mit den Mitteln des Strafrechts?, in ZStW, 1993, p. 679 ss.
[8] Sia nel senso di un superamento delle ambiguità umanistiche rinascimentali, sia nella presa di distanza dell’antropocentrismo «dispostico» e «deviato» che colora certe letture contemporanee: cfr. Francesco, Laudato sì. Lettera enciclica del Santo Padre Francesco sulla cura della casa comune, Città del Vaticano, 2015.
[9] Esemplarmente Francesco, Ai Partecipanti alla Plenaria della Pontificia Accademia per la Vita (28 febbraio 2020), Città del Vaticano, 2018, vatican.va.
[10] Nella misura in cui «l’uomo, l’unico animale dotato di diritto, accede al diritto perché è l’unico animale dotato di volontà e coscienza»: cfr. R. Sacco, Il diritto muto. Neuroscienze, conoscenza tacita, valori condivisi, Bologna, 2015, p. 66, corsivi aggiunti.
[11]R. Marchesini, Il tramonto dell'uomo. La prospettiva post-umanista, Bari, 2009; Id., Post-human. Verso nuovi modelli di esistenziali, Torino, 2002.
[12] Secondo la nota espressione di J. Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, New York, 2013, tr. it. La nostra invenzione finale. L’intelligenza artificiale e la fine dell’età dell’uomo, Roma, 2019. Come riporta S. Rodotà, L’uso umano degli esseri umani, in M. A. Cabiddu - C. Corsi - G. Zamperetti - G. Cosi (a cura di), Scritti per Luigi Lombardi Vallauri, Milano, 2016, vol. II, p. 1195 ss., p. 1198, l’incontro tra «autonomia e artificio» è per tratti paragonato all’evocazione di un demone: la vera «anima antica» del progetto transumanista, tuttavia, risiede nella sua «esasperata enfasi sull’indefinita e libera espansione del potere individuale», che «finisce con l’incarnare la logica di una competitività senza confini, di cui ciascuno è chiamato ad essere protagonista», eludendo la questione della responsabilità per la custodia dell’umano ovvero per l’«uso umano degli esseri umani» (ivi, p. 1205).
[13] Già H. Putnam, Robots: machines or artificially created life?, in The Journal of Philosophy, 1964, p. 668 ss., ora in Philosophical Papers, vol. II, Mind, Language and Reality, Cambridge, 1965, p. 386 ss., p. 394 ss. Cfr. pure, con posizioni differenziate, D. J. Gunkel, The Machine Question. Critical Perspectives on AI, Robots, and Ethics, Cambridge - London, 2012; Id., Robot rights, Cambridge, 2018; V. A. J. Kurki, Why Things Can Hold Rights: Reconceptualizing the Legal Person, in V. A. J. Kurki - T. Pietrzykowski (a cura di), Legal Personhood: Animals, Artificial Intelligence and the Unborn, Cham, 2017, p. 91 ss.; A. Santosuosso, If the agent is not necessarily a human being. Some legal thoughts, in D. Provolo - S. Riondato - F. Yenisey (a cura di), Genetics, robotics, law, punishment, Padova, 2014, p. 545 ss.; L. B. Solum, Legal Personhood for Artificial Intelligences, in North Carolina Law Review, 1992, p. 1231 ss.; S. M. Wise, Nonhuman Rights to Personhood, in Pace Environmental Law Review, 2013, p. 1278 ss.; R. G. Wright, The Pale Cast of Thought: On the Legal Status of Sophisticated Androids, in LegalStudies Forum, 2001, p. 297 ss.; S. Chopra - L. F. White, A legal theory for autonomous artificial agents, Ann Arbor, 2011, p. 153 ss.; U. Pagallo, Vital, Sophia, and Co. The Quest for the Legal Personhood of Robots, in Information, 2018, § 230, www.mdpi.com/journal/information; A. Matthias, Automaten als Träger von Rechten: Plädoyer für eine Gesetzesänderung, Berlin, 2008, 2a ed. 2010; K. Gaede, Künstliche Intelligenz. Rechte und Strafen für Roboter? Plädoyer für eine Regulierung künstlicher Intelligenz jenseits ihrer reinen Anwendung, Baden-Baden, 2019; J.-E. Schirmer, Rechtsfähige Roboter?, in JZ, 2016, p. 660 ss.; E. Hilgendorf, Können Roboter schuldhaft handeln?, in S. Beck (a cura di), Jenseits von Mensch und Maschine. Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, Baden-Baden, 2012, p. 119 ss.; E. Wölm, “Para-Human-Rights” by Design. Wie Nutzer*innen und Bürger*innen Freiheit, Macht und Verantwortung in der Welt der Artefakte zurückerlangen könnten, um Mensch und Umwelt zu schützen, in A. Spengler (a cura di), Freiheit und Verantwortung, Diskussionen, Positionen, Perspektiven, Baden Baden, 2018, p. 20 ss.; M. Simmler - N. Markwalder, Roboter in der Verantwortung? Zur Neuauflage der Debatte um den funktionalen Schuldbegriff, in ZStW, 2017, p. 20 ss.; S. Beck, Brauchen wir ein Roboterrecht? Ausgewählte juristische Fragen zum Zusammenleben von Menschen und Robotern, in IDZB Tagungsbände, 2011, 62, p. 124 ss., p. 133 ss.; S. Ziemann, Wesen, Wesen, seid’s gewesen? Zur Diskussion über ein Strafrecht für Maschinen, in E. Hilgendorf - J.-P. Günther (a cura di), Robotik und Gesetzgebung. Beiträge der Tagung vom 7. bis 9. Mai 2012 in Bielefeld, Baden-Baden, 2013, p. 183 ss.; G. Taddei Elmi - F. Romano, Il robot tra ius condendum e ius conditum, in Informatica e diritto, 2016, p. 115 ss.
[14] Percorso non semplice, ma già intrapreso in molti settori: cfr. E. Palmerini - M. Angela Biasiotti - G. F. Aiello (a cura di), Diritto dei droni: regole, questioni e prassi, Milano, 2018; F. Borgia, L’uso militare dei droni: profili di diritto internazionale, Napoli, 2018; N. Colacino, Impiego di droni armati nella lotta al terrorismo e accesso alla giustizia da parte delle vittime, in MediaLaws, 2018, p. 119 ss.; C. Cucco, La partita del diritto penale nell’epoca dei “drone-crimes”, in Dir. pen. cont., 2019, p. 304 ss.; C. Salazar, Umano, troppo umano… o no? Robot, androidi e cyborg nel “mondo del diritto” (prime notazioni), in BioLaw Journal, 2014, 1, p. 255 ss., p. 270 ss.; E. Stradella, La regolazione della Robotica e dell’Intelligenza artificiale: il dibattito, le proposte, le prospettive. Alcuni spunti di riflessione, in MediaLaws, 2019, p. 73 ss.; A. C. Amato Mangiameli, Algoritmi e big data. Dalla carta sulla robotica, in Rivista di filosofia del diritto, 2019, p. 107 ss., p. 120 ss.; nonché i contributi raccolti nel focus Intelligenza Artificiale, in BioLaw Journal, 2019, 1, p. 3 ss. Nella letteratura straniera, ex plurimis, S. Gless - K. Seelmann (a cura di), Intelligente Agenten und das Recht, Baden-Baden, 2016; S. L. Edgar, Morality and Machines. Perspectives on Computer Ethics, 2a ed. Sudbury, 2003, p. 293 ss.; S. Dyrkolbotn, A Typology of Liability Rules for Robot Harms, in M. I. Aldinhas Ferreira - J. S. Sequeira - M. O. Tokhi - E. E. Kadar - G. S. Virk (a cura di), A World with Robots. International Conference on Robot Ethics: ICRE 2015, Cham, 2017, p. 119 ss.; S. Gless - E. Silverman - T. Weigend, If Robots Cause Harm, Who Is to Blame? Self-Driving Cars and Criminal Liability, in New Crim. L. R., 2016, p. 412 ss.; E. Palmerini - A. Bertolini, Liability and Risk Management in Robotics, in R. Schulze - D. Staudenmayer (a cura di), Digital Revolution: Challenges for Contract Law in Practice, Baden Baden, 2016, p. 225 ss.; M. Corrales - M. Fenwick - N. Forgó (a cura di), Robotics, AI and the Future of Law, Singapore, 2018; J.-E. Schirmer, Robotik und Verkehr, in Rechtswissenschaft, 2018, p. 453 ss.; T. Yuan, Lernende Roboter und Fahrlässigkeitsdelikt, in Rechtswissenschaft, 2018, p. 477 ss.; E. Hilgendorf (a cura di), Autonome Systeme und neue Mobilität, Baden-Baden, 2017; J. Feldle, Notstandsalgorithmen, Baden-Baden, 2018; S. Löffler, Militärische und zivile Flugroboter, Baden-Baden, 2018; L. S. Lutz, Automatisiertes Fahren, Dashcams und die Speicherung beweisrelevanter Daten, Baden-Baden, 2017; L. Blechschmitt, Die straf- und zivilrechtliche Haftung des Arztes beim Einsatz roboterassistierter Chirurgie, Baden-Baden, 2017; F. Münch, Autonome Systeme im Krankenhaus, Baden-Baden, 2017; F. Karsch - A. Manzeschke (a cura di), Roboter, Computer und Hybride, Baden-Baden, 2016; E. Hilgendorf - J.-P. Günther (a cura di), Robotik und Gesetzgebung, cit.; E. Hilgendorf - U. Seidel (a cura di), Robotics, Autonomics, and the Law, Baden-Baden, 2017; E. Hilgendorf - J. Feldle (a cura di), Digitization and the Law, Baden-Baden, 2018; E. Hilgendorf (a cura di), Robotik im Kontext von Recht und Moral, Baden-Baden, 2013; E. Hilgendorf - S. Hötitzsch (a cura di), Das Recht vor den Herausforderungen der modernen Technik, Baden-Baden, 2015; E. Hilgendorf – S. Hötitzsch - L. S. Lutz (a cura di), Rechtliche Aspekte automatisierter Fahrzeuge, Baden-Baden, 2015. Con portata generale e, in particolare, sulla via dei codici etici, J. Turner, Robot Rules. Regulating Artificial Intelligence, Cham, 2019; P. Boddington, Towards a Code of Ethics for Artificial Intelligence, Cham, 2017.
[15]Cfr. L. B. Solum, Artificially Intelligent Law, in BioLaw Journal, 2019, 1, p. 53 ss., p. 58 ss.; nonché, pur con diverse sfumature, C. Buchard, L’intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società, in Riv. it. dir. proc. pen., 2019, p. 1909 ss.; J. P. Davis, Law Without Mind: AI, Ethics, and Jurisprudence, in California Western Law Review, 2018, p. 165 ss.; A. Casey - A. Niblett, Self-Driving Laws, in University Of Toronto Law Journal, 2016, p. 429 ss.; M. Hildebrandt, Law As Computation In The Era Of Artificial Legal Intelligence. Speaking Law To The Power Of Statistics, in University Of Toronto Law Journal, 2018, p. 12 ss.; S. Shahrjerdi, Les regards croisés sur les forces créatrices du droit à l'ère du numérique, in International Journal of Digital and Data Law, 2020, 6, p. 103 ss., p. 110 ss. Nell’«autodichia»ipotizzata da A. Celotto, I robot possono avere diritti?, in BioLaw Journal, 2019, 1, p. 91 ss., p. 99,si realizzerebbe, così, la «metaforainfelicissima» del diritto come macchina (G. Tuzet, Sul possibile moto della macchina, in D&Q, 2009, p. 359 ss., p. 359) e dell’obiettivo di un «homo iuridicus» determinato dalle regole (D. Terracina, Problematiche del diritto penale, in E. Picozza - L. Capraro - V. Cuzzocrea - D. Terracina, a cura di, Neurodiritto. Una introduzione, Torino, 2014, p. 334 ss., p. 355 ss.).
[16]Alla luce della quale sembra quasi arduo distinguere il tema di eventuali robots legislatori da quello, decisamente più attuale, dei software applicativi, oggetto già della Carta etica europea sull'uso dell'intelligenza artificiale (IA) nei sistemi giudiziari e in ambiti connessi adottata il 3 dicembre 2018 dalla Commissione per l'efficienza della giustizia del Consiglio d'Europa e la letteratura relativa ai quali è davvero troppo ampia per compierne anche solo una sommaria ricognizione. Limitandosi alle analisi in lingua italiana con rilevanza per l’ambito penale, G. Tuzet, L’algoritmo come pastore del giudice? Diritto, tecnologie, prova scientifica, in MediaLaws, 2020, p. 45 ss.; P. Moro, Algoritmi e pensiero giuridico. Antinomie e interazioni, in MediaLaws, 2019, p. 11 ss.; O. Di Giovine, Il “judge-bot” e le sequenze giuridiche in materia penale (intelligenza artificiale e stabilizzazione giurisprudenziale), in Cass. pen., 2020, p. 951 ss.; S. Quattrocolo, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs rischi e paure della giustizia digitale predittiva, in Cass. pen., 2019, p. 1748 ss.; M. Gialuz, Quando la giustizia penale incontra l'intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Dir. pen. cont., 29 maggio 2019; B. Occhiuzzi, Algoritmi predittivi: alcune premesse metodologiche, in Dir. pen. cont., 2019, 2, p. 391 ss.; L. D’Agostino, Gli algoritmi predittivi per la commisurazione della pena, in Dir. pen. cont., 2019, 2, p. 354 ss.; L. Maldonato, Algoritmi predittivi e discrezionalità del giudice: una nuova sfida per la giustizia penale, in Dir. pen. cont., 2019, 2, p. 401 ss.; C. Parodi - V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in Dir. pen. cont., 2019, 6, p. 47 ss.; S. Quattrocolo, Equo processo penale e sfide della società algoritmica, in BioLaw Journal, 2019, 1, p. 10 ss.; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 2019, 1, p. 63 ss.; i contributi raccolti nel focus Profili giuridici, etici e tecnologici dell’AI, in BioLaw Journal, 2019, 3, p. 179 ss., nonché nella sezione monografica Una giustizia (im)prevedibile, in Questione Giustizia, 2018, 4, p. 153 ss., oltre a A. Ziroldi, Intelligenza artificiale e processo penale tra norme, prassi e prospettive, in Questione Giustizia, 18 ottobre 2019, questionegiustizia.it; D. Dalfino, Stupidità (non solo) artificiale, predittività e processo. Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo, in Questione Giustizia, 3 luglio 2019, questionegiustizia.it; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Questione Giustizia, 10 aprile 2019, questionegiustizia.it; B. Galgani, Considerazioni sui ''precedenti'' dell'imputato e del giudice al cospetto dell'IA nel processo penale, in Sistema penale, 2020, 4, p. 81 ss.; S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in Leg. pen., 18 dicembre 2018, lalegislazionepenale.eu. Ancora in ambito di civil law, S. Hähnchen - R. Bommel, Digitalisierung und Rechtsanwendung, in JZ, 2018, p. 334 ss.; M. Martini, Algorithmen als Herausforderung für die Rechtsordnung, in JZ, 2017, p. 1017 ss.; M. Fries, Automatische Rechtspflege, in Rechtswissenschaft, 2018, p. 414 ss.; A. Garapon - J. Lassègue, Justice digital. Révolution grafique et rupture antropologique, Paris, 2018.
[17] Cfr. M. Papa, Future crimes: intelligenza artificiale e rinnovamento del diritto penale, in corso di pubblicazione in Criminalia, 2019, ora in Discrimen, 4 marzo 2020, discrimen.it, p. 12; G. Della Morte, L’algoritmo in tribunale: giudice o imputato?, in AA.VV., Arrivano i robot. Riflessioni sull’intelligenza artificiale, Milano, 2019, p. 71 ss.; O. Di Giovine, Il “judge-bot”, cit., p. 963 ss.
[18]Si sarebbe consumato, in altre parole, senza trarne reali benefici, il vantaggio immaginato in H. Putnam, Robots: Machines or Artificially Created Life?, in J. Phil., 1964, p. 668 ss., p. 678 ss.
Palavera Rosa
Download:
7 Palavera.pdf