Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario
Alberto Biancardo
Professore a contratto, Docente SSPL, Università degli studi di Salerno
Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario*
English title: Legal and ethical implications of using artificial intelligence in healthcare field
DOI: ./._.10.26350/18277942_000035
Sommario: 1. La diffusione delle tecnologie con intelligenza artificiale, in particolare in ambito sanitario. 1.1. Tecnologie all’avanguardia, etica e diritto. 1.2. Chirurgia assistita, robotica, intelligenza artificiale. 1.3. L’e-health e i nuovi confini della scienza medica. 2. Il problema etico-giuridico nato dall’utilizzo di macchine intelligenti in ambito medico. 2.1 Criticità relative all’utilizzo dell’intelligenza artificiale e problematiche etico-giuridiche. 2.2. Il rapporto osmotico fra etica e diritto in campo sanitario. 2.3. Valori socialmente condivisi e destinatari delle regole etiche. 3. Intelligenza artificiale in ambito sanitario e responsabilità giuridica civile e penale. 3.1. La normativa sulle tecnologie robotiche. 3.2. La responsabilità medica. 3.3. Il nesso causale. 3.4. Intelligenza artificiale e machine learning: eventuali responsabilità. 3.5. Responsabilità penale della macchina autonoma. 3.6. Problematiche sovranazionali e sviluppi normativi. 3.7. Rilievi civilistici. 3.8. Consenso informato. 4. La posizione dell’Europa in riferimento all’utilizzo dell’intelligenza artificiale. 4.1. Il ruolo dell’Europa. 4.2. La normativa europea.
1. La diffusione delle tecnologie con intelligenza artificiale, in particolare in ambito sanitario
1.1. Tecnologie all’avanguardia, etica e diritto
Dall’inizio del terzo millennio si è riscontrato un aumento vertiginoso dell’impiego delle tecnologie robotiche e dell’intelligenza artificiale, specialmente nel settore automobilistico con l’utilizzo sempre più pervasivo dell’elettronica fino alla realizzazione delle prime auto a guida autonoma, nell’ambito delle tecnologie aerospaziali, nel settore nucleare, ed in quello sanitario, con particolare riguardo alla chirurgia assistita ed alle terapie digitali. Il progresso tecnologico dell’ultimo ventennio ha fatto passi inimmaginabili, tanto da permettere la realizzazione di sistemi “intelligenti” talmente perfezionati da poter compiere scelte indipendenti dal comando dell’uomo. Tutto ciò ha sollevato nuove problematiche soprattutto in campo etico e giuridico.
Dal punto di vista etico ci si interroga sull’effettiva natura delle macchine capaci di scelte autonome e sulla loro correlazione con una fenomenologia dell’essere. A tale astrazione di tipo ontologico si intreccia, inevitabilmente, un’analisi giuridica. Il diritto non riesce, difatti, ad avanzare allo stesso rapido passo della tecnologia. A conferma di tale innegabile assunto la constatazione che soltanto in rari casi il legislatore, specialmente nel nostro Paese, sia riuscito a predisporre in tempi ragionevoli, normative adeguate alle tecnologie emergenti. In Italia il legislatore ha raramente provveduto ad una nuova regolamentazione ad hoc, organica e strutturata, nei settori innovativi, limitandosi generalmente ad adattare istituti giuridici preesistenti, considerati in grado di coprire le nuove categorie sorte con il progresso tecnologico. Possiamo inconfutabilmente evidenziare tale orientamento se consideriamo la normativa italiana sui reati informatici: non è infatti mai stata emanata una legislazione organica sui cybercrime, ma si è provveduto ad un mero adattamento di norme ed istituti previgenti. Il risultato conseguito si è concretizzato in un insieme di incongruenze ed incompletezze in materia di reati informatici, che hanno lasciato ampie aree scoperte, e richiesto un robusto intervento della giurisprudenza di legittimità. Ne è un palese esempio l’equiparazione, sia sul piano sistematico e sostanziale che sanzionatorio, dell’accesso abusivo ad un sistema informatico (art. 615 ter c.p.) alla violazione di domicilio (art. 614 c.p.). È necessario, invece, se si vuole evitare che il diritto rimanga travolto dall’evoluzione tecnologica, ripensare interamente gli istituti giuridici tradizionali e non semplicemente adattarli alle nuove esigenze[1].
Anche a livello europeo gli orientamenti riguardanti il rapporto fra diritto e nuove tecnologie robotiche[2] hanno per lungo tempo propeso per l’adattamento di un quadro normativo già esistente: nello specifico, in tema di responsabilità, è stata valutata l’applicabilità ai robot dotati di intelligenza artificiale, delle regole sulla responsabilità per danno da prodotti difettosi e regole sulla sicurezza dei prodotti, già oggetto di due direttive europee[3]. A parere di chi scrive il riadattamento di norme preesistenti con riguardo ai c.d. robot intelligenti non riesce a cogliere appieno la portata innovativa del fenomeno, relegandolo ad un ruolo secondario, senza considerare che in un futuro non lontano potrebbe richiedere una completa revisione del concetto di responsabilità sia civile che penale.
Soltanto nell’ultimo anno si può rilevare una presa di coscienza, da parte dell’Europa, della centralità delle tematiche inerenti l’intelligenza artificiale, e la conseguente volontà della Commissione europea di regolamentare in maniera sistematica la materia[4]. La recente proposta di regolamento, lungi dal disciplinare in maniera completa le problematiche sorgenti dall’utilizzo dell’I.A., ha l’indubbio pregio di porre l’accento sulla salvaguardia dei valori dell’Unione europea e sulla sicurezza dei cittadini, con disposizioni più stringenti per sistemi classificati “ad alto rischio”.
1.2. Chirurgia assistita, robotica, intelligenza artificiale
Il connubio sempre più stretto fra tecnologia e medicina rende necessaria, con riguardo agli effetti sul piano sia etico che giuridico, una distinzione fra chirurgia assistita, robotica applicata all’ambito sanitario, ed intelligenza artificiale. Nonostante manchi una definizione condivisa ed univoca di intelligenza artificiale, è necessario tentare di stabilire, quanto meno, le connessioni e le differenze con la robotica[5].
Per chirurgia assistita si intende l’utilizzo di una macchina tecnologica guidata dal chirurgo, tramite una consolle, con l’ausilio di un software. La robotica, nella sua più comune accezione, attiene ad un sistema misto hardware/software programmabile, che compie operazioni fisiche complesse. L’intelligenza artificiale può essere definita come la capacità di un sistema tecnologico di svolgere attività tipiche delle abilità umane[6], finanche in maniera autonoma. Essa può essere applicata sia alla chirurgia assistita che ai robot, ma contiene un quid plus, ossia la possibilità della macchina che se ne serve, di svolgere azioni tipiche dell’essere umano anche in maniera autonoma, aventi un certo grado di imprevedibilità[7], o quanto meno determinate dall’interazione con l’ambiente esterno e dalle capacità di autoapprendimento della macchina stessa (interactive learning), con progressivo incremento delle abilità e della sua indipendenza dall’uomo[8].
L’intelligenza artificiale non segue, pertanto, un percorso lineare stabilito dal software e prevedibile secondo gli algoritmi da cui è composto, bensì segue una logica di autoistruzione, nella quale emerge l’abilità di assimilare dall’esperienza acquisita dall’interazione con gli ambienti esterni e dall’uomo stesso, per il raggiungimento di un obiettivo. Tale definizione corrisponde, peraltro, con la comunicazione elaborata nel 2018 dalla Commissione europea[9], la quale accosta l’intelligenza artificiale a quei sistemi che “mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”.
Il discrimine fra un sistema tecnologico non autonomo eterodiretto ed uno fornito di intelligenza artificiale avanzata è dato dalla possibilità della macchina di compiere o meno scelte in autonomia e risolvere problemi, anche senza il comando dell’uomo[10]. Ciò in quanto i processi di automazione forniscono risposte e risolvono i problemi a prescindere dalle logiche impostate ab origine dal programmatore, ma sulla base di pregresse esperienze della macchina stessa o fornite dall’ambiente circostante. È, questo, il c.d. deep learning, apprendimento automatico basato sulle c.d. reti neurali artificiali costruite su modelli computazionali ispirati al cervello umano, che consente reazioni della macchina non previste e non lineari e prevedibili, che sfuggono, pertanto, al controllo dello stesso sviluppatore[11].
Negli ultimi anni si è avuta una crescente applicazione dell’intelligenza artificiale alla robotica, permettendo alla macchina di compiere azioni basate sul riconoscimento visivo e l’autoistruzione, e derivate da un processo di elaborazione indipendente, adattandosi agli stimoli ambientali ed adottando condotte conseguenti. Ne sono un chiaro esempio le applicazioni della robotica con intelligenza artificiale in ambito medico e le auto a guida autonoma[12], che hanno recentemente raggiunto un eccellente equilibrio fra sicurezza e funzionalità.
Secondo un orientamento scientifico la qualità della macchina di riuscire ad interagire in modo indipendente col mondo esterno, dovrebbe attribuirle personalità giuridica autonoma. Il matematico e filosofo Turing, tra i maggiori esponenti di tale corrente di pensiero, ha creato un test per individuare un’intelligenza artificiale forte. Secondo il “test di Turing[13]” un automa è paragonabile alla mente umana solo nell’ipotesi in cui un esperto non sia in grado di distinguere le risposte date dal robot ad una serie di quesiti, dalle risposte date da un essere umano. Ovviamente tale test non ha, oggi, molta credibilità, in quanto basato su un ragionamento empirico estraneo al rigore scientifico. La sostanziale inattendibilità del “test di Turing” ha fatto sì che, nel tempo, venissero sviluppate delle versioni più complesse del test, fra cui quella denominata “stanza cinese”, proposta dal filosofo John Searle[14] al fine di contestare la teoria dell’assimilazione della mente umana all’intelligenza artificiale. Verso la metà del secolo scorso Norbert Wiener, padre della cibernetica, vicino al pensiero di Touring, confuta le dottrine antropocentriche affermando la teorica somiglianza fra umano e sistema meccanico. Wiener, tuttavia, in una delle sue maggiori opere ammette che la scelta fra bene e male è una responsabilità etica di discernimento che solo l’uomo possiede e che non dovrà essere assolutamente delegata alla macchina[15].
In sintonia con gli ammonimenti di Wiener, possiamo dire che, ad oggi, è stato raggiunto un alto grado di autonomia della macchina, i cui comportamenti non sono più definibili tramite un codice di programmazione, tuttavia i tentativi della tecnologia di riprodurre la mente umana possono riuscire solo in parte[16], giacché caratteristiche quali l’intuito, l’improvvisazione, la morale e gli stati emozionali quali affetto, pietà, empatia, rimarranno unicamente peculiarità della persona. Si è accennato all’autonomia della macchina, ossia alla capacità della stessa di interagire con l’ambiente, apprendere ed emanciparsi, assumendo comportamenti e scelte che non sono predeterminati o predeterminabili da un software. Le istruzioni alla base di tale autonomia sono oggi definite black box algorithms, ossia quegli algoritmi non lineari, che ammettono un’opacità, un comportamento imprevedibile dell’automa non spiegabile neanche da parte di colui che l’ha progettato[17]. La macchina denota, così, la capacità di prendere decisioni e metterle in atto nell’ambiente, indipendentemente da un controllo esterno da parte di un essere umano. Quanto descritto non può non ricordare un sistema autopoietico, il quale ridefinisce continuamente se stesso, si sostiene in maniera indipendente e si riproduce[18]. Il concetto di autopoiesi richiama quello di omeostasi, poiché i mutamenti automatici interni al sistema tendono a mantenerne la stabilità conservando le condizioni di funzionamento[19].
Tuttavia tale peculiarità di alcuni sistemi hardware e software non è univoca, giacché i livelli di autonomia possono essere sensibilmente differenti. Per lungo tempo è stata sufficiente la distinzione fra intelligenza artificiale debole e forte. L’intelligenza artificiale debole si limita alla simulazione di determinate funzionalità cognitive tipiche della mente umana spingendosi fino al problem solving con la possibilità residuale di scelte anche indipendenti ma sotto il controllo umano, mentre l’intelligenza artificiale forte innesca processi e capacità cognitive propri del pensiero umano, senza peraltro emulare tali processi, ma sviluppando una capacità di scelta perfettamente autonoma[20]. Tuttavia tale distinzione, formulata per la prima volta dallo studioso John Searle, appare oggi altamente riduttiva, poiché multiformi e dissimili sono le tipologie di intelligenza artificiale esistenti.
Un autorevole parere sulla differenziazione di livelli di autonomia nella robotica chirurgica può giungere da uno scritto di Guang-Zhong Yang[21], divenuto pietra miliare in tale campo. Yang ha definito sei livelli di autonomia, equivalenti a quelli delle automobili a guida autonoma. Nel caso della robotica chirurgica il primo livello (livello zero) corrisponde ad un sistema tele-operato completamente guidato dal chirurgo. Un esempio di sistema tele-operato con autonomia di livello zero è quello dell’unità “da Vinci” per le operazioni in laparoscopia, dove il chirurgo ha il controllo diretto dell’intera procedura. Al livello uno il robot fornisce assistenza correggendo i movimenti del chirurgo ma l’utilizzatore mantiene il controllo del sistema potendo scavalcare tali correzioni (c.d. virtual fixtures). Al livello due il robot svolge alcuni compiti in autonomia, supervisionato dall’utilizzatore, che mantiene il potere di neutralizzare l’esecuzione robotica[22]. In tal caso il controllo dell’uomo non è più continuo, ma disomogeneo ed eventuale. Al livello tre il compito è svolto in autonomia dalla macchina, previa autorizzazione del chirurgo. È l’intelligenza artificiale a generare strategie di esecuzione, che saranno approvate o meno dal medico stesso. Infine ai livelli più alti il robot agisce come un chirurgo, in maniera autonoma ma, mentre al livello quattro in casi estremi e di emergenza è previsto l’intervento dell’uomo, al livello cinque il robot è completamente autonomo ed in grado di affrontare anche situazioni emergenziali e risolvere eventuali problemi ed imprevisti che si verifichino.
Un valido sistema di classificazione dei livelli di automazione è stato ideato da Parasuraman, Wickens e Sheridan che, sulla base di una precedente tassonomia risalente agli anni settanta e basata su dieci differenti livelli, hanno associato l’automazione alla tipologia di funzione svolta dalla macchina[23]. Tale sistema di tassonomia[24] permette di definire la ripartizione di attività tra persona e macchina e il livello di coinvolgimento di entrambi, così da poter individuare in modo più rigoroso le responsabilità in caso di eventi dannosi.
1.3. L’e-health e i nuovi confini della scienza medica
Il campo in cui l’utilizzo della robotica[25] ha avuto recentemente un incremento esponenziale è, indubbiamente, quello sanitario. Nella sanità la c.d. e-health[26] ed ancor più specificamente la chirurgia assistita dalle macchine sta assumendo sempre maggiore rilevanza, riducendo notevolmente la possibilità di errore umano. Quanto detto è agevolmente riscontrabile se si considerano le operazioni di microchirurgia che richiedono particolare precisione ed accuratezza. La chirurgia robotica ha innegabilmente fatto passi considerevoli, permettendo interventi di precisione in modo sicuro e meno invasivo, e con una notevole riduzione dei rischi scaturenti da disattenzione ed imprecisione umana. Ampia diffusione hanno raggiunto le tecniche mininvasive[27] ed in particolare la chirurgia laparoscopica e robotica, impiegate soprattutto per interventi addominali e pelvici, ortopedici e per l’asportazione di masse tumorali[28], le quali consentono un recupero post-operatorio più rapido del paziente e minor rischio di complicazioni. In continua evoluzione è la chirurgia videoassistita[29], la quale consente operazioni in remoto avvalendosi di robot situati in luoghi differenti da quelli in cui si trova il chirurgo. Nella chirurgia ortopedica vengono costruiti arti intelligenti da impiantare su pazienti che hanno subìto delle mutilazioni, i quali traducono i segnali inviati dal cervello alle terminazioni nervose, permettendo alla macchina di sostituire in maniera completa l’arto. Tuttavia, quella che oggi definiamo e-health non può identificarsi meramente con le operazioni chirurgiche a distanza, ma comprende anche la telemedicina, ossia le cure riabilitative del paziente, la diagnosi a la prevenzione[30], la robotica riabilitativa[31] e quella di assistenza[32].
L’utilizzo dell’intelligenza artificiale avanzata in ambito sanitario, è maggiormente diffuso proprio nelle c.d. DTx, ossia le terapie digitali[33]. Esse offrono interventi terapeutici interamente guidati da applicativi che si avvalgono di algoritmi sofisticati ed in alcuni casi del machine learning, per prevenire e trattare le condizioni patologiche fisiche o mentali del paziente[34]. Un sistema di cognitive computing che nell’ultimo decennio si è evoluto in maniera esponenziale è Watson di IBM[35]. Oltre ad avvalersi di processi di machine learning, esso riesce a riconoscere suoni ed immagini dell’ambiente, dialogare con le persone, eseguire calcoli predittivi, e prendere decisioni in autonomia, sotto il controllo dell’utilizzatore. Nel campo medico Watson ha raggiunto livelli di sviluppo avanzatissimi[36]: ad oggi è uno dei sistemi più evoluti di intelligenza artificiale, con algoritmi complessi che riescono ad apprendere dall’interazione con l’ambiente ed imparare dagli errori e dall’esperienza. Il suo utilizzo nel settore della diagnosi e terapia medica consente l’interlocuzione medico-paziente, il controllo costante dello stato di salute di quest’ultimo e la somministrazione diretta dei piani terapeutici. Nello specifico il sistema elabora un insieme di dati, quali i sintomi del paziente, la sua storia clinica ed ereditaria, esamina le informazioni scientifiche fra cui studi clinici, articoli medici e linee guida, infine formula le ipotesi fornendo un insieme di raccomandazioni e terapie personalizzate, classificate per livello di evidenza. L’architettura IBM DeepQA su cui è basato permette, inoltre, di calcolare le probabilità di successo dei trattamenti e i tempi previsti di convalescenza[37]. La prima applicazione commerciale di Watson IBM, risalente al 2013, riguarda la diagnosi e trattamento del cancro al polmone[38], ed ha ottenuto risultati incoraggianti.
L’impiego della robotica come ausilio alla chirurgia ha inizio nella metà degli anni ottanta con un particolare dispositivo per il prelievo bioptico guidato, denominato “Puma 560”[39]. Fra la fine degli anni ottanta e l’inizio degli anni novanta si diffondono sistemi per la chirurgia prostatica e per le protesi d’anca. I più importanti sono, rispettivamente, il Proboc ed il RoboDoc. All’inizio degli anni novanta l’Esercito americano in collaborazione con l’Istituto di Ricerca di Stanford ideò un sistema di soccorso ai soldati basato sulla telechirurgia. Il progetto non ebbe sviluppo in ambito militare, ma fu ripreso in ambito civile per la realizzazione dell’AESOP, un braccio robotico a comando vocale guidato dal chirurgo. Sulla base di tale ricerca nasce la chirurgia robotica nella sua moderna accezione. Vengono infatti prodotti i sistemi “da Vinci” e “Zeus” successivamente unificati e leader nel settore. Alla fine degli anni novanta il robot “da Vinci” viene utilizzato nella chirurgia di precisione[40]. È questo il primo sistema di chirurgia videoassistita, che consente di svolgere l’intervento chirurgico operando da una consolle. Ad esso si aggiunge, nei primi anni del terzo millennio, lo Zeus. Le piattaforme oggi più utilizzate nel panorama nazionale sono il da Vinci (Intuitive Surgical) e l’ALF-X (Telelap-TransEnterix). Nel 2001 è stata eseguita una storica operazione di colecistectomia da parte di un chirurgo ubicato a New York, ad un paziente ricoverato in Francia, a Strasburgo, tramite l’utilizzo di una consolle che comandava braccia meccaniche da remoto. Anche la robotica riabilitativa ha fatto notevoli passi negli ultimi anni, rendendo possibile sia il recupero della funzionalità di arti ormai compromessi, addirittura con la riattivazione di strutture cerebrali deputate al controllo dei movimenti[41], che il miglioramento delle capacità cognitive di persone con disturbi dell’apprendimento[42].
L’Italia, nello specifico, è all’avanguardia per ciò che riguarda l’utilizzo della robotica in ambito sanitario. Nel 2017 è stato eseguito con successo un difficile trapianto di rene mediante chirurgia robotica. Nel gennaio 2020, nel padovano, è stato effettuato il primo intervento in Italia di asportazione del tumore al retto con tecnica robotica, e all’ospedale Maggiore di Bologna la prima operazione al mondo di asportazione contemporanea di colon e fegato, eseguita interamente con chirurgia assistita. Oggi i robot vengono sempre più utilizzati nel nostro Paese, in particolare nella chirurgia toracica, in urologia, ginecologia, oftalmologia, otorinolaringoiatria ed ortopedia. La chirurgia bariatrica e quella dei trapianti fanno ampio affidamento sulla assistenza robotica. Le protesi di anca vengono sempre più spesso impiantate con metodica robot-assistita. La chirurgia robotica ha raggiunto livelli di efficacia ed accuratezza altissimi con la tecnologia “5G”, non solo per la qualità della videocomunicazione ma soprattutto per l’immediatezza della realtà immersiva, che azzera l’asincronia dei tempi fra i comandi impartiti dal chirurgo e movimenti della macchina[43]. Anche nella recente emergenza Covid-19, per controlli diagnostici ed assistenza ai pazienti, i nosocomi tecnologicamente all’avanguardia hanno fatto ampio uso dell’assistenza di robot, al fine di evitare qualsivoglia contatto fra sanitari e pazienti[44].
La rivoluzione degli ultimi anni, rappresentata dall’ingresso in sanità dell’intelligenza artificiale suscita, tuttavia, dubbi e preoccupazioni in previsione di futuri sviluppi. Ci si chiede, difatti, se il robot autonomo possa assicurare soltanto vantaggi, oppure se racchiuda anche problematiche ed aree di maggior rischio. Tali aree, peraltro, non sempre sono coperte dal diritto, in materia di risarcimento del danno e di responsabilità penale. Ci si domanda se, con l’utilizzo sempre più ampio della robotica, non sia necessario creare nuovi modelli di analisi e gestione del rischio clinico, al fine di aumentare la sicurezza per prevenire eventi nefasti. Senza, poi, considerare quei valori in cui la macchina, per quanto intelligente, per opinione largamente condivisa si ritiene non possa sostituire neanche in un lontano futuro il medico, ossia quella dimensione comunicativa[45], umana e fiduciaria che si instaura fra medico e paziente[46]. Dottrina ampiamente condivisa dallo scrivente si domanda, infine, se lo sviluppo dell’intelligenza artificiale, con i suoi indubbi benefici anche in settori di primaria importanza come la salute, non stia, per converso, limitando sempre più la libertà umana, riducendola ad una mera dimensione virtuale[47] ed accentuando il rapporto di dipendenza uomo-macchina.
2. Il problema etico-giuridico nato dall’utilizzo di macchine intelligenti in ambito medico
2.1. Criticità relative all’utilizzo dell’intelligenza artificiale e problematiche etico-giuridiche
Oggi la chirurgia robotica ha reso più precise e sicure le operazioni, consentendo di intervenire a distanza tramite strumentazione computerizzata e l’utilizzo di un software in uso al chirurgo, il quale gestisce un robot che opera il paziente. L’avvalersi sempre più pervasivo dell’intelligenza artificiale con macchine pressoché indipendenti ha, tuttavia, sollevato numerose criticità, in particolare di ordine etico e giuridico. Tali implicazioni sono maggiormente connesse all’impiego dei c.d. robot autonomi, che non prevedono alcuna possibilità di azione dell’uomo. Alle enormi potenzialità della robotica in ambito medico, si contrappongono, difatti, problematiche di carattere etico non indifferenti, che pervadono tutti i campi del diritto, da quello penale a civile, dalle discipline pubblicistiche a quelle internazionalistiche.
La legislazione dovrà, pertanto, considerare le implicazioni etiche e di diritto dell’intelligenza artificiale, creando un equilibrio che nel contempo non ponga ostacoli all’innovazione tecnologica. Nonostante la loro innegabile connessione, etica e diritto vanno, tuttavia, tenuti distinti, giacché la prima attiene al piano morale e ai valori di un individuo o un gruppo. Il secondo, invece è, per dirla con Kelsen, forza organizzata e coercizione[48], pertanto si discosta dal comportamento dettato dalla morale, giacché in caso di devianze prevede una sanzione.
L’autonomia sopra descritta di macchine capaci di sostituire l’uomo in modo da ridurre o addirittura escludere la possibilità di un suo intervento strumentale ed in alcuni casi anche emergenziale, solleva questioni sull’applicabilità degli istituti giuridici esistenti, in particolare in campo penale, e sull’eventuale necessità di creare nuove categorie nel diritto.
Le problematiche più rilevanti riguardanti l’utilizzo della robotica e dell’intelligenza artificiale in ambito sanitario attengono ad: etica, ripartizione soggettiva delle responsabilità giuridiche civili e penali, consenso informato, rischi connessi ai sistemi automatizzati e remotizzati, scelte etico-giuridiche sovranazionali inerenti la robotica, con particolare riguardo all’Unione europea.
2.2. Il rapporto osmotico fra etica e diritto in campo sanitario
Il problema etico dell’utilizzo dell’intelligenza artificiale, e più in generale del progresso tecnologico, è stato spesso dibattuto dagli esperti di scienze mediche, ingegneristiche ed informatiche, ma soprattutto di discipline umanistiche, ed in particolare filosofico-giuridiche. La relazione fra etica e progresso tecnologico, in particolare in ambito medico, è sempre stata conflittuale. Si pensi soltanto alla bioetica, alle scienze genetiche[49] ed alla clonazione di embrioni. Il rapporto dualistico fra etica e progresso tecnologico non può essere semplicisticamente risolto facendo ricorso alla tesi della neutralità della tecnologia rispetto all’etica. Come già aveva previsto, nella metà del secolo scorso, il maggior esponente dell’esistenzialismo ontologico Martin Heidegger, se “considerassimo la tecnica come qualcosa di neutrale: questo ci renderebbe completamente ciechi di fronte all’essenza della tecnica stessa”[50]. Non si può che essere in sintonia con l’affermazione del filosofo tedesco: una stessa tecnologia può, invero, essere utilizzata per fini diversi, sia virtuosi che, all’opposto, immorali, apparendo di per sé neutra, ma sarebbe un errore accettarla acriticamente. Il considerarla neutra non permetterebbe, difatti, la conoscenza della sua essenza, il suo carattere epistemologico. Senza conoscenza verrebbe a mancare, così, ogni capacità di poterla indirizzare verso fini “etici” che rispettino i valori umani.
Nello specifico campo dell’intelligenza artificiale in ambito medico, per elaborare un’analisi etica è indispensabile una conoscenza profonda della tecnologia robotica, sia scientifica che fenomenologica. Per un’analisi etica attenta sono, difatti, da considerare aspetti quali la tipologia funzionale della macchina, a seconda che sia completamente autonoma, ibrida o teleguidata, con riguardo al controllo che l’uomo esercita su di essa durante il suo utilizzo, gli ambiti di impiego della stessa nonché lo scopo per cui è stata costruita. È facilmente intuibile che i maggiori problemi attinenti all’etica siano limitati ad uno specifico tipo di tecnologia, ossia quella in cui è maggiormente accentuata l’autonomia della macchina.
Ci si domanda, prevalentemente, se strumenti ad alta tecnologia forniti di autonomia, siano ammissibili o meno rispetto ad un ideale modello etico-comportamentale. Il quesito è, ad avviso dello scrivente, posto ab origine da un erroneo punto di vista. Non si dovrebbe considerare “se” siano ammissibili, ma “come”. Non sussiste, difatti, una necessaria contrapposizione fra la macchina autonoma ed un’etica dei valori. È invece necessario che detti valori vengano rispettati. Un esempio ci è fornito dal modello coreano. La Corea del Sud, all’avanguardia in materia di intelligenza artificiale[51], ha previsto la promozione di usi etici dei robot autonomi, con un controllo serrato specialmente durante la fase di produzione. In definitiva, non ritengo plausibile l’idea di frenare il progresso tecnologico escludendone alcuni campi di applicazione, ma è necessaria sempre una regolamentazione etica e giuridica, che tenga altresì conto dei futuri sviluppi ed implicazioni, con particolare riguardo agli usi distorsivi o devianti che della scienza possano essere fatti.
È, poi, necessario stabilire le finalità delle multiformi istanze etiche, ossia se l’analisi etica in ambito medico abbia come fine la tutela del paziente, o altresì l’avvicinamento fra valori contrastanti che la tecnologia implica, ovvero si limiti ad un’analisi squisitamente ontologica dell’essere umano rapportato ad altre entità assunte come esistenti. Sotto tale punto di osservazione, ritengo che si debba guardare oltre l’approccio etico circoscritto a livello epistemologico, ma, pur senza creare una gerarchia di valori, rapportare ogni istanza etica al fine primario della disciplina medica e sanitaria: la cura delle persone. Di talché risulterebbe, indubitabilmente, contro l’etica medica qualsiasi attività che non ponga come punto centrale la vita del paziente ed il benessere dello stesso. Tuttavia tale punto può essere considerato soltanto una condicio sine qua non con riguardo al rispetto dell’etica medica, giacché anche qualora la salute del paziente risultasse il fine primario di ogni attività, resterebbero da sciogliere ancora molteplici nodi etici da dipanare.
Uno dei più rilevanti e controversi riguarda il ruolo del medico nel caso di utilizzo della macchina autonoma, sia in campo chirurgico che diagnostico. Parte degli studiosi ritiene che sia la macchina intelligente a dover correggere gli errori dell’uomo, mentre un altro orientamento privilegia il controllo ultimo del medico sull’operato della macchina[52]. In realtà non deve esservi preponderanza dell’uno o dell’altra, ma è necessario un controllo reciproco. In campo sanitario è, difatti, indispensabile rispettare un principio etico di responsabilità e prudenza, mantenendo sempre alto il livello di attenzione, e mettendo in primo piano la sicurezza e la salute del paziente.
2.3. Valori socialmente condivisi e destinatari delle regole etiche
Dobbiamo considerare che ciò che è socialmente apprezzato e condiviso, non sempre è rispettoso dell’etica. Costumi ed usanze storiche incarnati nelle società e nelle culture, nella maggior parte dei casi, nulla hanno di etico. Anche nelle ipotesi in cui non si ha una vera e propria contrapposizione, la società può dare la precedenza a scelte economiche, organizzative ovvero di mera opportunità che si sovrappongono ai princìpi etici.
Ma a chi sono rivolte le regole etiche? Nella produzione, commercializzazione ed utilizzo di macchine intelligenti, i principali destinatari non sono certamente gli utilizzatori, ma quei soggetti che hanno potere decisionale, economico, ovvero produttivo tale da poter incidere nella diffusione di detti strumenti tecnologici. Con riguardo al rispetto dei princìpi etici, secondo una importante teoria[53] il rapporto fra etica e robotica, può essere inquadrato sotto due profili: il primo riguarda le regole che devono essere date ai costruttori e agli utenti dei robot, il secondo riguarda le regole di comportamento dei robot stessi. Tale distinzione può, tuttavia, apparire fuorviante, giacché presuppone aprioristicamente l’attribuzione di una propria personalità alla macchina. L’applicazione alle macchine di regole di comportamento fondate su valori condivisi ha dato vita alla c.d. machine ethics. Ad oggi non è, tuttavia, pensabile, concepire una coscienza, un’etica o una capacità di autocritica della macchina intelligente[54]. Le regole di comportamento dei robot devono essere, in realtà, imposte anch’esse ai costruttori ed agli utilizzatori degli stessi. Solo se si risale al produttore ed all’utilizzatore si può creare un insieme di regole etiche che possa creare un argine credibile avverso un utilizzo distorto della macchina, in particolare in ambiti dove l’etica e la deontologia sono essenziali, come quello sanitario. Il focus deve essere spostato dalla macchina intelligente a tutti i soggetti coinvolti nella catena produttiva, a partire dal team di sviluppo e dal responsabile del progetto. La c.d. roboetica[55], intesa quale etica delle persone, nello specifico produttore, progettista ed utente, nel rapporto con la macchina intelligente, deve avere, pertanto, un ruolo centrale.
In conclusione, non può essere sottaciuto lo stretto legame fra l’etica ed il diritto. Il discorso sull’etica potrebbe sembrare, al giorno d’oggi, esclusivamente dottrinario ed astratto, ma così non è. Sempre più spesso i comitati etici, composti da autorevoli e prestigiosi membri, condizionano in maniera decisiva il legislatore. Nell’Unione europea, l’EGE, European Group on Ethics in Science and New Technologies, è un comitato formato da esperti nominati dalla Commissione europea, che esamina le questioni nate dal rapido avanzamento della tecnologia, offrendo alla Commissione stessa una base etica necessaria alla creazione delle normative e delle politiche comunitarie. Documento di riferimento su cui si basa l’EGE per l’elaborazione dei limiti etici che dovrebbero indirizzare i legislatori dei Paesi membri e delle linee guida nell’utilizzo delle ICT è la Carta dei diritti fondamentali dell’Unione europea.
Secondo il comitato il riferimento alla Carta è indispensabile per il rispetto dei princìpi di integrità psico-fisica, non discriminazione, non strumentalizzazione, equità, consenso informato, privacy e protezione di dati sensibili, in particolare nel settore sanitario. Sulla base di tali indicazioni il progetto europeo “EuRobotics”, con un esplicito riferimento alla Carta dei Diritti fondamentali dell’UE afferma “The charter constitutes a set of universal values of human dignity, freedom, equality and solidarity; it is based on the principles of democracy and the rule of law which are the result European Union spiritual and moral heritage”[56]. Il progetto “Ethicbots” ribadisce quali valori basilari dell’analisi etica, la dignità umana, la responsabilità e la libertà, tuttavia compie un passo in avanti rispetto al precedente progetto, nell’affermare che il riferimento alla Carta dei diritti non debba essere astratto, ma deve considerare il tessuto sociale e morale ove si diffondono le tecnologie emergenti[57]. Ciò a dimostrazione della stretta correlazione fra etica e diritto[58] e della decisività della prima nella creazione delle norme giuridiche e delle politiche riguardanti l’intera comunità, sempre nel rispetto dei diritti umani e delle libertà fondamentali.
Le tecnologie emergenti non hanno avuto diffusione solo in alcuni settori, ma sono entrate prepotentemente in ogni campo, influenzando le abitudini delle persone e il loro modo di vivere e di essere. Si pensi soltanto a come i telefoni cellulari e l’informatica hanno cambiato il nostro modo di rapportarci agli altri, violando la privacy e stravolgendo i mezzi di comunicazione interpersonali. Ciò non deve indurre a pensare che la tecnologia sia un nemico delle libertà e dei diritti umani, da osteggiare e combattere. Tutt’altro. Può, tuttavia, mettere in pericolo proprio quelle libertà fondamentali che, se non protette dal campo d’azione dell’etica e del diritto, rischiano di essere inevitabilmente compresse. A tal fine non è sufficiente un astratto rispetto dei diritti dell’uomo, ma è necessario un continuo aggiornamento delle regole giuridiche e rafforzamento dei valori etici, i quali devono incidere in maniera proporzionale al cambiamento sociale imposto dalla tecnologia[59].
3. Intelligenza artificiale in ambito sanitario e responsabilità giuridica civile e penale
3.1. La normativa sulle tecnologie robotiche
La robotica sta permeando sempre più settori socio-economici strategici, in particolare i trasporti, le telecomunicazioni, la difesa, l’industria, la sanità. Lo sviluppo dell’intelligenza artificiale e dell’apprendimento automatico delle macchine ha le potenzialità per cambiare notevolmente la qualità di vita e la sua durata innalzando altresì i livelli di efficienza dei servizi, anche essenziali, quali la sanità e la sicurezza sociale. La diffusione sempre più ampia dei c.d. robot intelligenti fa sì che il diritto non possa più prescindere da una nuova realtà che li vede protagonisti. Di talché non è più pensabile l’adattamento delle, non più adeguate, norme previgenti, ed il conseguente rinvio della predisposizione di una normativa nazionale apposita. Con l’introduzione della robotica in ambito medico, sono, difatti, sorte nuove implicazioni riguardo la responsabilità giuridica civile e penale, che necessitano di immediate risposte. Si rende indispensabile, pertanto, un impianto normativo totalmente nuovo ed appositamente predisposto, condiviso a livello internazionale.
Nel nostro Paese, ad esempio, il regime di responsabilità da prodotto difettoso può essere pacificamente applicato alle tecnologie emergenti, ma diviene forzata la sua applicazione ad un contesto di intelligenza artificiale. Mi riferisco, in particolare, ai casi in cui l’intelligenza artificiale forte e il machine learning conducano la macchina a risultati diversi da quelli che il consumatore potesse attendersi. Appare quanto meno arduo far rientrare tali ipotesi nell’ambito del prodotto difettoso[60]. Concettualmente troppo distanti sono le definizioni di software fault del codice di programmazione e di autoapprendimento della macchina, da quelle di imperfezione e di difetto strutturale degli altri prodotti. La nozione di prodotto difettoso, all’analisi dell’art. 117 del Codice del consumo non coincide con quella di vizio, ma è connessa al concetto di insicurezza. Tuttavia il concetto di insicurezza crea un corto circuito quando si parla di tecnologie di intelligenza artificiale forte, aventi come caratteristica intrinseca proprio l’insicurezza circa le azioni della macchina.
Bisogna tuttavia constatare che l’Unione Europea sembra aver compreso la portata del fenomeno e la necessità di una normativa apposita condivisa da tutti gli Stati membri. Lo stesso Parlamento europeo nel 2020 ha invitato la Commissione e gli Stati membri a dettare nuove regole, o se la normativa attuale offra già una struttura adeguata, ha richiesto una tutela contro i danni provocati da dispositivi e robot, anche in campo medico. Negli ultimi anni, difatti, le istituzioni europee hanno emanato raccomandazioni e risoluzioni sulla robotica[61], anche se ad oggi nessuno degli Stati europei ha iniziato una revisione sistematica della normativa interna[62].
Una delle più note criticità delle norme giuridiche si concretizza, principalmente, nella difficoltà di adeguarsi alle nuove tecnologie. Una normativa è evoluta quanto più riesce a catturare nelle proprie maglie eventi dissimili dalla norma tipica che possano verificarsi in futuro e che possano essere da essa sussunti: ciò può avvenire soltanto se la stessa accoglie definizioni ampie e nel contempo prescrizioni chiare, precise e di larghe vedute. Ciò richiede, prioritariamente, in sede di produzione normativa, una preparazione scientifica oltre che giuridica, giacché impegna il diritto in forme di tutela non ancora note, sollecitate da eventi che solo la scienza può prevedere. È, pertanto, assolutamente necessario che le normative in materie complesse implicanti tecnologie robotiche e scienza medica siano predisposte, tramite lo strumento del decreto legislativo e con l’ausilio di atti di soft law per l’adozione di standard etici, da commissioni miste composte, oltre che da rappresentanti del mondo politico e giuristi, anche da un nutrito team di medici, scienziati informatici ed ingegneri elettronici, tenendo altresì in debita considerazione le deduzioni etiche e le problematiche sociali. Solo tramite un approccio interdisciplinare è possibile beneficiare di una visione a 360 gradi riguardo le implicazioni sorte con l’utilizzo delle tecnologie emergenti nella società.
Punto cruciale è l’esigenza di predisporre una normativa ad hoc, che non rischi di compromettere o rallentare la ricerca, l’innovazione e lo sviluppo delle tecnologie robotiche. Ciò non significa che il diritto non debba porre freni agli eccessi e alle distorsioni della scienza, ma è necessaria un’evoluzione in funzione delle nuove tecnologie e ad esse congiunta. Tutto questo non è possibile tenendo separati scienza e diritto, ma è necessario amalgamarli e creare un percorso condiviso ed unitario.
3.2. La responsabilità medica
La chirurgia assistita da robot ha, secondo le più recenti statistiche un alto numero di incidenti[63], molti dei quali provocano lesioni permanenti, col verificarsi, in alcuni casi, anche di esiti mortali per i pazienti. Nonostante l’aumento costante dell’utilizzo in medicina di macchine intelligenti, il diritto non riesce ancora a dare una risposta univoca riguardo la responsabilità civile e penale dei soggetti coinvolti.
Per semplificare la ricerca delle responsabilità, gli ambienti scientifici hanno suggerito l’utilizzo nelle sale operatorie di scatole nere allo scopo di ricostruire nei dettagli l’operazione[64]. Tale ipotesi può verosimilmente semplificare l’attività del giudice in quanto fornisce mezzi di ricerca della prova sicuri, ma certamente nulla risolve in termini di attribuzione di responsabilità.
La soluzione, suggerita da parte autorevole della dottrina, secondo cui sarebbe necessario fare ricorso alla responsabilità solidale[65] non appare esaustiva, giacché non risolverebbe il problema dell’esclusione e della ripartizione della responsabilità. Permarrebbe, difatti, l’incognita di stabilire quali soggetti possano essere ritenuti dal giudice non responsabili, ed in quale misura debbano essere ripartite le distinte responsabilità.
Il problema non si limita alla semplicistica ripartizione di responsabilità fra uomo e macchina. Nell’ipotesi di un danno cagionato dall’intervento chirurgico, bisogna distinguere la responsabilità del personale medico per malpractice, da quella del costruttore per malfunzionamento del robot. Altra fonte di responsabilità può attribuirsi al produttore del software o agli sviluppatori, o anche ai tecnici addetti alla manutenzione e sicurezza. Ci si chiede, poi, se debba ritenersi responsabile il chirurgo o la struttura in cui è stato praticato l’intervento. Tale ultima questione è di primaria importanza anche con riguardo all’onere probatorio.
Fino agli anni ottanta la responsabilità della struttura sanitaria era di natura extracontrattuale, secondo il principio del neminem laedere, ex articoli 2043 e 2049 c.c., non prevedendo la configurazione di un rapporto contrattuale fra paziente e struttura sanitaria. Negli anni ottanta e novanta si cerca progressivamente di valorizzare il rapporto paziente-struttura sanitaria, ed in particolare il ruolo attivo di quest’ultima nella tutela del diritto alla salute. La responsabilità medica viene, così, individuata nel contatto sociale qualificato, instauratosi fra paziente e medico dipendente presso la struttura sanitaria, e dal quale derivano obblighi, che se violati comportano la responsabilità del sanitario ai sensi dell’art. 1218 c.c. (Cass. Sent. n. 11488/2004). La responsabilità contrattuale non deriva da obblighi contrattualmente assunti, ma sorge automaticamente dall’affidamento del malato nei confronti della struttura stessa che lo accoglie. Secondo tale teoria il paziente danneggiato deve limitarsi a provare il contatto sociale con la struttura o il medico, ed il nesso causale con l’insorgere o l’aggravamento della patologia, mentre spetta al sanitario dimostrare che non vi è stato inadempimento o questo non era rilevante sul piano causale. La Cassazione nel 2012[66] ha qualificato il rapporto paziente-struttura come un autonomo ed atipico contratto di spedalità a cui si applicano le regole sull’inadempimento contrattuale ex art. 1218 c.c.
La legge Balduzzi del 2012 (d.l. n. 158 del 2012 convertito in legge n. 189 del 2012) alleggerisce la responsabilità del medico onde evitare i frequenti casi di medicina difensiva[67], tuttavia accentua la confusione ermeneutica fra la responsabilità extracontrattuale dell’art. 2043 c.c. e quella contrattuale dell’art. 1218 c.c., accrescendo l’incertezza riguardo l’onere della prova in caso di incidente durante un trattamento sanitario o operazione. All’art. 3 la legge sancisce, difatti, che l’esercente le professioni sanitarie che si attiene a linee guida e buone pratiche accreditate dalla comunità scientifica “non risponde penalmente per colpa lieve. In tali casi resta comunque fermo l’obbligo di cui all’art. 2043 del codice civile”. Il repentino cambio di rotta fa sì che la Cassazione provveda immediatamente a limitare il campo d’azione della norma, restringendola ai soli sanitari delle strutture pubbliche.
La normativa vigente, ossia la legge Gelli-Bianco del 2017[68], tenta di superare le criticità emerse nella concreta applicazione giurisprudenziale della normativa previgente, differenziando definitivamente la posizione della struttura da quella dell’esercente la professione sanitaria: la prima risponderà dei fatti illeciti compiuti dal medico secondo le regole della responsabilità contrattuale, il secondo sarà invece chiamato a rispondere del proprio operato ai sensi dell’articolo 2043 c.c.[69], con termine prescrizionale ridotto da dieci a cinque anni, ed onere della prova in capo al danneggiato. Con riguardo all’onere probatorio, la Suprema Corte (Cass., 26 novembre 2020, n. 26907) precisa in tema di responsabilità sanitaria, che il paziente sia tenuto a provare “anche attraverso presunzioni, il nesso di causalità materiale tra condotta del medico in violazione delle regole di diligenza ed evento dannoso, consistente nella lesione della salute (ovvero nell’aggravamento della situazione patologica o nell’insorgenza di una nuova malattia), non essendo sufficiente la semplice allegazione dell’inadempimento del professionista; è, invece, onere della controparte, ove il detto paziente abbia dimostrato tale nesso di causalità materiale, provare o di avere agito con la diligenza richiesta o che il suo inadempimento è dipeso da causa a lui non imputabile”.
Il modello dualistico di responsabilità introdotto dalla Gelli-Bianco prevede, pertanto, che la struttura risponda a titolo di inadempimento ex art. 1218 c.c. anche per i fatti commessi dagli ausiliari (1228 c.c.), e l’esercente la professione sanitaria risponda a titolo di responsabilità aquiliana. La struttura risponderà, poi, non solo per l’operato dei medici strutturati, ma anche di quelli che operano in regime di convenzione o telemedicina, ed infine di coloro che esercitano attività intramuraria di libero professionista. L’eventuale azione di rivalsa nei confronti dell’esercente la professione sanitaria può essere esercitata soltanto nei casi di dolo o colpa grave. Nessuna distinzione sussiste, più, fra strutture pubbliche e private. Secondo la succitata legge, poi, il medico che per imperizia provoca un danno al paziente, non è punibile penalmente se ha rispettato le linee guida o le buone pratiche clinico assistenziali, sempre che le raccomandazioni previste dalle predette linee guida risultino adeguate alle specificità del caso concreto. L’esimente penale prevista all’art. 590 sexies c.p., difatti, esclude la punibilità ove la condotta del sanitario sia conforme a linee guida e best practice clinico assistenziali, ma anche ove questi se ne sia discostato se glielo abbiano imposto le “specificità del caso concreto”. Pertanto, nell’ipotesi in cui linee guida e raccomandazioni non siano adeguate alla miglior cura di uno specifico paziente, l’esercente la professione sanitaria ha il dovere di discostarsene (Cass. Sezioni Unite n. 8770 del 21/12/2017). Per la Cassazione le c.d. linee guida sono solo un parametro di valutazione della condotta del medico, ma ciò non impedisce che una condotta difforme da esse possa essere ritenuta diligente, se nel caso di specie esistevano particolarità tali che imponevano di non osservarle (sent. n. 30998 del 30/11/2018). Tali limiti alla responsabilità penale del medico si applicano soltanto qualora questi provochi un danno al paziente per imprudenza, residua pertanto l’ipotesi di responsabilità per imprudenza o negligenza.
Discriminante che delimita l’area di responsabilità penale è il dolo o la colpa grave. Nonostante la colpa in sede penale venga tradizionalmente intesa in senso unitario, in ambito medico si è fatto ricorso alla distinzione civilistica fra colpa grave e colpa lieve, creando così ancor più incertezza e difficoltà interpretativa[70].
Le incertezze legislative e giurisprudenziali sulla responsabilità medica appena esaminate vengono ulteriormente amplificate nei casi in cui ci si avvale di tecnologia robotica ed intelligenza artificiale. Ciò in quanto oltre al medico, al personale sanitario che lo assiste ed alla struttura, le responsabilità sono ripartite anche col produttore e con lo sviluppatore del robot e, secondo alcuni autori, con la stessa macchina intelligente.
3.3. Il nesso causale
Un punto da cui partire in tema di nesso causale nell’ambito della colpa medica è la teoria condizionalistica quale criterio idoneo ad attribuire l’imputazione oggettiva dell’evento lesivo al medico: il giudice dovrà, pertanto, valutare se vi sarebbe comunque stato il danno senza l’intervento del medico. Si compie il c.d. giudizio controfattuale, che consiste nell’aggiunta o eliminazione mentale della condotta considerata causale, analizzando se l’evento si sarebbe comunque verificato. Per tale giudizio controfattuale non basta seguire il modello della sussunzione sotto leggi scientifiche, ma è spesso necessaria una spiegazione in termini probabilistici, circoscrivendo il problema all’individuazione del grado di probabilità necessario all’instaurazione di un nesso causale[71]. In caso di condotta attiva dottrina e giurisprudenza ritenevano che, per attribuire l’evento all’agente fosse necessario che, con alto grado di probabilità, l’evento non si sarebbe verificato senza il comportamento. Anche per la più recente Cassazione civile (sentenza n. 5128/2020) l’inadempimento rilevante per il risarcimento del danno nelle obbligazioni è solo quello che costituisce causa o concausa efficiente. Tale sentenza della Suprema Corte ci suggerisce che, ove il medico riuscisse a dimostrare che le sue azioni non abbiano influito sulle condizioni del paziente, non vi potrebbe essere alcuna responsabilità. Il che, applicato alla responsabilità del medico in un’operazione in cui si avvale di un robot intelligente, sta a significare che, qualora l’evento dannoso si fosse comunque verificato senza che il medico potesse intervenire, quest’ultimo sarebbe liberato da qualsivoglia responsabilità. Riconsiderando l’intera operazione, al netto delle attività compiute dal medico, quest’ultimo non può essere ritenuto responsabile, qualora il giudice accerta che si sarebbe comunque avuta la causazione di un danno al paziente.
La sentenza Franzese rifiuta in maniera netta ed esplicita la possibilità di ricorrere al criterio dell’aumento o della mancata diminuzione del rischio, ribadendo l’importanza di un giudizio controfattuale, indispensabile per stabilire se la condotta umana sia stata o meno condizione necessaria dell’evento, ossia la “sussunzione del singolo evento, opportunamente ridescritto nelle sue modalità tipiche e ripetibili, sotto leggi scientifiche esplicative dei fenomeni”[72]. L’argomento teorico posto a giustificazione di tale posizione è quello di un unico criterio metodologico rappresentato dalla teoria condizionalistica integrata dalla sussunzione sotto leggi scientifiche[73].
Recentemente, con riferimento alla responsabilità civile, la Cassazione ha ribadito (con ordinanza n. 27720 del 2018) che nell’accertamento del nesso causale vige la regola della “preponderanza dell’evidenza” o del “più probabile che non”. L’orientamento maggioritario è, difatti, disposto a ritenere, all’esito di un’analisi fattuale e controfattuale del caso concreto, che il nesso di causalità tra fatto ed evento dannoso si sia verificato se vi era una probabilità almeno del “50% plus unum”.
Anche nei casi di responsabilità professionale per condotta omissiva, il giudice, accertata l’esistenza di un danno che probabilmente ne è la conseguenza, può ritenere, in assenza di fattori alternativi, che essa abbia avuto efficacia causale diretta nella determinazione dello stesso. La sentenza della Cassazione n. 1716 del 2013 afferma la necessità di un accertamento della probabilità non già meramente statistica ma logica, sottolineando che una percentuale statistica pur alta può non avere alcun valore eziologico effettivo se un evento è in realtà stato cagionato da diverse condizioni[74].
3.4. Intelligenza artificiale e machine learning: eventuali responsabilità
Nell’ambito più ristretto dell’utilizzo delle recenti tecnologie in ambito sanitario, il quesito principale permane quello della responsabilità per i danni causati direttamente o indirettamente dalla macchina. La relativa disciplina giuridica dovrebbe potersi modificare in funzione delle innovazioni in campo tecnico scientifico, anche utilizzando strumenti di soft law, quali linee guida e protocolli. L’utilizzo delle norme in bianco può risultare utile ed è già stato ampiamente testato con buoni risultati, ad esempio in materia di sostanze stupefacenti[75]. Ciò può essere di supporto, specialmente nella fase di transizione verso nuovi assetti legislativi e giurisprudenziali che vedano come protagonista l’intelligenza artificiale, onde evitare un conflitto tra sistemi giuridici ampiamente differenti, per le mutate condizioni dovute al progresso tecnologico.
Ancor più complesso appare il passaggio dalla chirurgia assistita da robot alle operazioni condotte in autonomia dalle macchine con intelligenza artificiale dotate di sistemi di autoistruzione. Dobbiamo, infatti, considerare che la robotica applicata alla sanità, ha oggi raggiunto livelli differenziati di applicazione, proprio grazie all’intelligenza artificiale ed all’utilizzo dei robot autonomi. La questione de qua ha come centro gravitazionale il dibattito sui sistemi autonomi e semindipendenti, ed indubbiamente solleva problemi di carattere giuridico fino ad ora sconosciuti al mondo del diritto. Le responsabilità non possono, certamente, essere considerate identiche nel caso di robot eterodiretti e di quelli autonomi. Ci si chiede, invero, nelle ipotesi in cui il controllo umano sulle macchine intelligenti sia minimo o addirittura nullo, quali soggetti possano essere considerati responsabili, ed altresì, in che misura ripartire le responsabilità. L’autonomia di un robot, intesa come capacità dello stesso di compiere scelte e metterle in atto senza controllo o influenze esterne da parte dell’uomo, rende, così, necessarie nuove regole e nuovi principi volti a chiarire l’assetto della responsabilità civile e penale dei vari soggetti coinvolti[76].
In dottrina autorevoli autori hanno avanzato la soluzione civilistica di creare un regime legale speciale adattabile ai robot intelligenti, permutato dalle disposizioni sul danno cagionato dagli animali[77]. La responsabilità per danni cagionati da animali è disciplinata dall’art 2052 c.c., per il quale “il proprietario di un animale o chi se ne serve per il tempo in cui lo ha in uso, è responsabile dei danni cagionati dall’animale, sia che fosse sotto la sua custodia, sia che fosse smarrito o fuggito, salvo che provi il caso fortuito”. La perdita di controllo sul robot sarebbe quindi risolta per analogia con la condizione dell’animale che sfugge al proprietario o al suo utilizzatore[78]. L’intervento dell’automa, in qualsiasi misura fosse stato determinante nella causazione dell’evento, sarebbe sufficiente a far ricadere la responsabilità sul suo proprietario[79].
La suesposta tesi è, a parere dello scrivente, contestabile sotto vari punti di vista. Innanzitutto escluderebbe da qualsivoglia onere legale il medico che dirige l’operazione, il costruttore ed il progettista dell’automa, addossando tutta la responsabilità sulla struttura sanitaria che ne è proprietaria. Ciò avrebbe l’effetto di deresponsabilizzare figure che, viceversa, hanno il dovere morale e giuridico di porre la massima prudenza e perizia in un’attività che coinvolge l’integrità fisica dei pazienti. Altro aspetto da considerare è che tale teoria, estesa in campo penalistico, creerebbe una sovrapposizione fra responsabilità oggettiva e responsabilità penale, coinvolgendo i vertici gerarchici della struttura ospedaliera, che non hanno in alcun modo partecipato all’operazione, né tantomeno alla progettazione del robot, e che nulla potevano fare per evitare l’evento o essere al corrente di un difetto di costruzione dell’automa. La teoria arriverebbe, infine, a svincolare aprioristicamente da ogni responsabilità gli sviluppatori che hanno progettato l’intelligenza artificiale del robot. Ciò appare con tutta evidenza una contraddizione, in considerazione del fatto che ogni azione di un automa, seppur accidentale e non prevista, ha origine dal codice creato dal programmatore del software o dal team di sviluppo che lo ha implementato.
3.5. Responsabilità penale della macchina autonoma
Sul piano squisitamente penalistico, vari autori hanno indagato sull’applicazione delle categorie criminologiche nei confronti della macchina intesa quale moderno soggetto attivo del reato. La domanda che ci si è posti è se possa esistere una coscienza digitale ed una<
Biancardo Alberto
Download:
2021_3 jus online - ESTRATTO BIANCARDO.pdf