fbevnts Soggettività umana e diritto al lavoro nella trasformazione digitale

Soggettività umana e diritto al lavoro nella trasformazione digitale

27.06.2018

Barbara Troncarelli

Professore ordinario di Informatica giuridica, Università degli Studi del Molise

 

Soggettività umana e diritto al lavoro nella trasformazione digitale*

 

Sommario: 1. Premessa. – 2. Rischio di automatizzazione del lavoro e tutela del soggetto umano. – 3. Rischio di umanizzazione dell’attività robotica e inconcepibilità del soggetto artificiale.

 

1. Premessa

 

Le tecnologie attuali sono alimentate dal convincimento che l’innovazione sia a priori il bene maggiore, comportando cambiamenti epocali destinati a sfociare in esiti di “singolarità”[1] o di straordinario potenziamento tecnologico-evolutivo, come quello in atto determinato dalle applicazioni robotiche. Ciò potrebbe sembrare l’espressione di una visione dialettica del reale, data la forza dinamica di una costante spinta verso una progettualità anticonservativa promotrice di continue possibilità a cui protendersi senza sosta e senza limiti. Ma l’esaltazione postmoderna della tecnica come fenomeno incessante e incontestabile rappresenta una manifestazione di dialetticità solo in apparenza, perché è caratterizzata da una forte dipendenza dall’oggetto, tipica della logica tradizionale, formale e meccanicistica[2]. In una logica davvero dialettica e ‘metaformale’[3], nessun oggetto, nemmeno quello costituito dalla tecnica, provoca dipendenza o assoggettamento della soggettività umana, poiché in essa è l’oggetto a dipendere dal soggetto[4], come le cose dalle idee, i fatti dai valori, l’agire tecnico da un sapere scientifico che, se propriamente tale e non mero conoscere intellettualistico, è teoretico ed etico al tempo stesso.

Invero, le tendenze tecnocratiche postmoderne risultano il pieno compimento, e non la dissoluzione, di quella logica formale e identitaria che è sottesa anche nel linguaggio-macchina delle tecnologie informatiche sotto forma di algebra booleana[5], perfino quando in tale linguaggio computazionale venga implementata una flessibile e non univoca logica fuzzy[6], dato che a gestire tale linguaggio e le sue possibili declinazioni logico-semantiche rimane pur sempre il programmato meccanismo di funzionamento del dispositivo elettronico. Si tratta di tendenze in cui il soggetto umano è esposto tanto al rischio di un eccesso di condizionamento e controllo da parte dell’oggetto a lui esterno ed estrinseco, nella fattispecie l’oggetto tecnologico pur da lui creato, quanto al rischio di una sua perdita di controllo dell’oggetto stesso. Si può trarne conferma dalle osservazioni di Jonas sulla “dinamica cumulativa degli sviluppi tecnici”[7], i cui processi di espletamento, una volta avviati dall’uomo, sembrano assumere un andamento coattivo e propulsivo tale “da trascendere la volontà ed i piani degli attori”[8]. Questo andamento è emblematicamente riscontrabile quando l’oggetto prodotto arrivi a simulare caratteri e ruoli propri del soggetto produttore, quindi a configurarsi non più solo come ‘qualcosa’ di strumentale, ma come ‘qualcuno’ fornito di un’autonomia operativa tale da essere in grado, come ormai avviene nell’ambito della robotica e della intelligenza artificiale, di surrogare il soggetto stesso prendendone il posto in molte attività, sempre meno nell’interesse dell’uomo. Si tratta di una oggettualità tecnologica atta a ergersi quale realtà autoreferenziale, fino al punto da sembrare equiparabile a un nuovo soggetto, a una inedita quanto fittizia ‘personalità elettronica’ cui conferire diritti e responsabilità.  

È proprio l’assenza di un approccio dialettico al reale, in particolare alla realtà umana e alle sue imprescindibili spettanze ed esigenze di tutela, cioè il perdurare di una concezione meccanicistica, adialettica e acritica del significato della scienza, e delle sue applicazioni, ad avere portato alle attuali minacce rappresentate da una tecnologia dominante[9]. Ciò è comprovato dal “prometeismo”[10] insito nella società postmoderna, sfociante nel paradosso della sottomissione anziché dell’affermazione umana, quale fenomeno estremo non avente nulla in comune con la ‘prometeicità’ inerente alla promozione della vita in ogni sua manifestazione, che richiede sì un grande impegno dell’uomo, ma non espresso nei termini arbitrari di una libertà operativa sprovvista di reale consapevolezza e responsabilità. La subordinazione funzionalistica della scienza alla tecnica e la correlativa affermazione di un’assolutezza tecnologica come “infinità falsa o negativa[11] in cui il nuovo artefatto tecnico appare ogni volta come un fine da cui incessantemente ripartire e a cui pervenire[12], senza ogni altro significato che non sia quello di un perenne “sviluppo senza progresso”[13], conferisce all’uomo un potere fittizio, caratterizzato da una sempre minore capacità di controllo sulla tecnica in quanto unica effettiva “potenza che non ha più alcun freno”[14].

È questa una tecnica foriera di rischi gravi, che però possono essere contrastati tramite la rivalutazione del ruolo sostanziale del diritto, nella sua costitutiva valenza ideale prima ancora che effettuale, etico-razionale prima ancora che giuridico-pratica. Un diritto così ripensato non può evitare di opporre resistenza alle derive tecnocratiche crescenti. Non è infatti il diritto concepito in chiave di formalismo procedurale o di funzionalismo sistemico rispondente per lo più ai ‘dati di fatto’, ma è il diritto come specifica dimensione categoriale orientata verso irrealizzati, eppur non irrealizzabili, ‘dati di principio’ che può fornire una risposta proattiva e costruttiva nei confronti del prassismo di una tecnica ormai votata a obiettivi di iperspecialismo pressoché avulso da riflessioni d’insieme[15]. Per restituire spazio a una responsabilità tecnoscientifica capace di cogliere il senso originario della complessità del mondo umano e di sconfessare una libertà indiscriminata di ricerca e di sviluppo tecnologico, si può non solo muovere dal principio normativo di precauzione già elaborato in ambito europeo a fini di tutela ambientale e sanitaria quale prima risposta agli emergenti rischi tecnologici[16], ma anche e soprattutto indurre all’osservanza dei princìpi etico-giuridici di dignità della persona e di solidarietà sociale in quanto essenziali fattori di resilienza verso un operativismo pseudo-scientifico non fronteggiabile senza adeguata difesa della soggettività umana, a cui nessuna tecnologia, se rimasta tale e non degradata in tecnocrazia, può permettersi di attentare.

La tecnica è “nell’essenza stessa dell’uomo”[17], che tende a esistere come homo faber in grado di esercitare un controllo attivo sulla realtà. Il problema risiede, piuttosto, nell’assolutizzazione della prassi rispetto al pensiero, nonché della tecnica rispetto alla scienza, per la cui soluzione non rimane che la riscoperta della intrinseca relazione intercorrente tra il sapere scientifico e le sue applicazioni. La relazionalità a cui si fa riferimento è un assunto teoretico-epistemologico oltreché pratico-morale, poiché rap­presenta la prospettiva logico-dialettica in cui si inscrive ogni manifestazione fenomenica. In tale prospettiva, la parte è in reciproco rapporto, almeno potenzialmente, con ogni altra e con la totalità di esse, anzi rispecchia e veicola il tutto. La componente distruttiva della realtà, mai del tutto estirpabile, risiede in primis nella violazione di tale presupposto relazionale, eterogeneo sia alla logica della identità sia a quella della diversità, univocamente per sé prese. Si tratta di un presupposto necessario a ricomporre le scissioni rinvenibili in tutte le forme di assolutizzazione, inclusa la crescente ipertrofia tecnologica, e a ritrovare il legame armonico dell’agire con il sapere. Senza unità tra teoria e prassi, tra pensiero e azione, tra scienza e tecnica, non solo si configura una “società del rischio”[18], ma incombe una più allarmante ‘società a rischio’, in cui è la società nella sua interezza a essere minata da una prassi tecnologica senza vera razionalità scientifica, da uno sviluppo senza progresso, da molteplici azioni particolari senza alcuna visione unitaria. Permane nondimeno l’alternativa lontana, ma ancora conseguibile, di una società i cui rischi siano affrontati con spirito di responsabilità tale che la tecnica, da finalità autoreferenziale, torni a essere uno strumento per l’uomo e per la riaffermazione del suo “primato”[19], cioè del principio secondo cui “l’interesse e il bene dell’essere umano devono prevalere sul solo interesse della società o della scienza”[20], fermo restando che in ambito infotelematico, non meno che biomedico e biotecnologico, tale primato è ugualmente distante sia dall’assolutizzazione del soggetto individuale a detrimento delle istanze di progresso sociale e scientifico, sia dall’assolutizzazione di una tecnoscienza senza limiti a scapito del soggetto stesso.

 

2. Rischio di automatizzazione del lavoro e tutela del soggetto umano

 

La pervasività assunta dalla tecnica a svantaggio del ruolo prioritario spettante all’uomo trova una emblematica conferma nella decrescente possibilità di esercizio del diritto al lavoro, sempre più messo a repentaglio dall’efficientismo perseguìto mediante le nuove tecnologie di automatizzazione dei processi produttivi. Sono processi tendenzialmente ancora più disumanizzanti di quelle tecniche di produzione che, a partire dalle catene di montaggio introdotte dalla ‘seconda rivoluzione industriale’ con la divisione meccanizzata del lavoro, sono giunte nella ‘terza rivoluzione industriale’, tuttora in atto, a una prevalente gestione informatizzata delle imprese, con elaboratori elettronici al posto di risorse umane. Già in questa terza fase di sviluppo, i lavoratori che più riescono a mantenere il proprio lavoro sono non gli operai, ma i pochi tecnici addestrati a controllare, muovendo da un nuovo sistema di “produzione snella” diverso dalla “produzione di massa”[21] effettuata per lo più tramite le catene di montaggio, la corretta regolarità di funzionamento dei processi meccanizzati di produzione. Ciò implica una graduale deprivazione della fabbrilità umana, e una conseguente riduzione dei posti di lavoro[22], nonché una centralità ricoperta non più dall’uomo, ma dai meccanismi artificiali di organizzazione industriale, dove la nuova figura emergente di tecnico dell’automazione assume, in sostanza, la mansione di un “pastore delle macchine”[23], molto lontano dal “pastore dell’essere” di heideggeriana memoria[24]. Senonché, da sorvegliante o sovraintendente dei processi meccanizzati di produzione, il soggetto umano nella ‘quarta rivoluzione industriale’ è esposto al rischio di perdere anche tale mansione, divenendo così un mero ‘esubero’ da esautorare per esclusive ed escludenti esigenze di maggiore efficienza ed economicità della produzione o della gestione di riferimento, non essendoci più, nell’ottica angusta di obiettivi manageriali scissi dal rispetto dei doveri umani e dei diritti sociali, alcun incarico lavorativo da affidargli, nemmeno come supervisore o “pastore”[25] dei processi produttivi e dei servizi espletati, quando essi siano stati ormai automatizzati o robotizzati.

Il “diritto al lavoro”[26], che le dinamiche di una malintesa trasformazione digitale vengono a ledere sul piano individuale e sociale, non è un’accidentale conquista del diritto positivo o di una contestualità socio-politica storicamente determinata, ma un fondamento etico-giuridico radicato nella ragione propria della dimensione umana, come è stato perfettamente compreso da Hegel: “il lavoro non è un istinto, bensì una razionalità […]; e il lavorare appunto perciò è presente non come istinto, bensì in quella tal maniera dello spirito per cui il lavoro come attività soggettiva del singolo è tuttavia diventato qualcosa di altro, una regola universale”[27]. Sottrarre a un individuo la sua attività lavorativa per consegnarla a un meccanismo di automazione significa sì, in alcuni casi, liberarlo da una incombenza opprimente o da un’attività pericolosa, ma più spesso significa perseguire obiettivi particolaristici di maggiore profitto, e così facendo impedirgli, oltreché di guadagnarsi da vivere, anche e soprattutto di concorrere mediante l’espletamento del proprio lavoro all’attuazione del passaggio da un livello di vita strettamente individuale al livello metaindividuale dell’esistenza, a cui ogni lavoro è riconducibile come espressione di operosità e utilità sociale. Il lavoro rappresenta una crescita essenziale per ogni persona e per la sua dignità, cioè il superamento del singolo, pur senza alcuna sua negazione, in direzione del genere umano. Attraverso il lavoro, “l’egoismo soggettivo si rovescia nel contributo all’appagamento dei bisogni di tutti gli altri[28], ragion per cui mentre “ciascuno guadagna, produce e gode per sé, egli appunto con ciò produce e guadagna per il godimento degli altri”[29]. Si tratta di una possibilità di realizzazione non esperibile senza lavoro, il quale è non solo un diritto fondamentale, ma un bisogno altrettanto fondamentale in grado di appagare altri bisogni. Nessuna macchina può, pertanto, essere legittimamente concepita e impiegata come un surrogato del lavoratore umano, anziché come uno strumento a sua disposizione.

Il rischio maggiore provocato dalla trasformazione digitale consiste nella tendenza a una estraneazione dell’uomo da se stesso causata non più dal lavoro degradato a merce, come verificatosi nelle fasi più buie della società capitalistica segnate da una drammatica “relazione della signoria e della servitù[30], e da una correlativa contrapposizione tra il lavoratore e il proprio lavoro, atta a ridurre il lavoratore stesso da soggetto a oggetto, anzi a “merce, la più miserabile merce”[31]. Nella trasformazione verso una società automatizzata, la fonte primaria di estraneazione non è più “il lavoro alienato”[32] di cui viene svolta da Marx un’analisi esemplare, dalla quale si evince che, al pari dei lavoratori, i prodotti di tale lavoro “diventano merci […]. Quindi, non più rapporti immediatamente sociali fra persone, ma rapporti di cose fra persone e rapporti sociali fra cose[33]. Ora non è la mercificazione, ma la scomparsa del lavoro e della figura stessa del lavoratore in conseguenza delle nuove tecnologie di automatizzazione a rendere l’uomo un soggetto estraniato da sé e, insieme, un oggetto sostituibile da altri oggetti che, in quanto automi, fungono essi da nuovi soggetti, pronti a espropriarlo di tutto, a partire dal suo bisogno insopprimibile di lavoro e dal diritto a soddisfare i propri bisogni attraverso lo svolgimento di una, sia pur modesta, occupazione lavorativa.  

Marx compie molte osservazioni sulla importanza del lavoro per ogni soggetto umano, a partire dall’assunto secondo cui è necessario supporre “il lavoro in una forma nella quale esso appartenga esclusivamente all’uomo[34]. È il lavoro, finché non reso “alienato” dall’organizzazione capitalistica dei processi produttivi, a realizzare appieno l’essenza dell’uomo, che nel lavoro “contrappone se stesso, quale uno fra le potenze della natura, alla materialità della natura”[35]. Se ne desume una concezione marxiana dell’uomo e del suo lavoro rivolta a superare l’univocità sia del materialismo naturalistico che dell’idealismo astratto. Il lavoro non è, in tale concezione, una condanna per l’uomo, ma anzi l’affermazione dell’essere umano, che attraverso il lavoro può giungere alla coscienza di sé, non tanto come individuo, quanto come uomo nella sua “specifica essenza[36]. Tuttavia, il significato formativo riconosciuto al lavoro da Marx e anche da altri autori quali Kierkegaard, secondo cui il “dovere di lavorare per vivere esprime ciò che è comune al genere umano, ed esprime anche, in un altro senso, l’universale, poiché esprime la libertà”[37], non rappresenta un luogo comune della cultura occidentale, se è vero che, accanto a tale significato, ricorre spesso la convinzione del carattere inevitabilmente penoso del lavoro, reiterata da Nietzsche nella sua critica al lavoro come “mancanza di spiritualità”[38] e di gioia contemplativa, nonché da Marcuse nella propria contrapposizione tra lo sfruttamento repressivo comportato dal lavoro e la preferibile improduttività del gioco[39].

Lungo questo percorso, si colloca anche la visione proclive a vedere nelle tecnologie robotiche nuove possibilità di liberazione dal lavoro, specialmente se di tipo ripetitivo, mediante l’espletamento automatizzato di compiti in precedenza effettuati da soggetti umani, che sarebbero così in condizione di dedicare maggiore tempo ed energia ad attività di carattere più soddisfacente. Ciò è sostenuto anche dalla Risoluzione europea su tali tecnologie[40], in cui si può leggere che “l’automazione dei posti di lavoro è potenzialmente in grado di liberare le persone dalla monotonia del lavoro manuale, consentendo loro di avvicinarsi a mansioni più creative e significative”[41]. Sebbene simili argomentazioni siano molto diffuse, e spesso addotte per giustificare atti o programmi di esautorazione dei lavoratori mediante l’automatizzazione delle attività lavorative, permane nondimeno notevole il versante di pensiero teso a ribadire il senso incondizionato del lavoro umano in tutta la sua “importanza fondamentale e decisiva”[42], in quanto l’uomo è da ritenersi non già ‘soggetto al lavoro’, ma piuttosto “soggetto del lavoro[43], con le risultanze teoretiche e pratiche che se ne possono trarre, tra le quali l’esigenza socio-economica di restituire alle persone non solo un lavoro, ma per quanto possibile un “lavoro gratificante”[44], loro sottratto. Dalla indisponibilità dell’uomo in quanto fine e non mezzo, soggetto e non oggetto dell’attività lavorativa, anche di quella più umile di tipo manuale, deriva che da tale attività nessuno può essere espulso per motivi di convenienza o interesse dei titolari d’impresa, sia perché qualsiasi soggetto, lavoratore o meno che sia, non è mai trattabile come strumento di cui disporre come se fosse una cosa o un oggetto di proprietà, nella fattispecie come uno dei mezzi di produzione posseduti, sia perché alla gestione di tali mezzi egli dovrebbe, in qualche modo, prendere parte attiva. Anche secondo la dottrina sociale cattolica, “continua a rimanere inaccettabile la posizione del ‘rigido’ capitalismo, il quale difende l’esclusivo diritto della proprietà privata dei mezzi di produzione come un ‘dogma’ intoccabile nella vita economica”[45].

Alla luce della consapevolezza del profondo significato umano del lavoro, emerge rafforzata la necessità di interventi normativi mossi dall’obiettivo di riconoscere alle persone l’esercizio effettivo del diritto di avere un’occupazione, di contro all’intendimento di uno sviluppo tecnologico ed economico appiattito sulle dinamiche desoggettivanti della ‘quarta rivoluzione industriale’, o industry 4.0. Si allude a quelle dinamiche protese verso una massimizzazione dei requisiti di efficacia ed efficienza, anche a danno di irrinunciabili diritti umani e sociali, che rischiano di essere drasticamente negati se, per molti individui, si arrivi a sancire la loro superfluità lavorativa in un modello automatizzato di industria. È il doveroso rispetto del soggetto umano, più esattamente i princìpi di dignità e di solidarietà umana, a richiedere specifiche iniziative del diritto e delle istituzioni giuridiche, nazionali e internazionali, a tutela del lavoro umano inteso quale “fondamentale diritto di tutti gli uomini”[46] e questione di cruciale importanza per l’umanità e il suo destino. Di fronte a una politica che mostra una crescente difficoltà a salvaguardare il lavoro, gli organi del diritto sono chiamati a far valere le proprie ragioni, o meglio quella ragione eticamente orientata che impone a tutti, inclusi gli inventori di nuove tecnologie ad alto impatto sociale, di attenersi ai doveri fondamentali di rispetto delle persone, che sono alla radice degli stessi diritti umani, sociali e individuali. Nel quadro di un razionale ed etico ‘diritto come dovere’, piuttosto che di un economicistico ‘diritto come pretesa’, spicca infatti l’obbligo di riconoscimento non solo del primato del soggetto umano sul lavoro, di cui egli si serve e a cui non può essere né asservito né reso estraneo, ma anche del primato del lavoro per il soggetto umano in quanto possibilità di realizzazione personale, negata ogniqualvolta “la meccanizzazione del lavoro ‘soppianta’ l’uomo”[47].

Il diritto rimane il principale baluardo in grado di disincentivare le tendenze spersonalizzanti della società globale mediante norme che consentano in ambito lavorativo la tutela delle risorse umane, e che contrastino le implementazioni più radicali delle tecniche di automatizzazione dei processi produttivi di beni o servizi. D’altra parte, le misure di welfare a favore di un sussidio minimo finalizzato a bilanciare la scomparsa di molti posti di lavoro subordinato appaiono di ardua attuabilità economica oltreché opinabili, data la non-equivalenza del valore del lavoro soltanto alla sua remunerazione, da cui si può desumere la discutibilità della proposta riparatoria di un reddito di cittadinanza in caso di disoccupazione[48]. Anche la riqualificazione formativa e professionale dei lavoratori più esposti al pericolo di perdere il posto, o già licenziati, è una soluzione non facile, né adatta per i lavoratori meno giovani incapaci di acquisire competenze diverse da quelle già possedute. Molto più plausibile è la proposta di una tassazione sulla produzione e l’uso di sistemi automatizzati, perorata in particolare da Bill Gates[49], mostratosi allarmato egli stesso, fondatore di Microsoft, da uno sviluppo dell’informatica più sconvolgente del previsto. Tassare i processi di automatizzazione è una possibilità suggerita anche da Robert Shiller[50], premio Nobel per l’economia nel 2013, che è stata sottoposta all’attenzione del Parlamento europeo[51], ma poi da esso respinta e non ricompresa nella stesura definitiva della Risoluzione approvata in materia di robotica e intelligenza artificiale[52]. Essa può costituire, invece, una misura atta a rallentare uno sviluppo tecnologico incondizionato, e a promuovere mutamenti imprenditoriali in direzione sia di maggiori investimenti nei settori non automatizzabili, sia di una conservazione della presenza umana in ambito lavorativo. Frattanto, le dinamiche vorticose di una tecnica rivelatasi non abbastanza in grado di autoregolamentarsi e di dar luogo a una libertà responsabile, stanno concorrendo a segnare la fine non solo dell’ordine sociale e delle categorie giuridiche del passato, in special modo dei diritti soggettivi introdotti sin dall’epoca moderna, ma finanche dell’aleatorio equilibrio sistemico finora raggiunto, tramutando la crisi del soggetto come tratto distintivo della società postmoderna[53] in un ‘individualismo desoggettivato’[54] ancora più destabilizzante, quale carattere peculiare di una globalizzazione economicistica e divisiva divenuta ormai insostenibile.

Tutto ciò attesta una costante erosione del legame sociale, stante l’attuale assolutizzazione dell’individuo a scapito del soggetto umano[55], nel contempo correlata, non senza paradosso, a processi di spersonalizzazione e di appiattimento omologante di comportamenti e abitudini di vita. Senza contare il declino delle tecniche d’uso rispetto alle tecniche produttive, in quanto fenomeno iniziato con l’avvento del modello capitalistico di produzione industriale, e a tutt’oggi proseguito con intensità sempre maggiore con lo sviluppo del modello tecnocratico di automatizzazione del lavoro, in cui ciò che rileva è l’efficientizzazione della produzione di beni e servizi, a prescindere dagli usi più o meno proficui che si possa fare di essi, resi sostanzialmente irrilevanti al pari dei soggetti umani. Si è così smarrito anche l’insegnamento proveniente dal mondo classico e, in particolare, da Platone, secondo cui il sapere che sovraintende all’uso delle cose è superiore alle competenze che determinano la produzione di esse[56], ragion per cui le tecniche e abilità produttive dovrebbero rimanere funzionali o strumentali al migliore uso possibile dei prodotti, e non viceversa. Nella società tecnologica orientata verso il modello di industria 4.0, la trasformazione digitale dei processi produttivi è, al contrario, rivolta a predominare su ogni altro aspetto o processo, socio-economico e umano, neutralizzandone la rilevanza e il significato se esso non si presti a essere subordinato funzionalisticamente a una tecnica sempre più assolutizzata.

Dinanzi a norme come quelle delineate dal Parlamento europeo[57], aventi carattere pressoché confermativo delle tendenze tecno-economiche esistenti, quindi inadeguate per fronteggiare la gravità dei rischi sottesi alla trasformazione tecnologica in atto, appare determinante la promozione di un ‘diritto per princìpi’[58] espresso da una giuridicità non solo alternativa a tali tendenze effettuali, ma anche a un pensiero disorganico affermatosi nella postmodernità sotto forma di un indebolimento teoretico e valoriale ingiustificato, oltreché potenzialmente foriero di scelte irresponsabili[59]. Sono in questione princìpi riconosciuti anche dalla comunità internazionale in vari atti declaratori e pattizi[60], che nondimeno sono stati sottovalutati da un ‘diritto per regole’ omogeneo alle esigenze di un modello funzionalistico-sistemico di globalizzazione incentrato sulla competizione e sugli interessi particolari dei soggetti economicamente più forti, anziché su istanze condivise orientate al bene comune. In tale contesto destrutturato, permane tuttora di portata innovativa il dettato costituzionale italiano nei suoi princìpi ispiratori, in cui il lavoro viene riconosciuto come fondamento della Repubblica e valore basilare della vita collettiva, ovvero come lo strumento primario per la realizzazione individuale e sociale del soggetto umano[61].

Del resto, ciò è in linea con la Carta internazionale del lavoro del 1919, aggiornata dalla Dichiarazione di Filadelfia del 1944, nonché dalla Carta sociale europea del 1961, a cui ha fatto seguito nel 1966 il Patto delle Nazioni Unite sui diritti economici, sociali e culturali quale testo normativo rilevante a livello mondiale anche in riferimento al diritto del lavoro, disatteso dalle dinamiche della tecnocrazia postmoderna attraverso una compressione delle legittime spettanze di molti individui rimasti disoccupati o divenuti tali, a cui si cerca di rispondere mediante proposte assistenziali di vario tipo. Non sono però i sussidi economici, percepiti illusoriamente come rimedio alla crescente automatizzazione dei processi produttivi, a conferire dignità e possibilità di realizzazione umana, essendo solo discutibili rimedi ex-post a una esautorazione di persone a cui si offrirebbe un mantenimento pubblico più o meno duraturo nel tempo, e forse economicamente insostenibile nel lungo periodo, seppur ritenuto la più concreta misura di welfare in caso di perdita del posto di lavoro. Alle persone occorre dare, piuttosto, la possibilità di trovare lavoro o di conservarlo, e di mantenersi da sé, eventualmente con una riduzione di orario che consenta il numero maggiore possibile di occupati, senza che la trasformazione digitale costringa tali soggetti a trasformarsi essi stessi in oggetti passivi di assistenza sociale concessa loro da altri. Contro l’avvento di una prossima società delle macchine avente le sembianze di vero progresso, pur essendo solo lo sviluppo di una tecnica enfatizzata al punto da sancire la sostanziale subalternità e non la valorizzazione degli esseri umani, si colloca quanto già enunciato a livello internazionale sul diritto al lavoro, sostenuto e difeso come “diritto di ogni individuo di ottenere la possibilità di guadagnarsi la vita con un lavoro liberamente scelto o accettato”[62], con ciò che ne discende sul piano del dovere di garantire a tutti equa retribuzione, esistenza decorosa, sicurezza sociale, libertà economiche e sindacali, quali inderogabili spettanze basate sul principio di tutela della “dignità inerente alla persona umana”[63].

Ma quello che nel diritto comunitario si è finora compiuto per regolamentare le nuove tecnologie robotiche consiste nella formulazione di una Risoluzione del Parlamento europeo contenente una serie di raccomandazioni[64] che in una prossima Direttiva possano costituire un quadro normativo ad hoc omogeneamente valido in tutti gli Stati membri, dalle quali si evince sì un importante richiamo al principio di precauzione e alla necessità di estenderlo alle nuove applicazioni in materia[65], ma non si constata alcun segnale di allarme sui sistemi di intelligenza artificiale che vengano impiegati come meccanismi tecnocratici a fini di drastiche riduzioni di organico. Si tratta di sistemi progettati per subentrare tout court in sostituzione dei lavoratori, sulla base delle nuove tecnologie di Robotic Process Automation (RPA) tese appunto a rimpiazzare il lavoro dell’uomo, e non soltanto a integrare le sue capacità, come pur auspicato in tali disposizioni comunitarie[66]. Il Parlamento europeo si limita così a raccomandare la verifica della sussistenza di problemi, peraltro già venuti in luce, di adeguamento ai mutamenti tecno-economici in atto, astenendosi da una più decisa strategia programmatica. Esso sembra confidare, piuttosto, nelle spontanee dinamiche di riequilibrio economico-sociale in grado di arginare il fenomeno, previsto sin dai tempi del lungimirante Ricardo, della “disoccupazione tecnologica”[67], ed evocato anche da Keynes nei termini di “una nuova malattia” destinata a crescere con l’avanzare delle “trasformazioni tecniche” e con la “scoperta di strumenti economizzatori di manodopera”[68]. Anziché adoperarsi per interventi normativi mirati sul ricorso crescente all’uso di sistemi robotici, l’Europarlamento non fa che invitare precauzionalmente “la Commissione a iniziare ad analizzare e a monitorare più da vicino le tendenze occupazionali di medio e lungo periodo”[69].

Un simile approccio precauzionale è, senza dubbio, necessario nella regolamentazione di molti aspetti delle nuove applicazioni tecnologiche, anche in ambito digitale e più specificamente nel settore della robotica, ma non basta per evitare gli incombenti rischi sociali e per prevenire i danni, né basta l’atteggiamento acquiescente sotteso all’affermazione secondo cui “l’uso diffuso di robot potrebbe non portare automaticamente alla sostituzione di posti di lavoro, ma le mansioni meno qualificate nei settori ad alta intensità di manodopera potrebbero essere maggiormente esposte all’automazione”[70]. Stando a un’attenta analisi dei dati, appare più congruo osservare che “vi è un settore dove i robot hanno già determinato dei cambiamenti, anche drammatici, ed è il settore industriale, dove la sostituzione del personale umano con robot ha creato problemi di disoccupazione, problemi che potranno solo aumentare, man mano che i robot diventeranno sempre più autonomi”[71]. A porre precocemente in luce il problema è già uno studio del 2013, dal quale si evince che negli Stati Uniti quasi il 50% dei posti di lavoro potrebbe essere presto assorbito dall’automatizzazione[72]. Dal World Economic Forum del 2016, è poi emerso che nei prossimi anni a livello mondiale, accanto a due milioni di posti di lavoro creati anche in virtù della richiesta di nuovi profili tecnico-professionali, si assisterà alla scomparsa di circa sette milioni di posti di lavoro prima esistenti, con un conseguente saldo netto negativo di oltre cinque milioni di posti di lavoro perduti, in prevalenza a seguito delle dinamiche innovative di trasformazione digitale dei processi produttivi[73].

Si pensi alla tecnologia di Machine Learning, portata avanti per progettare e realizzare, in alcune sue applicazioni più avanzate, automi in grado di prendere il posto dell’uomo, non solo in ambito industriale, ma anche in quelle attività di servizio, tra cui l’assistenza ad anziani e/o malati, che peraltro sollevano ulteriori interrogativi sull’accettabilità morale di macchine prodotte non solo in sostituzione di lavoratori umani, ma come surrogato di complesse relazioni professionali o affettive. Sono relazioni di per sé non equiparabili né riducibili a interazioni tra uomo e macchina[74], anche in considerazione del fatto che “dovrebbe essere prestata un’attenzione particolare alla possibilità che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili)”[75]. Sta tuttavia avanzando la convinzione che un robot ‘androide’ o ‘umanoide’ costituisca a pieno titolo una nuova soggettività, sia pur artificiale e non umana, a cui potrebbe anche essere attribuito, in qualità di macchina capace di autoapprendimento, lo status di soggettività giuridica, quantomeno nella misura in cui sia un sistema fornito di facoltà intelligenti, ossia di capacità autonome di comprensione e decisione. Ma ciò non vale a escludere l’infondatezza di tale attribuzione di soggettività alle macchine, stante la loro insuperabile connotazione di oggettività in quanto ‘oggettualità’ o cosalità tipica di ogni artefatto, sia esso avente realtà materiale, intellettuale o virtuale, del quale si dispone come di una cosa e si detiene la proprietà, contrariamente alla soggettività umana, mai sottoponibile ad alcun atto di disposizione o appropriazione fattuale.

Anche nell’ambito della trasformazione digitale mediante implementazioni avanzate di robotica e intelligenza artificiale, il principio di precauzione attende di essere riaffermato come una rigorosa valutazione di impatto, finalizzata a vagliare previamente la capacità o meno delle relative applicazioni tecnologiche di rappresentare un reale fattore di progresso per tutti, e non solo per i soggetti fruitori dei proventi economici ricavabili dalle nuove attività automatizzate. Ma accanto a tale cautela applicativa, che non può essere sufficiente dinanzi a un ritmo di trasformazione sempre più intenso, si impone come un ineludibile dovere etico-giuridico il riferimento ai princìpi di dignità personale e solidarietà sociale per bilanciare l’estrinsecazione della legittima libertà di iniziativa imprenditoriale con l’osservanza dei valori di utilità collettiva e di rispetto dovuto a ognuno come essere umano, prima ancora che come cittadino. Il diritto eticamente inteso non può, infatti, legittimare uno sviluppo innovativo il cui traguardo finale sia attuare l’implementazione di avanzate tecnologie digitali in sostituzione dei lavoratori, anziché limitarsi al supporto di attività umane per mezzo di una tecnica posta davvero al servizio dell’uomo, senza essere a lui preposta. Il lavoro, anche di tipo routinario e non creativo, è una prerogativa umana da salvaguardare “in tutte le sue forme ed applicazioni”[76], essendo un diritto-dovere di carattere socialmente fondativo, per il cui esercizio ogni società giuridicamente edificata è chiamata a garantire, piuttosto, ritmi e modalità accettabili.

È una questione di tutela del soggetto umano e della sua dignità, che sin dal costituzionalismo del secondo dopoguerra richiede l’obbligo statale di rimozione degli ostacoli socio-economici al godimento della libertà personale e della uguaglianza intersoggettiva[77]. Si tratta di istanze peculiari di una vera cultura del diritto, e incompatibili con la riduzione della persona a oggetto, ovvero a mero strumento o a entità fungibile. Ciò è quanto, al contrario, tende ad avvenire nel modello di produzione industriale sempre più automatizzato, da cui l’uomo sembra destinato a essere estromesso se non si intervenga in tempo, in primis con una idonea regolamentazione, affinché non si verifichi che al soggetto umano subentri un altro presunto soggetto artificiale. Se così fosse, si avrebbe la violazione degli stessi princìpi fondativi del diritto italiano e comunitario, in particolare della dignità di tutti, anche di coloro che forniscano le prestazioni lavorative meno specializzate, così come viene richiamato dalla Costituzione italiana laddove dispone che “l’iniziativa economica privata è libera”[78], ma che essa “non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà, alla dignità umana”[79], nonché dalla Carta dei diritti fondamentali dell’Unione Europea, che dopo aver enunciato l’inviolabilità della dignità umana[80], ribadisce come il “diritto di lavorare”[81] appartenga a ogni individuo, e come ciò implichi sia la “tutela contro ogni licenziamento ingiustificato”[82], sia “condizioni di lavoro sane, sicure e dignitose”[83], secondo i princìpi di solidarietà, sicurezza e assistenza sociale.

Il richiamo a una responsabile regolamentazione della scienza e delle sue implementazioni pratiche, che partendo da un approccio precauzionale giunga alla rivalutazione dei princìpi-cardine di dignità e solidarietà a difesa della soggettività umana, attende di essere attuato in tutti i settori delle nuove tecnologie, ma soprattutto nelle dinamiche della trasformazione digitale[84], e include anche i problemi concernenti il trattamento automatizzato di dati personali, significativamente assunti di recente a materia di un apposito Regolamento europeo[85]. Infatti, non è pensabile che il trattamento massivo delle informazioni mediante tecniche di profilazione dei dati personali, nonché la questione dei Big Data e dell’Internet of Things, siano temi disgiungibili dalle problematiche sorte con l’introduzione dei sistemi di robotica e di intelligenza artificiale in ambito sociale e produttivo, essendo tali sistemi intelligenti sempre più correlati con sistemi informativi, o banche di dati, in quanto basi di conoscenza e di elaborazione per l’espletamento delle loro molteplici funzionalità interattive e cognitive[86]. Perciò, l’adozione di adeguate misure di sicurezza dei dati trattati, finalizzate alla tutela dei diritti di libertà e riservatezza, appare sempre più necessario in quanto, se si resti “in assenza di un intervento del diritto, sembra che il cyberspazio si vada avviando […] verso la sostituzione di controlli software ai controlli giuridici e verso una completa perdita della cosiddetta privacy[87], con grave detrimento dell’osservanza in rete dei diritti umani, e con deresponsabilizzazione dei soggetti ivi operanti, siano essi produttori o utenti delle tecnologie digitali.

Il mantenimento del controllo umano rappresenta il presupposto e, insieme, il risultato dell’osservanza dei diritti-doveri non solo di libertà, ma di uguaglianza sostanziale degli individui come soggetti unici eppur identici tra loro, anche e soprattutto nella loro dignità personale e sociale di soggetti lavoratori, a salvaguardia dei quali il diritto non può esimersi dal regolamentare, ed eventualmente sanzionare, il fenomeno crescente della loro sostituzione con macchine o con processi meccanici che non sia giustificata da attività lavorative pericolose o particolarmente gravose per gli esseri umani. Oltre al rischio sconcertante di un eccesso di controllo degli individui causato dalla proliferazione dei trattamenti elettronici di dati personali a cui sono sottoposti, a incombere sull’immediato futuro c’è infatti il rischio ancora più sconcertante di una loro perdita di controllo dello sviluppo tecnologico di automi utilizzati nel ruolo di lavoratori artificiali, le cui funzionalità sempre maggiori inducono a innalzarli impropriamente da oggetti in soggetti, nonché a farli competere o interagire, da pari a pari, con gli individui, quasi che le macchine fossero a essi comparabili, e non piuttosto un mezzo al loro servizio. Anche in considerazione di ciò, è essenziale promuovere, a integrazione delle recenti iniziative europee di regolamentazione a tutela dei dati personali elettronicamente trattati[88], nuove norme di diritto sulla robotica che siano orientate, rispetto alle raccomandazioni già enunciate dal Parlamento europeo[89], verso una più netta difesa dei soggetti umani e del loro lavoro da un incremento indiscriminato di automatizzazione, anche se meno efficiente e meno conveniente del lavoro svolto dalle macchine automatizzate.

  

3. Rischio di umanizzazione dell’attività robotica e inconcepibilità del soggetto artificiale

 

L’intelligenza artificiale sta diventando sempre più capace di autoapprendimento e, quindi, di autonomia, ragion per cui studiosi ed esperti del settore, d’intesa con alcuni esponenti del mondo imprenditoriale, riuniti in una conferenza internazionale in California[90], si sono dichiarati a favore di uno sviluppo sostenibile dell’IA, applicandosi contestualmente alla formulazione di vari princìpi sulla correlativa ricerca, sull’etica e i valori, nonché sulle implicazioni di lungo periodo[91]. Si tratta di un emblematico tentativo di autoregolamentazione avente l’intento di predisporre una sistematica riflessione deontologica sulla portata di queste nuove tecnologie, in grado sì di mutare proficuamente le dinamiche industriali e sociali nonché la stessa esistenza individuale delle persone, ma aventi anche notevoli rischi per gli individui e per l’umanità intera, portatrice di diritti inderogabili non meno dei singoli di cui è composta[92], ragion per cui risulta ancora più pressante l’imperativo etico-razionale di ridurre tali rischi e di ottimizzare le potenzialità benefiche della intelligenza artificiale[93]. È lo sviluppo di sistemi cognitivi molto evoluti, che potranno perfino arrivare a un livello di intelligenza superiore a quella umana[94], a sollevare ancora una volta “il problema del controllo”[95], ovvero a richiamare l’esigenza basilare di non perdere il necessario “controllo sulle macchine intelligenti”[96], nonché a suscitare interrogativi in materia di responsabilità in caso di effetti lesivi causati dagli automi o da un loro uso distorto, a partire dalla responsabilità dei progettisti o ingegneri robotici, non a caso sollecitati a osservare  un apposito “codice etico-deontologico”, così come proposto nell’Allegato alla Risoluzione europea sul tema[97]. Senonché, sorge il dubbio se un’autoregolamentazione pur indispensabile che, come la “Carta sulla robotica” raccomandata dalla Risoluzione, non può se non avere un carattere “volontario”[98] e non vincolante, riesca a soddisfare le istanze etiche comportate dalle nuove tecnologie robotiche[99], e se basti demandare simili istanze solo alla buona volontà degli attori coinvolti, senza tradurle nella obbligatorietà di una normativa giuridica finalizzata alla difesa dei princìpi e diritti, a iniziare dal diritto umano al lavoro, più esposti a essere lesi dall’avvento di una trasformazione digitale orientata all’automatizzazione di gran parte delle attività umane, tra cui molte attività produttive di beni e servizi, in ambito privato e pubblico. Non rimane quindi se non sperare che dopo le varie attività di individuazione di buone pratiche, in cui colloca sia la Dichiarazione di cooperazione sulla intelligenza artificiale sottoscritta in Europa in occasione del Digital Day 2018[100], sia la Comunicazione della Commissione europea[101], sia la nomina di un gruppo di esperti incaricati della formulazione di apposite linee guida eticamente orientate, sia la contestuale istituzione di una piattaforma on-line che concorra a creare una specifica comunità o “alleanza” tra molteplici stakeholders[102], sia l’organizzazione di un forum avente lo scopo di definire una roadmap di durata triennale mediante cui rendere possibile un quadro etico europeo per una “buona società dell’IA”[103], si passi ad atti normativi vincolanti rivolti, in particolare, agli imprenditori e a tutti coloro che possono trarre profitto da tali implementazioni, affinché vengano anteposti ai loro interessi, e ai loro diritti di libera iniziativa economica, i prioritari obblighi di rispetto della dignità, della indisponibilità e del lavoro dei soggetti umani, il cui futuro individuale e sociale non può essere affidato solo a redditi di cittadinanza e/o a corsi tecnico-professionali di formazione digitale, somministrati quali rimedi a occupazioni perdute o mai trovate.

Ciò non toglie che il sotteso problema della responsabilità richieda soprattutto un approccio teoretico-concettuale, e non soltanto normativo o pratico-legale, basato su un’acquisizione di consapevolezza che i presunti doveri dell’automa sono in realtà doveri dell’uomo, in quanto soggetto a cui risale la progettazione, produzione e/o utilizzazione dell’automa stesso, inclusi i doveri rappresentati dalle “tre leggi della robotica”[104] sull’obbligo, la prima, di non recare danno a persone, la seconda di obbedire agli ordini umani a meno che ciò non contrasti con la prima legge, la terza di autodifendersi a meno che ciò non contrasti con la prima e con la seconda legge. Dal punto di vista di un adeguato senso di responsabilità dei progettisti, produttori, utilizzatori, nonché imprenditori, non è concepibile né una meccanizzazione della realtà umana che arrivi a cedere in toto il diritto umano di lavorare ai processi di robotizzazione delle attività industriali, né tantomeno una umanizzazione della operatività di pur sofisticati agenti software che arrivi ad attribuire a essi doveri, e addirittura diritti[105]. Da una parte, l’uomo e il proprio lavoro non sono espropriabili né surrogabili da alcun artefatto o processo automatizzato, poiché sussiste un gap insuperabile tra oggettualità, cosale o virtuale che sia, e soggettività umana; dall’altra, nessuna macchina può farsi altro da sé e assurgere da oggetto a soggetto, sia pur artificiale e non umano, anche se diventi capace di apprendere e di rendersi indipendente.

Umanizzare una macchina costituisce un rischio denso di gravi mistificazioni, data non solo la diversità di struttura tra tessuti organico-biologici del corpo umano e componenti inorganico-materiali di un calcolatore elettronico, ma anche la diversità di funzioni intellettuali espletate dovuta alla presenza o meno di una mente oltreché di un cervello, cioè alla capacità o meno di pensare e di essere autocosciente o consapevole di sé e del mondo esterno. È questo un aspetto problematico di ardua soluzione, destinato a oscillare tra le due opposte tesi della intelligenza artificiale “forte”, che nega una radicale differenza di essa nei confronti della intelligenza umana perché ambedue ritenute in grado di elaborare pensiero[106], e della intelligenza artificiale “debole”, che ne sostiene invece una costitutiva eterogeneità a paragone dei processi mentali umani[107]. Nondimeno, in sintonia con la tesi della ineguagliabilità tra artificiale e umano, si può fondatamente sostenere che l’indipendenza o autonomia conseguibile dalle macchine mediante tecniche avanzate di apprendimento automatico, come il Deep Learning[108], non legittima la convinzione che esse possano trasformarsi da oggetti, pur capaci di una grande capacità di calcolo, in enti forniti di soggettività, e come tali portatori di responsabilità giuridica. Senza ignorare o sottovalutare che le macchine robotiche stiano sempre più acquisendo prerogative umane di intelligenza e autoapprendimento, fino al punto da diventare allarmante il rischio di una graduale scomparsa di attività lavorative e professionali prima espletate dall’uomo, resta il fatto che esse sono inevitabilmente oggetti, senza poter mai assurgere a soggetti di diritto. Perciò, appare tanto più preoccupante non solo l’automatizzazione delle azioni umane, ma anche la tendenziale umanizzazione degli agenti software, che risultano essere sì agenti, ma al tempo stesso oggetti e non soggetti, meritevoli semmai di una “tutela per valore”[109] che, pur essendo augurabile l’elaborazione di una normativa più specifica, è sin d’ora a disposizione in termini di diritto d’autore, di brevetti e di segreto industriale, nonché di una regolamentazione legale del settore informatico già avviata e in continuo avanzamento.

Sebbene a tutt’oggi nessuna norma di diritto positivo ascriva personalità giuridica agli automi, nel prossimo avvenire il problema dello status attribuibile alle macchine in chiave di soggettività e di responsabilità giuridica appare destinato ad assumere un rilievo sempre maggiore, come è già riscontrabile nelle applicazioni tecnologiche delle auto a guida autonoma, o Self-Driving Cars. Anche la Risoluzione del Parlamento europeo sulla robotica[110], prendendo atto del mutamento epocale in corso, sottolinea la necessità di “una serie di norme che disciplinino in particolare la responsabilità, la trasparenza e l’assunzione di responsabilità”[111], soprattutto “considerando che più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, l’operatore, il proprietario, l’utilizzatore, ecc.)”[112]. Ma proprio da ciò emerge il rischio che gli automi siano ritenuti, e trattati normativamente, sempre meno come “meri strumenti”, e sempre più come agenti indipendenti, la cui autonomia “solleva la questione della loro natura alla luce delle categorie giuridiche esistenti e dell’eventuale necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie”[113]. La loro ridefinizione nel senso di realtà soggettive non assimilabili a oggetti può, in linea di fatto se non di principio, finire per umanizzare gli agenti robotici, e arrivare a non escludere la loro responsabilità in caso di incidenti o di danni arrecati a terzi[114]. In tale prospettiva, il Parlamento europeo invita la Commissione a vagliare “l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato”[115].

Di fronte a questo inquietante scenario, risulta di grande importanza ribadire che le macchine robotiche sono prive del carattere di soggetti, trattandosi di prodotti tecnologici che, nonostante il loro crescente sviluppo, anzi proprio a causa di esso, non possono se non essere ritenuti oggetti da tenere sotto controllo, facendone materia di regolamentazione rigorosa quanto resiliente, e non solo precauzionale, da parte di un diritto che abbia la forza di contrapporsi senza ambiguità a ogni insostenibile ipotesi di conferimento a tali prodotti di una soggettività artificiale o elettronica giuridicamente rilevante, come pur si tende a sostenere seguendo la direzione interpretativa di Putnam, uno dei primi fautori dell’attribuzione ai robot della soggettività giuridica e dei diritti civili[116]. La negazione alle macchine, per quanto evolute siano, dello status di soggetti può essere argomentata non solo mediante la rilevazione di una incolmabile eterogeneità strutturale e funzionale intercorrente tra intelligenza artificiale e intelligenza umana, ma anche e soprattutto mediante la considerazione secondo cui l’indipendenza sempre maggiore delle macchine intelligenti, che induce taluni a valutare per esse “il riconoscimento della personalità elettronica”[117] come forma di eventuale parificazione legale dell’ente robotico nei confronti dell’essere umano, autorizza sì a ritenerle fornite di autoreferenzialità rispetto al mondo circostante, ma non dotate di reale autonomia soggettiva. Si pensi, in tal senso, a quanto rilevato con grande profondità da Hegel allorché osserva che “per oggetto non si usa intendere soltanto un essere astratto, o una cosa esistente, o in genere alcunché di reale; ma alcunché di indipendente, concreto e compiuto in sé”[118]. Ciò significa che l’indipendenza, per certi aspetti, può essere vista proprio come una peculiarità dell’oggetto e non del soggetto, della cosa e non della persona, anzi come un elemento di diversificazione dal soggetto stesso. È precipuamente l’oggetto, e non il soggetto, a essere percepibile nella sua indipendente effettualità, cioè come qualcosa che si dà nella sua immediata distinzione dal soggetto, o meglio come un dato di fatto esterno al soggetto, e non confondibile con esso.

L’indipendenza raggiunta dagli automi nei confronti dell’uomo non attesta di per sé la loro presunta qualità di soggetti, ma all’opposto la loro connotazione di oggetti, cioè di enti riconducibili alla dimensione non della soggettività, che può essere solo umana, ma della cosalità, sia essa materiale o virtuale. Ne consegue che anche gli automi più indipendenti sono da ritenersi, al contrario di quanto sostenuto nella Risoluzione del Parlamento europeo sulla robotica[119], non più di “meri strumenti”[120] dei quali mantenere il pieno controllo, e a cui non cedere ruoli, facoltà o diritti tipicamente umani. Essi sono, in realtà, strumenti del “fine in sé” in cui consiste l’uomo[121], che come unico essere etico-razionale oltreché intelligente, non può essere sostituito in modo indiscriminato da macchine automatizzate senza violare le prerogative insite nei princìpi di dignità umana e di solidarietà sociale riconosciuti dal più alto livello della giuridicità quale è il diritto di rango costituzionale, in grado di esprimere la dimensione troppo a lungo dimenticata della ‘eticità’. È questa una dimensione trans-epocale, di autocoscienza oggettiva non meno che soggettiva, cioè di sintesi dialettica dell’etica pubblica con l’etica privata propria della coscienza morale del singolo. Diversamente dall’etica privata, la morale interumana della eticità si realizza oltrepassando, ma non disconoscendo, il circoscritto piano individuale, e non può essere ignorata o infranta senza arrecare una grave lesione al legame sociale.

Tali prerogative comprovano l’incomparabilità sussistente tra uomo e macchina, data l’estrinseca indipendenza dell’oggetto meccanico e l’intrinseca libertà del soggetto umano, quantomeno del soggetto non asservito a un “arbitrio bruto”[122], irrazionale e irresponsabile. Nell’uomo l’indipendenza, o autonomia, ha il significato di libertà come consapevole autodeterminazione, che è l’attributo proprio di un essere capace di sapere oltreché di conoscere, di servirsi della “ragione pensante”[123] oltreché dell’intelletto calcolante, di comprendere oltreché di apprendere, di avere intendimento razionale e relazione cosciente con sé e con il mondo esterno oltreché cognizione intellettuale e interazione operativa con i propri processi di funzionamento e con l’ambiente. Nessuna macchina robotica è autonoma in quanto libera e non condizionata dai suoi stessi elementi funzionali, né è dotata di un’autodeterminazione che non sia il determinismo meccanicistico di un agente tecnologico automatizzato, intelligente eppur non realmente capace di pensare, pertanto privo di libertà, oltreché di soggettività e responsabilità[124]. Un conto è apprendere e conoscere, che sono capacità a cui può giungere una macchina intelligente, un altro conto è comprendere e sapere, che sono invece capacità precluse perfino ai calcolatori superintelligenti, ma non impossibili all’uomo, la cui autocoscienza, in termini di consapevolezza del proprio essere soggetto tra altri soggetti e oggetti, quindi del necessario limite della propria libertà di fronte all’alterità esterna, lo rende capace di essere un soggetto pensante, libero e responsabile. La responsabilità implica quelle facoltà, inerenti soltanto alla soggettività umana, che sono la libertà e la consapevolezza o coscienza, in primis di sé, cioè l’autocoscienza[125], di cui nessuna macchina può essere munita, perché l’intelligenza artificiale delle macchine simulante l’intelligenza naturale dell’uomo non è una espressione di coscienza o di pensiero, e perché “il contenuto umano della coscienza, operato dal pensiero, appare dapprima non in forma di pensiero, ma come sentimento, intuizione, rappresentazione”[126]. Si tratta di facoltà che, nonostante le avveniristiche aspettative di alcuni tecnologi[127], non sono riproducibili da alcun cervello elettronico, anche altamente performante e in grado di elaborare molte più informazioni di quello umano, di cui può sì imitare o simulare il reticolare funzionamento neuronale, ma non eguagliarne l’inarrivabile complessità. Il cervello straordinariamente complesso dell’uomo consente di avvertire emozioni irriflesse nonché di perseguìre scopi razionali e di averne coscienza, senza limitarsi all’espletamento di funzioni cognitive pur di elevata difficoltà, e ciò conferma il divario riscontrabile tra l’intelligenza dell’uomo e l’attività intelligente di una macchina, che tuttavia il “test di Turing” ha cercato di confutare mediante la tesi, alquanto discutibile, secondo cui se una macchina si ‘comporta’ come un ente intelligente, allora essa ‘è’ intelligente, proprio come un essere umano[128].

Senza l’autocoscienza o il sapere consapevole, di cui è capace solo l’uomo, non c’è agire soggettivo responsabile, che non può essere ridotto alla imputabilità per nesso causale tra condotta ed evento, in presenza della quale sussiste semmai una responsabilità oggettiva, senza colpa né dolo[129]. L’agire responsabile è da ricondursi a una continua e difficile conquista della razionalità umana, tanto che non tutti maturano un medesimo senso di responsabilità, sebbene sia anche vero, come sostiene Croce, che, eccetto i folli, tutti gli esseri umani sono responsabili[130], e non possono non rispondere delle azioni da loro compiute. Ma essi sono tali in quanto soggetti consapevoli, piuttosto che in quanto soggetti agenti, ragio

Troncarelli Barbara



Download:
Troncarelli 2018.pdf
 

Array
(
    [acquista_oltre_giacenza] => 1
    [can_checkout_only_logged] => 0
    [codice_fiscale_obbligatorio] => 1
    [coming_soon] => 0
    [disabilita_inserimento_ordini_backend] => 0
    [fattura_obbligatoria] => 1
    [fuori_servizio] => 0
    [has_login] => 1
    [has_messaggi_ordine] => 1
    [has_registrazione] => 1
    [homepage_genere] => 0
    [homepage_keyword] => 0
    [insert_partecipanti_corso] => 0
    [is_login_obbligatoria] => 0
    [is_ordine_modificabile] => 1
    [libro_sospeso] => 0
    [moderazione_commenti] => 0
    [mostra_commenti_articoli] => 0
    [mostra_commenti_libri] => 0
    [multispedizione] => 0
    [pagamento_disattivo] => 0
    [reminder_carrello] => 0
    [sconto_tipologia_utente] => carrello
    [scontrino] => 0
    [seleziona_metodo_pagamento] => 1
    [seleziona_metodo_spedizione] => 1
)

Inserire il codice per attivare il servizio.