The protection of religious freedom on social media. The Oversight Board’s pressure test: so much promise, so little delivery

La tutela della libertà religiosa sui social media. Il pressure test dell’Oversight board: la montagna ha partorito un topolino?

25.10.2022

Nico Tonti*

 

 

La tutela della libertà religiosa sui social media. Il pressure test dell’Oversight board: la montagna ha partorito un topolino?**

 

English title: The protection of religious freedom on social media. The Oversight Board’s pressure test: so much promise, so little delivery

DOI: 10.26350/18277942_000094

 

Sommario: 1. Introduzione - 2. L’espansione incrementale della soft law: un cambio di paradigma irreversibile? - 3. La composizione e il funzionamento dell’Oversight board: un’occasione mancata? - 3.1 La composizione - 3.2 Il funzionamento - 4. L’impatto delle decisioni del Board sul processo di policy-making aziendale - 4.1 Il caso 2020-002-FB-UA - 4.2 Il caso 2020-007-FB-FBR - 4.3 Il caso 2021-013-IG-UA - 5. Conclusioni.

 

 

  1. Introduzione

 

Nell’arco di una ventina d’anni, la rivoluzione digitale e in particolare l’avvento delle piattaforme social hanno modificato in maniera radicale il modo di interazione tra consociati, arrivando perfino a plasmare multiple proiezioni – invero potenzialmente infinite – dell’identità individuale che abitano i diversi social media[1]. Ulteriormente, in questi ultimi anni di emergenza pandemica, si è assistito, da un lato, all’ipertrofico ampliamento della digitalizzazione delle dinamiche relazionali che ha stimolato la creazione di luoghi d’incontro virtuali (non per questo, però, meno reali); dall’altro, tale contingenza ha abituato larghe porzioni di popolazione all’utilizzo disinvolto dei social network, portando all’esponenziale incremento del numero di ‘cittadini’ di queste community che conoscono solo i confini della copertura di rete. Invero, questa tendenza è stata solo accidentalmente accelerata dalla pandemia, trovando la sua scaturigine nel mutamento delle modalità di vivere il cyberspazio, dovuta soprattutto alla repentina diffusione dei social. Questo cambio di paradigma interessa – direttamente o indirettamente – tutta la collettività: basti pensare che Facebook, globalmente, tocca la vertiginosa cifra di più di due miliardi di utenti attivi al mese, quasi un terzo della popolazione mondiale.

Peraltro, come largamente dimostrato[2], la scelta di frequentare queste peculiari loca digitali risponde ad un bisogno comunicativo primario, traslato dal reale al multimediale, che si esplica non di rado nella manifestazione – talvolta esasperata e senza filtri – dei propri convincimenti, anche di natura religiosa[3].

L’utilizzo pervasivo dei social media pone dunque la delicata questione del bilanciamento tra diritti diversi, tra cui rientra indubbiamente la libertà religiosa, che – almeno in via tendenziale – dovrebbe essere rimessa alla prudenziale valutazione del giudice statuale, chiamato – di volta in volta – a pronunciarsi sulla legittimità della rimozione dei contenuti social, operata preventivamente dalle piattaforme[4]. Tuttavia, alla prova dei fatti, il rimedio giurisdizionale risulta essere non del tutto soddisfacente, eminentemente per una duplice ragione. Anzitutto, per le ben note tempistiche dei processi che, almeno nel nostro Paese, non sono in grado di garantire una protezione, celere ed effettiva, al soggetto leso; inoltre, la tutela per l’illegittima rimozione di un contenuto (o per l’eventuale sospensione dell’account) rimane sostanzialmente risarcitoria[5], trovando numerose difficoltà la via del ripristino del post ingiustamente cancellato[6].

Rispetto a quanto appena rammentato, la decisione della società Meta Platforms[7] di istituire un organismo di controllo, chiamato a valutare ex post il moderation system utilizzato dall’azienda, è sembrata – almeno nella fase iniziale – lungimirante e garantistica in quanto agile strumento pensato per assicurare un grado di salvaguardia ‘rafforzata’ alla libertà d’espressione degli users[8]. L’Oversight board (Comitato per il controllo) – questo il nome individuato per l’organo – si pone dunque come congegno al quale gli utenti possono chiedere un accertamento imparziale sulla scelta della piattaforma di eliminare un post, sottoponendola al giudizio di una commissione ‘indipendente’ chiamata a decidere sulla legittimità e sull’opportunità della rimozione[9]. Peraltro, l’istituzione di tale organismo para-arbitrale si colloca pienamente all’interno del più ampio panorama della crisi della sovranità dello Stato[10], anche sotto il profilo delle sue prerogative giurisdizionali[11]: occorre tuttavia verificare se il suo concreto funzionamento offra garanzie procedimentali adeguate alla protezione dei diritti fondamentali. Tuttavia, prima di affrontare i meccanismi di funzionamento del Board e le sue decisioni in tema di salvaguardia della libertà religiosa online è opportuno effettuare un accenno cursorio alla progressiva proliferazione degli strumenti di soft law e di autoregolazione tra privati nel delicato campo dei diritti fondamentali che si estrinsecano sul web[12].

 

  1. L’espansione incrementale della soft law: un cambio di paradigma irreversibile?

 

Considerando le numerose peculiarità che connotano il funzionamento degli ‘ecosistemi’ social, giova premettere che già da tempo in dottrina si discute sull’importanza strategica di individuare chiavi ermeneutiche che possano contemperare il diritto del singolo di poter liberamente manifestare in essi le proprie opinioni – anche quelle religiosamente orientate –con altri diritti, parimenti meritevoli di tutela[13].

Come noto, le dinamiche di salvaguardia dei diritti nei sistemi democratici si muovono principalmente su due piani distinti ma al contempo estremamente connessi: ‘a monte’ compete al legislatore creare un contesto sociale (online e offline) in grado di preservare e valorizzare i diritti che si intendono garantire, ‘a valle’ spetta alla magistratura appurare l’esistenza di una lesione di quegli stessi diritti e, nel caso, reagire alla loro violazione, irrogando sanzioni e ripristinando la legalità infranta, laddove possibile. A questo conosciutissimo e tradizionale modello di teoria generale dello Stato, si affianca – ma ancora non si sostituisce – un secondo schema, caratterizzato dal penetrante intervento di soggetti privati, in questo caso le corporations che gestiscono le piattaforme social. Essi non solo tendono a ‘crearsi’ un proprio diritto, composto da policy d’utilizzo e codici di comportamento, bensì sempre più frequentemente alcuni di essi si avvalgono di una vera e propria giustizia ‘privata’ in house, chiamata primariamente ad interpretare e quindi applicare proprio quella self-regulation confezionata ‘a monte’ dalla stessa azienda. Il caso dell’Oversight board è solo un esempio di questa ‘tendenza surrogatoria’, alternativa all’archetipo statal-pubblicistico[14].

Per meglio argomentare quanto appena affermato, si prendano a campione i casi controversi di rimozione di contenuti social sulle piattaforme gestite da Meta ove, come si dirà più avanti, il Board è tenuto statutariamente ad applicare non tanto – rectius non solo – l’hard law ma, soprattutto, gli Standard della community, elaborati nel caso specifico proprio dalla stessa azienda. Invero, e qui risiede un profilo particolarmente interessante della questione, il processo di espansione dei meccanismi privati di regolamentazione delle condotte degli utenti rischia di traghettare in modo irreversibile il diritto statuale (e oggi anche la giurisdizione) in un cono d’ombra[15], a tutto vantaggio di una ‘giurisdizione domestica’ e delle fonti di soft law le quali, benché non sottoposte ad un alcun vaglio democratico, detengono l’indubbio vantaggio di essere flessibili e, poiché celermente sviluppate, facilmente maneggiabili[16].

L’origine di questa tendenza risiede, in certa parte, nella difficoltà dei singoli ordinamenti di regolare un fenomeno che per sua natura non è perimetrato da alcun confine geografico. Peraltro, i tentativi di approntare livelli di garanzia condivisi a livello europeo si sono rivelati, almeno sino ad ora, essenzialmente infruttuosi[17]: le motivazioni di tali difficoltà sono da ricondursi, in ultima analisi, a due vizi che intaccano ab origine tutti gli ordinamenti statuali.

In primo luogo, il legislatore nazionale incontra una serie di difficoltà nel disciplinare i risvolti di un fenomeno che non solo si muove a ritmi vertiginosi e in direzioni non facilmente intellegibili, ma richiede inoltre uno sforzo qualificatorio non indifferente[18]: cosa si intende infatti quando si parla di social network? E, più nello specifico, a quale categoria giuridica afferiscono tali piattaforme virtuali? Questi dilemmi, su cui acuta dottrina si è già ampiamente adoperata, rimangono ancora sostanzialmente inevasi[19].

In secondo luogo – come già accennato – gli sforzi effettuati verso una normazione nazionale o regionale capace di approntare adeguate garanzie ai diritti degli utenti si scontra con una cifra di transnazionalità, identificativa di tutti i social[20]. Quest’ultimo elemento, se ha effettivamente rappresentato la fortuna di questi social hub, costituisce un evidente ostacolo alla loro regolamentazione (e all’individuazione di eventuali responsabilità)[21].

Posto che l’ago della bilancia è declinato verso la ‘privatizzazione’ o, per meglio dire, la ‘corporativizzazione’[22] sia nella fase della genesi delle regole sia in quella, susseguente, della loro applicazione[23], occorre approfondire, per quello che qui interessa, se e in che modo il diritto del fedele di esporre la propria dottrina od opinione online, quale immediata manifestazione della libertà religiosa individuale, sia salvaguardato su queste reti sociali e, soprattutto, quali possano essere le possibili soluzioni di bilanciamento in caso di conflitto con altri diritti di eguale valore. Tali interrogativi non appaiono di poco conto nella misura in cui (anche) su questo delicato crinale si pongono le fondamenta di una società più democratica, multiculturale e, quindi, inclusiva.

Fatte queste premesse, si comprende pienamente il motivo per cui tutta la normativa sulla pubblicazione di social media content, al momento, costituisca l’approdo di un processo sostanzialmente unilaterale: infatti, le corporations che gestiscono i vari ecosistemi digitali decidono in modo autonomo ogni variazione delle condizioni d’uso che poi solo notificano all’utente. Peraltro, ogni fruitore accetta preventivamente, al momento dell’iscrizione, la self-regulation che disciplina ciò che può essere pubblicato: trattasi di regole che, d’altronde, intendono soddisfare l’insopprimibile esigenza di creare un ambiente quanto più sicuro possibile con il rischio, però, di sopprimere la diversità delle opinioni e mortificare alcune credenze religiose, specie quelle di minoranza.

Il vero snodo, dunque, si pone laddove un utente decida di pubblicare un contenuto religiosamente connotato che trasgredisca, effettivamente o apparentemente, i codici di condotta adottati da Meta sulle sue piattaforme: le reazioni alle suddette violazioni sono varie e possono arrivare perfino ad un vero e proprio ‘ostracismo digitale’[24]. Non mancano, in effetti, casi in cui gli utenti sono stati bloccati o ‘silenziati’ per aver espresso opinioni religiose ritenute in contrasto con gli Standard della community[25]: queste drastiche scelte sono solo genericamente motivate e gravemente lesive del diritto del singolo di poter manifestare apertamente il proprio credo. Nel caso, quindi, in cui tale diritto necessiti di essere soppesato e confrontato con diritti altrettanto significativi, questa delicatissima scelta è primariamente appaltata a un algoritmo[26] e, eventualmente, a un operatore fisico, di cui non è dato sapere come sia stato selezionato e quali competenze gli siano richieste, segnatamente se dotato di un’eventuale formazione giuridica: sono dunque istantaneamente intuibili gli aspetti problematici di tale procedimento[27]. In aggiunta, fino a poco tempo fa, la decisione che l’azienda adottava non era impugnabile e, di conseguenza, ineluttabilmente definitiva: l’unico rimedio possibile era il coinvolgimento diretto dell’autorità giudiziaria, con tutte le ripercussioni, anche in termini economici, che tale scelta comportava oltre per la dilatazione dei tempi. Ciò, almeno, fino alla creazione dell’Oversight board, operativo dal maggio 2020.

 

  1. La composizione e il funzionamento dell’Oversight board: un’occasione mancata?

 

La decisione di Meta di istituire un organo indipendente, quale è – almeno sulla carta – il Comitato per il controllo potrebbe apparire prima facie controintuitiva. Non si comprende infatti la ragione per cui una delle più influenti Big Tech della Silicon Valley si sia tanto prodigata, anche finanziariamente con un investimento vincolato in un trust di 130 milioni di dollari, per creare un organo che è istituzionalmente chiamato a controllare la legittimità della governance dell’azienda stessa.

La scelta di far transitare una quota di potere della corporation in mani indipendenti può apparire in effetti disorientante. Tale determinazione si spiega in parte per la pressione che l’opinione pubblica ha esercitato a causa di alcune posizioni controverse prese da Facebook negli ultimi anni[28]; tuttavia l’obbiettivo sembra essere, molto più prosaicamente, quello di rispondere a “business reasons that a big social media company must pay attention to what the world thinks of its speech rules”[29]. La genesi dell’Oversight board risponde dunque a istanze di trasparenza e accountability[30], ma non può essere negata la necessità – attuale benché non dichiarata – di soddisfare ‘imperativi’ di natura prettamente commerciale.

 

3.1) La composizione

 

Ciò premesso, è opportuno indagare se l’Oversight board sia o no accostabile a una ‘Corte’ con una propria giurisdizione e in quale misura sia (in)dipendente dalla ‘casa madre’[31]: a tale scopo è necessario passare in rassegna tanto la sua composizione quanto il suo funzionamento, alla luce delle regole statutarie che lo governano. Lo Statuto, infatti, definisce minuziosamente la struttura del Comitato e i suoi legami con Meta: come ricordato, l’organismo è stato esplicitamente voluto dalla stessa Facebook, senza che vi fossero fattori esogeni a impulsarne la creazione, diversamente dal caso dell’Advisory Council, istituito da Google nel 2014 a seguito della sentenza Google vs. Spain (C-131/12) della Corte di Giustizia dell’Unione europea[32].  Ciò peraltro rappresenta indubbiamente un aspetto innovativo che si discosta in maniera vistosa dai tradizionali modelli alternativi di risoluzione delle controversie, come – ad esempio – l’arbitrato[33].

Relativamente alla composizione dell’organismo, lo Statuto prevede la nomina diretta da parte della società di Palo Alto dei primi venti membri, dei quaranta complessivi[34]. Evidentemente questa selezione preliminare è venata da una certa dose di self-reference e soffre in qualche misura di un non troppo latente conflitto di interessi benché, occorre precisare, difficilmente si sarebbero potute trovare soluzioni alternative. Ad esempio, l’opzione di demandare ai membri del trust, formalmente autonomo, l’individuazione dei componenti del Board non sarebbe comunque andata esente da critiche, invero le medesime che si potrebbero avanzare proprio in merito alla definizione degli appartenenti al trust, anch’essi designati da Meta[35]. Ad ogni modo, giova sottolineare che i componenti identificati dal colosso della Silicon Valley per costituire il nucleo operativo iniziale del Comitato possono vantare un profilo di indiscusso rilievo: tutti i soggetti assegnatari, infatti, sono professionisti di altissimo profilo e di indiscutibile prestigio. Indubbiamente la selezione è stata compiuta per connotare ipso facto platealmente l’organo di particolare autorevolezza, garantire una prospettiva internazionale e assicurare un elevato grado di interdisciplinarietà[36]. In altre parole “si potrebbe definire quello del Board un vero e proprio dream team, il che è indicativo dell’importanza che Facebook conferisce a questo nuovo organismo e il ruolo guida che assumerà nella governance del più popolare social network del mondo”[37].

Ciascun membro del Board resta in carica per un triennio, per un massimo di tre mandati, come stabilito dall’art. 1, par. 3 dello Statuto: tra i 20 membri, sono stati designati 4 co-presidenti[38], i quali, ai sensi dell’art.  1, comma 7 dello Statuto, svolgono importanti funzioni di raccordo con l’amministrazione del Board e assumono cruciali responsabilità nel funzionamento dell’organismo, selezionando i restanti componenti, fino al raggiungimento del plenum, e individuando i casi meritevoli di essere sottoposti all’attenzione del collegio.

Le alte e diversificate expertise che emergono dai curricula dei membri selezionati corrispondono pienamente agli elevati standard di professionalità richiesti dallo Statuto del Comitato: tra le caratteristiche indispensabili, di cui all’art. 1, comma 2 dello Statuto, i componenti devono dimostrare di padroneggiare “una vasta gamma di conoscenze, competenze, diversità ed esperienza. [...] non devono trovarsi in condizioni effettive o percepite di conflitto di interessi che potrebbero compromettere il loro giudizio indipendente e i processi decisionali. I membri devono [...] avere familiarità con gli argomenti relativi a contenuti e governance digitali, fra cui libera espressione, dibattito politico, sicurezza, privacy e tecnologia”[39]. Se queste ultime specificazioni appaiono perfettamente calzanti rispetto al difficile ruolo al quale sono chiamati i membri del Board, il riferimento al requisito dell’indipendenza, altrettanto indispensabile, sembra tuttavia essere assai meno lampante e immediato[40]. È davvero bastante una valutazione autoreferenziale di assenza di un potenziale conflitto di interesse con la società di Palo Alto per considerare un componente davvero indipendente? Sarebbe forse opportuno fornire maggiori garanzie in ordine agli attributi per ricoprire un ruolo di governance così significativo[41]: per esempio, prevendendo specifiche incompatibilità per tutti quei soggetti che detengano con Meta un rapporto di lavoro o di consulenza pregresso, vietando in aggiunta ai componenti dismessi di avere relazioni lavorative con la ‘casa madre’. Si raggiungerebbe così un gradiente di transparency effettivo e altresì verificabile, evitando l’inviso fenomeno della cosiddetta ‘porta girevole’: la previsione di tali cautele, infatti, gioverebbe indubbiamente all’autonomia di un organismo privato come l’Oversight board che, in ultima istanza, fonda la sua credibilità sull’indipendenza, formale e sostanziale, da Meta[42].

In questa prospettiva, non è certamente un caso che i membri del Comitato si siano immediatamente attivati, sottolineando come: “We are all independent of Facebook. [...] We will make decisions based on those principles and on the effects on Facebook users and society, without regard to the economic, political or reputational interests of the company”[43]. D’altronde, non sarebbe potuto essere diversamente, al costo di incrinare incisivamente l’high standing che tanto faticosamente Meta ha voluto attribuire al Board: rimane comunque il fatto che tale dichiarazione, tautologica e pleonastica, tradisce forse l’esigenza di rivendicare spazi di libertà più marcati[44].

Sotto il profilo del compenso dovuto ai membri, il criterio dell’indipendenza sembra invero parzialmente e superficialmente soddisfatto dal momento che l’organismo è finanziato da un fondo fiduciario, solo formalmente indipendente da Facebook. A questo proposito, scandagliando l’articolato statutario[45] che si occupa della remunerazione dei membri e del rapporto tra i trustee e la società di Palo Alto, ci si accorge che il Comitato è finanziato da un trust specificatamente istituito per supportare le sue operazioni e spese ma, al contempo, il fondo stesso “riceverà finanziamenti da Facebook e i trustee agiranno conformemente ai propri doveri fiduciari. Facebook nominerà trustee indipendenti”[46]. In altre parole, il fondo fiduciario che finanzia il Board è a sua volta foraggiato da Facebook[47]: è dunque quantomeno lecito dubitare che il congegno individuato possa assicurare una completa libertà e una manifesta indipendenza dell’organismo.

 

3.2) Il funzionamento

 

A ogni modo, allo stato attuale il Comitato è perfettamente operativo: sul sito ufficiale, accedendo tramite il proprio account Facebooko Instagram, è infatti possibile avviare la procedura di controllo da parte del Board, compilando un apposito form che richiede all’utente di specificare il contenuto e la natura del post rimosso. Si tratta, in effetti, di un giudizio sulle scelte censorie operate dall’azienda in prima battuta.

Tenuto conto del potenzialmente cospicuo numero di segnalazioni, lo stesso Statuto prevede che il Comitato, per il tramite dei co-presidenti, selezioni solo una quantità numericamente esigua di ‘ricorsi’, in grado di segnare l’orientamento ermeneutico del collegio e quindi suscettibili di rappresentare dei veri e propri leading cases. Per evitare il larvato pericolo che la discrezionalità si trasmuti in arbitrarietà, invero già di per sé connaturato nel procedimento stesso di cernita, ci si premura di sottolineare come il Board “definirà i criteri che garantiranno la selezione dei casi idonei difficili, significativi e pertinenti a livello globale, in grado di arricchire le normative future”[48]. In questo senso, non si può fare a meno di notare come il procedimento non sia primariamente finalizzato alla tutela del singolo ma l’obiettivo finale, pur apprezzabile, sembra essere piuttosto quello di permettere alla governance societaria di sviluppare e perfezionare il suo business model, attraverso il recepimento delle osservazioni suggerite dal Comitato: la salvaguardia dei diritti dell’utente, dunque, trova un’ubicazione ancillare e del tutto servente, disattendendo in qualche misura la missione per la quale il Board è stato istituito, ovvero “proteggere la libertà di espressione prendendo decisioni autonome e basate su principi determinati”[49]. In altre parole, se è vero che tra gli scopi istituzionali del Board c’è quello di proteggere la libertà d’espressione degli individui sulle piattaforme Facebook e Instagram, è altrettanto vero che la funzione di fornire raccomandazioni capaci di incidere positivamente sulla self-regulation di Facebook ricopra una posizione decisamente preminente.

Ulteriormente, occorre specificare che le tempistiche decisorie sono sì estremamente accelerate: il Board, per i casi selezionati, si impegna (senza tuttavia alcuna conseguenza in caso di mancato rispetto del temine) a pronunciarsi entro 90 giorni, al costo però di sacrificare basilari garanzie giurisdizionali, indiscutibili approdi della civiltà giuridica occidentale. Ci si riferisce al diritto di difesa, nelle sue plurime declinazioni: tale dato non deve tuttavia scandalizzare dal momento che – come già ricordato – il primario scopo del Board non è dunque approntare tutele effettive agli users quanto piuttosto quello di fornire a Metaun armamentario, costituito da esortazioni e pareri, in grado di migliorare il servizio offerto[50].

Relativamente alle ‘fonti del diritto’ che devono essere considerate per giungere alla decisione, principalmente si rinviene la self-regulation della stessa Facebook[51]. Le decisioni, infatti, vengono assunte sulla base delle normative relative ai contenuti, in particolare gli Standard della community di Facebook e le Linee guida della community di Instagram, che limitano la libertà d’espressione degli utenti in casi specifici. Opportunamente si prendono altresì in considerazione le condizioni d’uso di Facebook e Instagram, che contemplano una serie di ipotesi – invero abbastanza nebulose – al ricorrere delle quali la società può sospendere o addirittura disattivare in modo permanente l’account[52]. È da rilevare, tuttavia, che non sono solo annoverate fonti di soft law ma si indica testualmente che “il comitato presterà particolare attenzione all’impatto della rimozione dei contenuti, alla luce delle norme sui diritti umani che proteggono la libertà di espressione”[53]. Non è immediato comprendere a quale preciso apparato di norme ci si intenda riferire con tale generica dizione e, ancor di più, l’unico rimando specifico riguarda esclusivamente la libertà d’espressione, difettando ogni ulteriore cenno ad altri diritti fondamentali come – ad esempio – la libertà religiosa.

È dunque possibile intravedere una struttura perfettamente circolare dove, nella fase ‘discendente’ Facebook impone le regole che il Comitato successivamente è chiamato ad applicare, nel momento ‘ascendente’ il Board si impegna a ‘correggere il tiro’, indicando alla società quali accorgimenti sarebbe opportuno apportare per migliorare Standard e Linee guida: il mezzo attraverso il quale questo movimento si alimenta è rappresentato dal ricorso degli utenti, che – evidentemente – assume una funzione del tutto strumentale.

Da ultimo, è utile rammentare che tutte le decisioni sono pubbliche, redatte in molteplici lingue e obbligatoriamente rese per iscritto: tali previsioni, comunque, costituiscono un’indubbia garanzia per l’utente[54].

Fatte queste premesse relative al funzionamento del Board è necessario evidenziare almeno tre criticità che sembrano connotare il procedimento, fin dalla sua fase genetica. In primo luogo, la selezione sostanzialmente arbitraria dei casi degni di una decisione pone un problema di effettività del diritto di difesa: gli utenti, infatti, non potranno mai avere la sicurezza che sulla propria richiesta di revisione possa giungere a pronunciarsi il Board e i criteri alla base del mancato esame di una vertenza appaiono pericolosamente ambigui[55].

Secondariamente, la scansione procedimentale che porta alla decisione del Board non è minimamente specificata, se non nelle sue fasi temporali: la volontà di non voler regolamentare in maniera chiara un incedere ‘processuale’ è – ancora una volta – del tutto coerente con la visione funzionalistica dell’organismo, dove le garanzie tipiche (e basilari) della giurisdizione vengono completamente obliate.

Occorre inoltre constatare che non è previsto uno spazio per l’inveramento del principio del contradditorio tra le parti: dopo aver trasmesso il ricorso, infatti, mediante il portale costruito ad hoc, la sorte della segnalazione è completamente nelle mani del Comitato. Non trova spazio alcuno l’interlocuzione delle parti; non è prevista la possibilità di depositare memorie, documenti e repliche; non è chiaro se, e in che modo, si possa essere ascoltati né risulta che lo stesso Board possa richiedere approfondimenti e/o integrazioni sul caso in esame; non è nemmeno considerata la possibilità di una difesa tecnica, che pure dovrebbe essere una garanzia essenziale per le parti in presenza di interessi che possono essere anche di estrema rilevanza, in quanto manifestazioni dell’identità stessa degli utenti[56].

Da ultimo si noti come il contenuto essenziale delle decisioni non sia prefissato in modo chiaro e ciò comporta che il ragionamento logico-giuridico sotteso alla decisione è difficilmente individuabile: il rischio, evidentemente, è quello di aprire inopportuni spazi di discrezionalità, suscettibili di assumere le sembianze dell’arbitrio. In aggiunta, le decisioni del Board non vengono elaborate dall’intera ‘Corte’ ma da sottocommissioni di cinque membri, i quali arrivano a definire il caso attraverso una votazione a maggioranza: ‘il verdetto’ finale, quindi, non tratteggia necessariamente l’opinione di tutto il collegio[57]. Conviene peraltro precisare che non è contemplata la possibilità di esprimere opinioni dissenzienti. Se ciò non bastasse, i ‘lodi’ non sono firmati dai membri del Board che si sono premurati di vagliare la domanda e non viene nemmeno specificato il nome del relatore e/o estensore. La mancanza di quest’ultima componente costitutiva di qualunque sentenza o lodo arbitrale è certamente un elemento che suscita perplessità. La sottoscrizione, infatti, è essenzialmente preordinata a legare la decisione all’autorità che l’ha emessa: senza l’esplicita segnatura del decisore è sostanzialmente impossibile accertare la sua terzietà e l’imparzialità rispetto alla deliberazione da assumere[58]. La domanda sorge spontanea: cui prodest la nomina di ‘arbitri’ di indiscusso prestigio se poi non si richiede loro neppure di farsi carico delle responsabilità derivanti dal compito al quale sono demandati?

Alla luce di quanto appena esposto, difficilmente si può credere che le decisioni del Board abbiano carattere intrinsecamente giurisdizionale ovvero equivalgano a forme surrogate di lodi arbitrali, non essendo assicurato neppure un livello minimale di contraddittorio che costituisce il perno sul quale ruotano tutte le garanzie del giusto processo. Se da un lato, dunque, non può parlarsi né di forma istituzionalizzata di giustizia privata né, tantomeno, di giurisdizione, dall’altro non si può negare il possibile impatto che le risoluzioni del Board potrebbero avere sugli ordinamenti statuali e sovranazionali. Basti pensare che le linee di indirizzo adottate dal Comitato potrebbero influenzare, per l’autorevolezza del collegio e per la vocazione globale dell’organismo, anche le giurisdizioni ‘tradizionali’[59]. Proprio per tale ragione risulta di notevole utilità passare brevemente in rassegna le pronunce aventi in oggetto la tutela della libertà religiosa sulle piattaformeFacebook e Instagram che l’organismo ha avuto modo di affrontare fin dalla sua istituzione.

 

4) L’impatto delle decisioni del Board sul processo di policy-making aziendale

 

Allo stato attuale, 3 delle 26 decisioni emesse dal Comitato interessano primariamente la tutela della libertà religiosa e il divieto di discriminazione su base confessionale: un numero limitato ma non trascurabile, a riprova di come il diritto di manifestare liberamente il proprio pensiero e la tutela dagli atti discriminatori siano strettamente correlate alla libertà religiosa. Come si avrà modo di far emergere nel prosieguo della trattazione, i casi analizzati dal Board spaziano sensibilmente sia in relazione alla provenienza geografica dei ricorsi sia per la natura delle raccomandazioni suggerite dal Comitato all’azienda.

 

4.1) Il caso 2020-002-FB-UA

 

In ordine al caso 2020-002-FB-UA[60], l’Oversight board dichiara illegittima la scelta di Facebook di rimuovere un post che, pur ritenuto parzialmente offensivo, non integrava gli estremi di una violazione degli Standard della community sui contenuti che incitano all’odio.

Segnatamente, il 29 ottobre 2020 un utente dalla Birmania pubblica un contenuto sul suo profilo contenente due fotografie, ampiamente diffuse dalla stampa, che ritraggono un bambino siriano di etnia curda, tragicamente deceduto a seguito del naufragio nel Mar Mediterraneo dell’imbarcazione che lo avrebbe condotto in Europa. Nello specifico, la didascalia annessa all’immagine critica il comportamento incoerente dei fedeli musulmani che, da un lato, non si ribellano alle oppressioni sofferte dalla minoranza uigiura in Cina, e, dall’altra, reagiscono in maniera eccessiva, arrivando perfino a progettare e attuare attacchi terroristici, come in Francia. L’utente si spinge a definire i musulmani (specie gli uomini) come schizofrenici e, quindi, non integri dal punto di vista psicologico. Poco dopo la pubblicazione, Facebook rimuove il contenuto incriminato in base gli Standard della community sui contenuti che incitano all’odio: la motivazione risiede nel fatto che la self-regulation di Facebook vieta perentoriamente dichiarazioni di inferiorità generiche relative a presunti limiti mentali di un gruppo circoscritto, specialmente se queste sono espresse sulla base dell’appartenenza religiosa. Il riferimento agli squilibri e alle instabilità mentali degli uomini musulmani è dunque considerato offensivo e discriminatorio, perciò viene rimosso.

Il Board, investito del caso, ammette la possibilità che la prima parte del post, se letta disgiuntamente dal contesto, possa apparire come una generalizzazione oltraggiosa degli appartenenti alla fede islamica (in particolare degli uomini), ma è necessario, per i membri del Comitato, interpretare il senso del contenuto censurato nella sua interezza, prendendo in considerazione anche il framework complessivo. A questo proposito, pur valutando come l’incitamento all’odio nei confronti delle minoranze musulmane sia comune e talvolta grave in Birmania, gli esperti evidenziano che le dichiarazioni relative ai musulmani come psicologicamente instabili o con problemi mentali non rientrano usualmente nella retorica islamofobica in quel Paese.

Anche alla luce degli standard internazionali sulla tutela dei diritti umani in relazione alle limitazioni alla libertà di espressione[61], il Board giunge alla conclusione che il post è suscettibile di essere interpretato in diverse accezioni, alcune delle quali sicuramente lesive della minoranza islamica burmese; in ogni caso, però, esso non può dirsi in grado di incitare espressioni d’odio né di incoraggiare intenzionalmente una qualche forma di danno imminente. La rimozione del contenuto è dunque considerata sproporzionata e non necessaria per la protezione dei diritti altrui.

Il Comitato precisa come la spiccata sensibilità di Facebooknei confronti delle plurime modalità d’incitamento all’odio religioso sia del tutto comprensibile, soprattutto dinnanzi agli episodi di violenza e discriminazione contro la minoranza musulmana in Birmania verificatisi durante le elezioni generali del Paese nel novembre 2020. Tuttavia, tali rilievi non ostano al riconoscimento dell’illegittimità dell’operato dell’azienda e, dunque, il Board conclude per il ripristino immediato del contenuto.

In relazione alle best practices e alle raccomandazioni proposte, il Comitato puntualizza come, prima che l’azienda operi una scelta di censura, occorra valutare le circostanze e il contesto in cui le discussioni religiose si sviluppano, tenendo presente che l’espressione pubblica di ideologie confessionali inerisce ad una sfera privata intangibile da contornarsi di adeguate garanzie. D’altro canto, si ammette la possibilità che alcune opinioni religiosamente orientate siano in effetti in grado di offendere la sensibilità di alcuni membri della community: tale rischio è tuttavia connaturato e non azzerabile. Ulteriormente, si richiama l’attenzione sull’importanza per l’azienda di mostrarsi accogliente rispetto alla situazione della minoranza musulmana in Birmania, conducendo un dibattito aperto e inclusivo sulla loro condizione di vita. Nel caso specifico, considerate le circostanze nelle quali il post è stato pubblicato, i decisori ritengono improbabile che la rimozione del contenuto porti concretamente a una riduzione delle tensioni o a proteggere le persone dalla discriminazione. Da ultimo, il Board suggerisce alla società di Palo Alto di avere estrema cautela verso manifestazioni del pensiero che possano assumere le forme dell’incitamento all’odio, soprattutto nei confronti della comunità birmana dei Rohingya[62]. Tale precisazione, con tutta probabilità, trova la sua ragion d’essere nelle feroci critiche che gli osservatori internazionali e l’Organizzazione delle Nazioni Unite hanno mosso a Facebookaccusato di avallare, seppur in modo mediato, la pulizia etnica che si è indiscriminatamente perpetrata nel Paese[63].  In conclusione, il Board approva l’atteggiamento prudenziale che Facebook ha dimostrato sulla vicenda, facendo emergere una consapevolezza generale delle responsabilità dell’azienda in materia di diritti umani; ciononostante, nel caso specifico, la condotta dell’utente non si collocava fuori dal perimetro di legittimità individuato dagli Standard della community, tenuto conto anche di tutte le variabili di contesto.

 

4.2) Il caso 2020-007-FB-FBR

 

Con la decisione 2020-007-FB-FBR[64], l’Oversight board revoca la risoluzione di Facebook in merito alla rimozione di un post, considerata contraria agli Standard della community sulla prevenzione della violenza nella piattaforma. Il caso riguarda un utente indiano che, a fine ottobre 2020, pubblica un contenuto in un gruppo Facebook pubblico che si proponeva di fungere da forum di discussione per gli indiani di fede islamica. Il post è composto da un meme raffigurante il protagonista di una popolare serie tv turca ritratto con indosso un’armatura in cuoio e una spada nel fodero e il testo sovrapposto in lingua hindi che riporta: “Se la lingua del Kafir (non musulmano, ndr) si scaglia contro il Profeta, allora la spada deve essere tirata fuori dal fodero”. Tale dichiarazione – secondo l’azienda – è ritenuta lesiva della normativa interna che proibisce la pubblicazione di contenuti che incitino, seppur in modo velato e indiretto, alla violenza: a supporto delle proprie considerazioni, la società di Palo Alto sottolinea come il post includesse alcuni hashtag contro il presidente francese Emmanuel Macron e incoraggiasse il boicottaggio di prodotti francesi. Il vero punctum dolens, come peraltro fatto emergere dal Board, risiede nella tensione tra ciò che può essere legittimamente considerato come discorso religioso e una possibile minaccia di violenza, sempre vietata anche se implicita.

Facebook, dunque, sceglie di rimuovere il post in base agli Standard della community relativi alla repressione di contenuti violenti o che istigano alla violenza, secondo i quali gli utenti non possono pubblicare dichiarazioni allusive in cui il messaggio minatorio è velato o cifrato.

A conclusioni opposte giunge invece il Board il quale, soppesate le circostanze del caso, non ritiene che il contenuto possa rappresentare una forma di istigazione alla violenza, nonostante una minoranza dei componenti dell’organismo specifichi che lo stesso possa incoraggiare una qualche modalità di risposta violenta alla blasfemia. In ogni caso, la scelta di corredare il post di irrisori hashtag nei confronti del presidente Macron e il contestuale invito a boicottare i prodotti francesi non sono in grado, neppure astrattamente, di raggiungere quel livello minimo di potenziale lesività che avrebbe giustificato l’intervento di rimozione di Facebook: invero, sono certamente istigazioni non però necessariamente violente.

Sulla base di standard internazionalmente riconosciuti in tema di tutela di diritti umani[65], il Board precisa che tutti gli utenti hanno il diritto di cercare, ricevere ed esprimere idee e opinioni di matrice religiosa, anche quelle che potrebbero apparire controverse o divisive. Di conseguenza, l’organo collegiale, operando un sillogismo del tutto condivisibile, ritiene che ogni utente della community abbia il diritto di criticare gli aggregati confessionali e i loro rappresentanti e, dunque, di esprimere idee considerate blasfeme, così come i fedeli di tali confessioni possiedono un diritto altrettanto protetto di reagire alle offese e alle critiche a loro mosse, sempre nei limiti posti dalla self-regulation.

Sotto il profilo delle raccomandazioni rivolte alla ‘casa madre’, il Board sottolinea come tutte le limitazioni alla libertà di espressione devono essere facilmente comprese e accessibili dagli utenti e – nel caso in oggetto – il Comitato evidenzia come la procedura e i criteri impiegati da Facebook per la determinazione delle minacce velate non fossero stati esplicitati in modo sufficientemente chiaro agli users. In altre parole, il Comitato invita l’azienda a fornire agli utenti informazioni aggiuntive in merito all’ambito d’applicazione delle limitazioni previste per le minacce velate: tale precisazione, secondo il Board, li aiuterebbe nella comprensione della soglia di tollerabilità, superata la quale scatta l’intervento dei moderatori.

In aggiunta, rendere pubblici i criteri di applicazione delle regole favorirebbe una maggiore disclosure, orientata all’effettiva salvaguardia dei diritti degli internauti. A tale scopo, prima della rimozione, il Comitato consiglia all’azienda di considerare attentamente l’intento che muove l’utente alla pubblicazione, il suo potenziale bacino d’utenza nonché la sua identità: solo mettendo a sistema tali parametri e applicandoli in modo sinergico Meta riuscirà a raggiungere un livello di content-moderation ottimale.

 

5.3) Il caso 2021-013-IG-UA

 

Nell’ultima delle decisioni prese qui in esame, la 2021-013-IG-UA[66], l’Oversight board censura la scelta di Meta di eliminare un post riguardante l’ayahuasca[67], un decotto allucinogeno a base vegetale, poiché non ritenuto in contrasto con le Linee guida della community di Instagram nel momento della sua pubblicazione. L’aspetto sicuramente più rilevante è che l’organismo di controllo ha consigliato a Meta di modificare le regole per consentire agli utenti di parlare in modo positivo degli usi tradizionali o religiosi di sostanze stupefacenti per uso non terapeutico.

La decisione in oggetto riguarda la rimozione di un post, pubblicato nel luglio 2021 dall’account Instagram di una scuola di spiritualità in Brasile, contenente l’immagine di un liquido marrone in un barattolo, descritto come ayahuasca[68]. Lo stupefacente in questione è un decotto a base di diverse piante e radici con un’alta concentrazione di armalina, armina e N,N-dimetiltriptammina (conosciuto come DMT), sostanze risaputamene psicotrope, usualmente utilizzato per attività religiose e cerimoniali, in particolare tra i gruppi indigeni del Sud America. La caption dell’immagine precisa, inoltre, che “ayahuasca is for those who have the courage to face themselves” e ne pubblicizza l’utilizzo consapevole, proponendone il consumo per “correct themselves”, “enlighten”, “overcome fears” e “break free”. Secondo l’azienda[69] l’eliminazione del post è giustificata dal fatto che, impropriamente, l’utente, con la sua condotta, ha favorito l'utilizzo e la circolazione del ‘vino dell’anima’, classificato come una sostanza psicomimetica per uso non terapeutico.

Per converso, il Board ammette che il contenuto sia contrario agli Standard della community di Facebook in materia di prodotti regolamentati, ove si fa esplicito divieto di pubblicizzazione di contenuti che parlino in maniera positiva di sostanze stupefacenti per uso non terapeutico, perché ritenuti lesivi della salute pubblica[70]. Tuttavia, il post era stato pubblicato sulla diversa piattaforma Instagram e nel momento della pubblicazione dello stesso le Linee guida della community regolavano esclusivamente la vendita e l’acquisto di sostanze illegali, non la loro pubblicizzazione.

Il Board, dunque, evidenzia come l’azienda abbia impropriamente applicato gli Standard della community di Facebook anche su Instagramsenza avvertire in maniera trasparente gli utenti: a tal proposito suggerisce alla società di aggiornare immediatamente il linguaggio usato nelle Linee guida della community di Instagramper chiarire definitivamente la questione. Oltretutto, nel caso in esame, Meta non si è premurata di indicare all’utente in modo chiaro e specifico quale parte delle sue regole fosse stata violata.

L’organismo para-giurisdizionale contesta inoltre le argomentazioni di Meta secondo cui la rimozione era causata dalla reazione che i commenti positivi sull’ayahuasca avrebbero potuto ingenerare sull’opinione pubblica, attentando alla salute collettiva. Il post, che parla principalmente dell’uso dell’infusione in un contesto religioso, non è infatti direttamente correlato a un pericolo diretto, tanto più che l’utente non corredava il contenuto di istruzioni sulla produzione o sulla consumazione dell’ayahuasca né forniva informazioni sulla sua reperibilità.

Ragionevolmente, il Comitato ammonisce l’azienda di rispettare le diverse pratiche cultuali, modificando le sue normative in materia di prodotti regolamentati per consentire un dibattito positivo sugli usi tradizionali o religiosi di sostanze stupefacenti e psicoattive che vengano impiegate in contesti religiosi o tradizionali ben radicati. In altre parole, nell’esercizio delle sue funzioni, il Board ha esortato Meta a modificare le regole per consentire agli utenti di discutere, anche in modo positivo, sugli usi religiosi di sostanze psicoattive[71].

In questo senso, relativamente alle best practices individuate si raccomanda di: 1) “Explain to users that it enforces Facebook’s Standards on Instagram, with several specific exceptions. Meta should update the introduction to Instagram’s Guidelines within 90 days to inform users that if content is considered violating on Facebook, it is also considered violating on Instagram”. 2) “Explain to users precisely what rule in the content policy they have violated”. 3) “Modify Instagram’s Guidelines and Facebook’s Standard on Regulated Goods to allow positive discussion of the traditional or religious uses of non-medical drugs where there is historic evidence of such use. Meta should also make public all allowances, including existing allowances”[72].

 

6) Conclusioni

 

Alla luce delle tre decisioni appena delineate, emerge in modo chiaro la preminente finalità, già precedentemente rammentata, del Comitato: costituire un’‘autorità di audit’ permanente, prioritariamente finalizzata al miglioramento delle policy d’utilizzo delle piattaforme Facebook e Instagram, senza alcun collegamento con le autorità pubbliche.

Nel primo caso osservato, il Board si è limitato ad una funzione esortativa, sollecitando l’azienda a dedicare più attenzione, nel momento della rimozione di contenuti, alle circostanze e al contesto, i quali – letti congiuntamente – assumono un ruolo cruciale nel determinare la legittimità o no della condotta di un utente e altresì consentono di saggiare le plurime declinazioni della satira, tracciando un solco tra l’irrisione, anche sfacciata, e l’hate speech[73].

Nella seconda vertenza esaminata, invece, il Comitato enuclea una serie di raccomandazioni volte ad incidere – seppur in modo mediato – sulle policy di Meta, per un verso stimolando un miglioramento degli Standard della community in merito alla disciplina delle minacce indirette, per l’altro perimetrando l’ambito d’applicazione delle limitazioni previste per tali fattispecie. A questo scopo, si specifica come i parametri e i criteri adottati per regolare le restrizioni in tema di minacce velate, in virtù del principio di trasparenza, debbano poter essere conoscibili dagli utenti e, dunque, resi pubblici.

Tuttavia, l’ultima delle decisioni presa in considerazione appare quella più completa tanto sotto il profilo del percorso logico-giuridico sotteso alla pronuncia quanto nella puntuale argomentazione dei suggerimenti indirizzati alla società di Palo Alto. Infatti, il Comitato, in maniera decisamente più assertiva rispetto ai casi precedenti, richiama l’azienda al rispetto di alcuni elementari precetti che, ancora prima di divenire sedimentate acquisizioni di civiltà giuridica, sono comunemente percepiti quali logici corollari della ragionevolezza e del buon senso. A tal proposito, l’utente al quale si rimuove un contenuto sulla piattaforma deve poter conoscere in modo specifico e circostanziato la motivazione alla base della rimozione e, di conseguenza, quale parte dell’apparato di norme è stata in concreto violata. In altri termini, a parere del Board, è necessario precisare maggiormente il confine che segna il discrimine tra ciò che è consentito e ciò che non lo è: affinché infatti sia compresa la sanzione (in questo caso, la rimozione del post) è indispensabile fornire gli estremi della disposizione trasgredita e illustrare all’utente le motivazioni che hanno condotto alla cancellazione del contenuto.

Opportunamente, poi, il Comitato intima all’azienda di indicare accuratamente la disciplina cui gli utenti sono tenuti a conformarsi, rispettivamente su Facebook e su Instagram. Come si ricorderà, infatti, nel caso in esame il post dell’utente, pubblicato su Instagram, era stato rimosso da Meta in applicazione degli Standard della community che regolano la vita degli internauti esclusivamente su Facebook. Evidentemente, questa sovrapposizione di piani ingenera nel fruitore una rilevante confusione che non permette di percepire un’eventuale violazione come tale.

Tuttavia, l’aspetto sicuramente più interessante dalla prospettiva ecclesiasticistica è il riferimento alla possibilità di discutere in modo costruttivo dell’utilizzo di sostanze psicotrope per scopi religiosi laddove vi siano testimonianze storiche di tali utilizzi[74]. Certamente la scelta del Board di aprire, in modo così incisivo, al libero (e positivo) dibattito circa l’utilizzo di sostanze stupefacenti per motivazioni non prettamente terapeutiche ma cultuali è una coraggiosa decisione che centra completamente la funzione al quale il Board è vocato: è chiaramente una scelta ‘politica’ nella misura in cui viene legittimata la possibilità di discutere in maniera favorevole dell’utilizzo dell’ayahuasca. Per di più, a sostegno di tale tesi, si richiama esplicitamente un criterio di impianto ‘storicistico’, ampiamente utilizzato dalla dottrina costituzionalistica ed ecclesiasticistica per saggiare la natura confessionale di un determinato aggregato di individui[75].

Dai verdetti dell’Oversight board appena passati in rassegna affiorano una serie di best practices protese al modellamento di un cyberspazio che sia allo stesso tempo sicuro e rispettoso delle diversità: non può essere un caso se, considerando le edizioni aggiornate degli Standard della community di Facebook e delle Linee guida della community di Instagram, si nota che tutte le raccomandazioni e gli accorgimenti che il Board ha proposto all’azienda per i casi 2020-002-FB-UA, 2020-007-FB-FBR, e 2021-013-IG-UA siano stati interamente recepiti nei codici di condotta. Solo a titolo esemplificativo, consultando l’ultima versione degli Standard della community, emerge che è stato introdotto un preciso riferimento normativo relativo alla rimozione delle minacce cifrate o velate. Segnatamente non sono (più) tollerate sulla piattaforma “Dichiarazioni in codice in cui il metodo della violenza o del danno non è chiaramente espresso, ma la minaccia è velata o implicita”[76]; si precisa inoltre la centralità che le informazioni di contesto devono avere nella scelta di rimuovere un contenuto. Esattamente come indicato dal Board nella vertenza 2020-007-FB-FBR.

Giova rammentare che le best practices suggerite dal Comitato non sono vincolanti per Meta che è dunque libera di discostarsene senza alcun pregiudizio: la chiara scelta della società di Palo Alto di accogliere e implementare la propria normativa interna alla luce degli orientamenti del Board è la riprova di una sua maggiore sensibilità rispetto a istanze di accountability e trasparenza ma raffigura anche (e forse soprattutto) il principale ‘indice di redditività’ sull’organismo stesso, una sorta di ritorno indiretto dell’investimento effettuato. Il Comitato ha dunque motivo d’esistere fino a quando sarà in grado di procurare linee guida, orientamenti e soprattutto best practices, ritenuti utili da Meta per sviluppare e perfezionare la propria regolamentazione interna. Se tale funzione verrà meno, il meccanismo cesserà di essere una profittevole forma d’investimento e la tutela dei diritti degli utenti, con ogni probabilità, non sarà un’esigenza abbastanza consistente per controbilanciare l’esborso di denaro necessario a finanziare il funzionamento dell’organismo.

A fronte, dunque, dell’espansione generalizzata della cosiddetta giurisdizione privata – rectius corporativizzazione della giurisdizione – che ha l’indubbio pregio di essere rapida e, in questo caso, gratuita, è opportuno mettere in luce la finalità precipua dell’organo che, solo collateralmente, offre rimedi di giustizia utili ai frequentatori delle piattaforme social. È comunque innegabile che gli orientamenti, le raccomandazioni e le esortazioni adottati dal Comitato abbiano un generalizzato effetto positivo sulla self-regulation di Meta[77], verificata e aggiustata continuamente dal Board, al quale è demandato l’importante compito di concorrere in maniera attiva e sostanziale alla creazione di una società sensibile alle istanze di preservazione e di promozione del pluralismo, incluso quello confessionale.  

 

Abstract: The digital revolution has created new spaces in which fundamental rights can be exercised, among them freedom of expression and freedom of religious can be pointed out. However, Meta’s para-jurisdictional body, the Oversight board, was initially conceived to protect these user freedoms, in practice, the Board’s functioning is mainly aimed at implementing the company’s code of conduct. In this paper is been carried out an analysis of the Oversight board’s decisions which shows how the function of providing suggestions to regulate Meta's social media conduct surpasses the one aim to protect the individual rights.

 

Key words: Oversight board; religious freedom; freedom of expression.

 

 


* Università di Bologna (nico.tonti2@unibo.it).

** Il contributo è stato sottoposto a double blind peer review.

[1] Sul punto si rimanda alle considerazioni – risalenti ma ancora attuali – sviluppate da J. Donath, Identity and Deception in the Virtual Community, in Communities in Cyberspace, a cura di M.A. Smith - P. Kollock, New York, 1998, pp. 29-59. Più di recente, come noto, gli studiosi delle scienze sociologiche e psicologiche si sono ampiamente dedicati all’approfondimento e all’analisi del modo in cui si sviluppa l’identità personale sui social network. A questo proposito, ex plurimis, si rinvia a U.Gündüz, The Effect of Social Media on Identity Construction, in Mediterranean Journal of Social Sciences, 7 ( 2017), pp. 85-92; J. Orsatti – K. Riemer, Identity-Making: a Multimodal Approach for Researching Identity in Social Media, in Paper for Twenty-Third European Conference on Information Systems (ECIS), Münster, 2015, pp. 1- 18; M. Koole - G. Parchom, The Web of Identity: A Model of Digital Identity Formation in Networked Learning Environments, in Digital Identity and Social Media, a cura di S. Warburton - S. Hatzipanagos, Hershey, 2013, pp. 14-28. In argomento, si vedano anche le osservazioni di L. Denicolai, Riflessioni del sé. Esistenza, identità e social network, in Media Education – Studi e ricerche, 5 (2014), pp. 164-181, il quale rileva: “Quando rifletto il mio sé nel gruppo sociale io vedo il me e posso adattare continuamente il mio io nell’‘altro generalizzato’. Con i social network subisco un passaggio aggiuntivo. Il mio riflesso è prima di tutto in un medium che – per natura – produce immagini. Il profilo, di fatto, è un’immagine di me stesso, immagine che io curo continuamente e che cerco di migliorare e arricchire ogni volta che vi accedo. Il medium agevola per certi versi la costruzione identitaria, poiché – a differenza della realtà – io posso vedere il mio me e posso modificarlo a piacimento, fino a quando ritengo che sia il più vicino possibile all’ideale che ho in mente. La mia riflessione, dunque, avviene mediata dalla tecnologia che, a sua volta, mi manda un’immagine rappresentazione dell’altro. Il processo di rispecchiamento, quindi, avviene non dal vero, ma attraverso il filtro della ricostruzione e del rimando della rimediazione tecnologica. Il medium raddoppia per così dire il mio sé, poiché il profilo di Facebook è, al contempo, un io che modello e completo di volta in volta, come un puzzle in divenire, e un me che mi rappresenta nel social network stesso di cui faccio parte. Ma l’impressione è che sul web esistano molte identità, frutto di tanti rispecchiamenti in altrettanti me abbandonati nell’etere. Il problema è che ogni profilo che costruisco è particolareggiato e studiato per essere accettato all’interno di un particolare contesto sociale. Se apro un profilo su un sito di dating per trovare l’anima gemella probabilmente metterò informazioni diverse rispetto a quelle che pubblico su un profilo di un social network generico, perché mutano l’obiettivo e il gruppo sociale a cui mi rivolgo e in cui mi rispecchio». Ancora l’Autore puntualizza come Esistere su più social network, da un lato, causa questa sorta di disseminazione identitaria che necessita evidentemente di un continuo lavoro di collage per avere una visione d’insieme dell’io, ma contemporaneamente significa vivere più identità, cioè più esperienze che, di fatto, corrispondono alla nostra abitudine, anche nella realtà, di essere occupati in più ambiti. Per certi versi, l’identità multipla si forma su un continuum narrativo che risulta dalla somma di tutte le parole e le azioni che io posso compiere grazie ai social network”.

[2] Cfr. R. J. Hamilton, Governing the Global Public Square, in Harvard International Law Journal, 62 (2021), pp. 117-174. Si veda in modo particolare l’ampio apparato bibliografico richiamato dall’Autrice.

[3] Certamente il web, e in particolare i social network, vengono spesso usati da correnti estremiste di varie confessioni religiose: si pensi solo all’islam radicale e ad alcune obbedienze induiste. L’utilizzo di questi mezzi tecnologici da parte di tali soggetti è primariamente finalizzato a propagandare discorsi d’odio, arrivando perfino a fomentare azioni violente. Occorre tuttavia tener distinta la libera manifestazione del proprio pensiero, anche religiosamente orientato, da fattispecie che – almeno nel nostro ordinamento – integrano veri e propri reati. Sul punto si rimanda, per tutti, a A. Vitullo, Radicalizzarsi online. Islamofobia e discorsi d’odio in rete, in Capire l’Islam. Mito o realtà, a cura di M. Bombardieri – M. Giorda – S. Hejazi, Brescia, 2019, pp. 109-126; J. Temperman, Religious Hatred and International Law, The Prohibition of Incitement to Violence or Discrimination, Cambridge, 2016; A. Pugiotto, Le parole sono pietre? I discorsi di odio e la libertà di espressione nel diritto costituzionale italiano, in Diritto Penale contemporaneo, 3 (2013), pp. 1-18.

[4] Evidentemente, l’intervento preventivo delle piattaforme nella content-moderation rischia di comprimere in modo vistoso la libertà d’espressione degli utenti.

[5] Da ultimo, si veda la sentenza n. 1659 emessa dalla Corte l’Appello de L’Aquila il 09 novembre 2021 dove si afferma il principio per il quale la rimozione dei contenuti pubblicati in violazione dei termini d’uso di un social network e la susseguente sospensione dell’account dell’utente sono interventi legittimi nella misura in cui la scelta del social media sia il risultato di un contemperamento tra l’esigenza dei gestori delle piattaforme social di assicurare un ambiente rispettoso e sicuro e la libertà d’espressione degli utenti.

[6] Recentemente, si segnala il contributo di S. Martinelli, La chiusura dell’account Facebook di un’associazione: quale tutela? - (Nota a ordinanza Tribunale civile Trieste 27 novembre 2020, n. 2032), in Giurisprudenza italiana, 10 (2021), pp. 2091 – 2097.

[7] D’ora in poi “Meta”. Si rammenta che la società Meta Platforms detiene il controllo dei servizi di rete sociale Facebook e Instagram e dei servizi di messaggistica istantanea WhatsApp e Messenger. Almeno fino ad ora, la competenza dell’Oversight board, di cui si tratterà a brevissimo, è limitata solamente a Facebook e Instagram.

[8] A tal proposito, cfr. A. Mazzetti, L’autoregolamentazione di Facebook al servizio degli utenti: l’esperienza della lotta alla disinformazione e la creazione del “Comitato di controllo”, in La rete che vorrei. Per un web al servizio di cittadini e imprese dopo il Covid-19, a cura di R. Razzante, Milano, 2020, pp. 115-124. Ancora prima che il Board diventasse operativo, l’Autore – peraltro Public Policy manager per Facebook in Italia, Grecia, Malta e Cipro – entusiasticamente affermava: “quando il Comitato inizierà il suo lavoro segnerà l’inizio di un sistema di governance più forte e capace di proteggere al meglio gli utenti di Facebook. Nel medio-lungo periodo, la speranza è che l’impatto del Comitato si estenda ben oltre Facebook e che possa servire come esempio e riferimento per altri simili approcci alla gestione dei contenuti online”.

[9] Sulla genesi dell’organismo cfr. A. Iannotti Della Valle, A Facebook Court is born: towards the ‘jurisdiction’ of the future?, in European Journal of Privacy Law & Technologies, 2 (2020), p. 98 ss.

[10] Per tutti, si vedano le disilluse riflessioni svolte da R. Bin, La sovranità nazionale e la sua erosione, in Per una consapevole cultura costituzionale. Lezioni magistrali, a cura di A. Pugiotto, Napoli, 2013, pp. 369-381, il quale rammenta come “possiamo continuare a parlare male dello Stato, che non ci è particolarmente simpatico per mille motivi diversi (perché è stato uno Stato fascista, perché è uno Stato burocratico, perché ci tassa, perché non ci lascia l’autonomia della famiglia, perché reprime l’autonomia locale...): il fatto dell’erosione della sovranità dello Stato può perciò andarci benissimo, solletica il piccolo anarchico che vive in ognuno di noi. Ma c’è l’altro lato, quello che dovrebbe allarmare il piccolo anarchico: la perdita di peso della sovranità dello Stato purtroppo non si accompagna affatto con la perdita di peso della sovranità del potere. Sovranità e potere sono la stessa cosa, e se lo Stato perde la sua sovranità non assistiamo affatto a una perdita generale del potere e al trionfo dell’anarchia (che potrebbe essere un’ipotesi interessante, ma non verificabile nei fatti) ma semplice- mente ad un trasferimento della sovranità in mani sconosciute, ignote. Non è tanto il fatto di essere ignote che mi preoccupa, perché anche quando si dice che la sovranità appartiene al popolo, ci si riferisce ad un soggetto astratto e ignoto. Il vero problema è che la sovranità non è più sottoposta a regole, è un potere sregolato, è un potere non più controllato, è un potere che noi, vittime di ogni potere, non possiamo in alcun modo controllare. Dopo aver fatto il miracolo di togliere la sovranità dalla corona del re Sole e dall’investitura divina e donarla al popolo, e dopo aver adottato una Costituzione e mille leggi che ne regolano attentamente l’esercizio democratico, ci troviamo di fronte al suo trasferimento in mani anonime, a centri privati che stanno ben lontani dai nostri occhi, che pretendono di liberarsi dai «lacci e lacciuoli» delle regole e della legalità. Auguri a tutti”.

[11] Sulla tendenza in oggetto si rimanda a L. Casini, Lo Stato nell’era di Google, in Rivista Trimestrale di Diritto Pubblico, 4 (2019), pp. 1111 ss.; A. Gatti, Istituzioni e anarchia nella Rete. I paradigmi tradizionali della sovranità alla prova di Internet, in Diritto dell’Informatica, 3 (2019), pp. 711 ss.; F. Marone, Giustizia arbitrale e Costituzione, Napoli, 2018, pp. 15-52.

[12]Da una prospettiva più ampia, si vedano le considerazioni sviluppate da S. Macedo, Lost in the marketplace of ideas: Towards a new constitution for free speech after Trump and Twitter?, in Philosophy and Social Criticism, 4 (2022), pp. 496–514, il quale sostiene: “One of the truly disturbing features of the current news, information and communications environment is the extent to which institutions vital to our democracy are in the hands of often fickle private actors: billionaires like Dr. Soon-Shiong and the super-rich heads of new media companies like Mark Zuckerberg and Jack Dorsey”.

[13] Ex plurimis, si rinvia a R. De Caria, Ritorno al futuro: le ragioni del costituzionalismo 1.0 nella regolamentazione della società algoritmica e della nuova economia a trazione tecnologica, in Media laws – Rivista del diritto dei media, 1 (2020), pp. 84-101; T.E. Frosini, Il costituzionalismo nella società tecnologica, in Il diritto dell’informazione e dell’informatica, 3 (2020), pp. 465-484; A. Venanzoni, Cyber-costituzionalismo: la società digitale tra silicolonizzazione, capitalismo delle piattaforme e reazioni costituzionali, in Rivista italiana di informatica e diritto, 1 (2020), pp. 5-33; G.L. Conti, La governance dell’Internet: dalla Costituzione della rete alla Costituzione nella rete, in Internet e Costituzione, a cura di M. Nisticò -P. Passaglia, Torino, 2014, p. 119 ss.

[14] Cfr. S. Cassese, I tribunali di Babele. I giudici alla ricerca di un ordine globale, Roma, 2009 p. 10, che si chiede come possano convivere ordini giuridici diversi “in un contesto come quello globale, caratterizzato dall’assenza di un ordine giuridico unitario e di una gerarchia di norme, dalla presenza di molte disposizioni non vincolanti (standards e soft law), da concorrenza o conflitto tra gli ordini giuridici, dove manca un principio di obbedienza (sostituito da uno di osservanza)”.

[15] Osserva infatti F. Marone, Giustizia arbitrale e Costituzione, cit., p. 241: “Una giustizia ‘privata’, dei privati e per i privati, infatti, meglio si presta ad un contesto costituito da sempre più regole private e meno regole statuali. L’arbitrato, per certi versi, costituisce – sul piano processuale – l’altra faccia della stessa medaglia: da un lato la regolamentazione giuridica dei privati (soft law) erode lo spazio della normazione statale (hard law), dall’altro l’arbitrato (giurisdizione dei privati) erode lo spazio della giurisdizione statale. La riduzione dello spazio della sovranità dello Stato, in definitiva, passa per entrambi i momenti: alla crisi del monopolio statale sulle fonti del diritto, quindi, corrisponde la crisi del monopolio statale della giurisdizione”. Cfr. anche O. Pollicino - G. De Gregorio, Shedding Light on the Darkness of Content Moderation, in Verfassungsblog, 5 febbraio 2021, consultabile al seguente indirizzo web https://verfassungsblog.de/fob-constitutionalism/.

[16] Cfr. K. Klonick, The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression, in The Yale Law Journal, 8 (2020), p. 2435, che avverte: “the realization that Facebook – for the most part alone, and for the most part through a few people headquartered in Silicon Valley – was the sole creator and decider of the rules governing online speech struck many as deeply problematic”. Sulla questione è intervenuta più di recente R. Niro, Piattaforme digitali e libertà di espressione fra autoregolamentazione e coregolamentazione: note ricostruttive, in Osservatorio sulle fonti, 3 (2021), pp. 1369 – 1391, la quale rileva come lo sforzo di auto-regolamentazione delle piattaforme sia “un’attività attraverso cui, nel ‘vuoto’ della regolazione pubblica e con il favore della elevata ‘tecnicità’ degli spazi e degli strumenti utilizzati (il cyberspazio), si delineano ordinamenti giuridici autonomi, ‘autoprodotti’ dalle medesime piattaforme. Ordinamenti le cui regole, tuttavia, incidono vistosamente, limitandoli, su una serie di diritti degli utenti, fra cui spicca appunto quello alla libertà di espressione, garantito dalle carte costituzionali e qualificato, com’è noto, come caposaldo di ogni società democratica e cifra distintiva degli ordinamenti liberal-democratici non solo dalla più risalente giurisprudenza costituzionale italiana, ma anche da quella statunitense ed europea. Il che richiama all’attenzione il tema – antico, ma sempre attuale – dell’efficacia orizzontale delle garanzie dei diritti, in specie della libertà di espressione”.

[17] Sul punto si rinvia a A. Iannotti della Valle, L’età digitale come “età dei diritti”: un’utopia ancora possibile?, in Federalismi.it - Rivista di diritto pubblico italiano, comparato, europeo, 16 (2019), pp. 163-164. Invero, è oggi allo studio il varo di una normativa comunitaria, il Digital Service Act, composta da un pacchetto di riforme che la Commissione europea ha proposto il 15 dicembre 2020 allo scopo di disciplinare alcuni i servizi digitali alla luce dei principi di trasparenza e accountability, imponendo – per esempio – alle piattaforme di comunicare agli utenti come vengono moderati i loro contenuti sui social media. Per ulteriori approfondimenti si rimanda a L. Aria, L’attività delle piattaforme tra DSA e direttiva SMAV. La frontiera di una nuova regolazione?, in Media Laws– Rivista del diritto dei media (numero speciale), 2021, consultabile all’indirizzo web https://www.medialaws.eu.; G. De Minico, Fundamental Rights European digital regulation and algorithmic challenge, in Media Laws– Rivista del diritto dei media (numero speciale), 2021, consultabile all’indirizzo web https://www.medialaws.eu.; G. Finocchiaro, Digital Services Act: la ridefinizione della limitata responsabilità del provider e il ruolo dell’anonimato , in Media Laws – Rivista del diritto dei media (numero speciale), 2021, consultabile all’indirizzo web https://www.medialaws.eu.

[18] Si veda R.A. Wilson - M. Land, Hate Speech on Social Media: Content Moderation in Context, in Faculty Articles and Papers, 5 (2021), p. 1032 ss.

[19] Una ragionata ricognizione delle varie proposte avanzate in letteratura è rinvenibile in M. Monti, Privatizzazione della censura e Internet platforms: la libertà d’espressione e i nuovi censori dell’agorà digitale, in Rivista italiana di informatica e diritto, 1 (2019), pp. 35-51., ove l’Autore asserisce: “In primis, si potrebbe valutare l’inquadramento delle piattaforme digitali come mass media. Ciò, richiamandosi alla disciplina della par condicio in materia elettorale, permetterebbe la tutela del pluralismo interno, come ben esplicitato dalla Corte costituzionale in materia televisiva. Proprio in relazione al mezzo televisivo la Corte costituzionale affermò anche la necessità di una sua regolamentazione date la pervasività e l’incidenza di questo strumento sul discorso pubblico. Da questa affermazione e dalla esigenza di garanzia del pluralismo interno nei periodi del monopolio pubblico si potrebbe forse dedurre anche la necessità di regolamentare le Internet platforms in senso pluralista, data la massiccia occupazione degli spazi di comunicazione da parte di un numero esiguo di piattaforme. In secundis, una più interessante e convincente ricostruzione, maggiormente in linea anche con la prospettiva americana, potrebbe, invece, essere quella di considerare le Internet platforms come luoghi aperti al pubblico in cui non sia impedibile la libertà di riunione, che, come ricordato da autorevole dottrina, si collega direttamente alla libertà di espressione. In questo senso pare essere parzialmente andata la giurisprudenza di legittimità, nel riconoscere, al fine dell’applicazione dell’art. 660 c.p., che Facebook va considerato un luogo aperto al pubblico, in quanto luogo virtuale (piazza immateriale) aperto all’accesso di chiunque utilizzi la rete. Secondo i giudici della Cassazione, si tratterebbe di un’interpretazione estensiva «che la lettera della legge non impedisce di escludere dalla nozione di luogo e che, a fronte della rivoluzione portata alle forme di aggregazione e alle tradizionali nozioni di comunità sociale, la sua ratio impone, anzi, di considerare». La conseguenza di tale inquadramento delle Internet platforms potrebbe condurre all’applicazione del solo limite dell’ordine pubblico materiale alle riunioni (sui social o sui motori di ricerca), rendendo impossibile l’applicazione di scelte orientate come quelle dei termini di servizio e, in generale, impendendo l’applicazione di una censura privata non legata ai limiti previsti dall’ordinamento italiano. Nell’interpretare questi luoghi non fisici nel paradigma di luoghi privati aperti al pubblico serve considerare l’avanzamento del principio di non discriminazione nell’ambito del diritto privato e contrattuale, che potrebbe risultare il cavallo di troia per impedire alle Internet platforms di discriminare determinati contenuti ideologici rispetto ad altri e garantire la difesa della libertà di espressione. La questione è di particolare attualità a causa del ruolo monopolistico che queste piattaforme stanno andando a rivestire [...] In conclusione, il dilemma della qualificazione delle Internet platforms risulta di difficile risoluzione, salvo, forse, nell’ambito di quella species particolare che è la libertà di informazione. In questo ambito anche l’eventuale inquadramento delle Internet platforms come formazioni sociali, analogamente alle testate giornalistiche, non esenterebbe le stesse da determinate scelte contenutistiche; al contrario, in tutte le altre sfere della libertà di pensiero la strada per la tutela del pluralismo e la limitazione della censura privata, in ambiti di così importante rilievo per il discorso pubblico e la democrazia, risulta di difficile ricostruzione”. Sempre sull’ argomento si rimanda a M.R. Allegri, Ubi Social, Ibi Ius. Fondamenti costituzionali dei social network e profili giuridici della responsabilità dei provider, Milano, 2018, p. 44 ss.; A. Papa, Espressione e diffusione del pensiero in Internet, Torino, 2009, p. 30 ss.

[20] Cfr.  S. Sassi, Diritto transnazionale e legittimazione democratica, Padova, 2018, p. 56 ss.

[21] Di recente, L. Califano, La libertà di manifestazione del pensiero... in rete; nuove frontiere di esercizio di un diritto antico. "fake news", "hate speech" e profili di responsabilità dei "social network", in Federalismi.it - Rivista di diritto pubblico italiano, comparato, europeo, 26 (2021), pp. 1-24, osserva: “Va poi considerato che qualsiasi forma di regolazione è destinata a confrontarsi con un fenomeno che non  ha  più  caratteristiche  nazionali  o  sovranazionali:  se,  in  forza  del  web,  il problema  ha  assunto  una natura globale, è facilmente ipotizzabile il caso di un utente che, ad esempio, pubblica un post su un social network nel rispetto della  normativa vigente nel proprio paese, ma in contrasto con diverse regolazioni della materia nei Paesi in cui quel contenuto diventa visibile”.

[22] Dove il termine ‘corporativizzazione’ può essere disambiguato in due differenti accezioni: la prima rimanda al tradizionale concetto di corporazione, la seconda a quello di corporation.

[23] Sul punto si rimanda al recentissimo contributo di A. Buratti, Framing the Facebook Oversight Board: Rough Justice in the Wild Web?, in Media Laws– Rivista del diritto dei media, 2 (2022), pp. 1- 18, ove l’Autore rileva come, in un contesto “such as online content moderation, where adjudication plays a crucial role in a codification process which is still open and malleable, privatization of justice must be evaluated with the utmost care: although paying attention to the scope of on-line platforms’ liberty of organization, internal complaint-handling processes must be regulated under compulsory legal principles, especially when they involve forms and procedures of a quasi-judicial nature”.

[24] Più in generale sulla privatizzazione della censura online, osserva acutamente M. Monti, Privatizzazione della censura, cit., p. 41, “La delega di poteri censori alle Internet platforms conduce in tutti i casi a due principali questioni di rilievo e che meritano in quest’ambito di esser affrontate: il rischio di una rimozione totale di ogni contenuto contestato e il rischio di operazioni di c.d. silencing da parte delle Internet platforms stesse. In primo luogo, come rilevato dalla dottrina, affidare questo ruolo di valutazione di merito a soggetti privati, che si considerano – preme ricordarlo – ancora semplici agenti economici, può condurre gli stessi a modulare le proprie risposte in conformità alle pulsioni economiche ritenute più efficienti, senza la garanzia che questo sia eziologicamente corrispondente al corretto bilanciamento fra diritti e interessi sottostanti. La policy interna sulla rimozione di un contenuto, in assenza di controlli pubblici, potrebbe essere quella dell’accoglimento di quasi tutte le richieste al fine di evitare successive contestazioni: s’impoverirebbe così notevolmente il discorso pubblico, deprivandolo di opinioni, critiche e informazioni. In secondo luogo, l’affidare alle Internet platforms questo compito condurrebbe a limitare gli spazi di dibattito in quegli ambienti quali Facebook, Google, etc. che sempre di più stanno emergendo come arene pubbliche in cui circola la comunicazione politica, l’informazione, il diritto di critica e le più disparate interazioni personali”.

[25] Cfr. A. Masera- G. Scorza, Internet. I nostri diritti, Roma, 2016, pp. 60-69.

[26] Le problematiche riguardo la content-moderation online, gestite da AI, sono un tema ampiamente dibattuto in letteratura, non solo giuridica. Segnatamente, E. Douek, Facebook’s Oversight board: move fast with stable infrastructure and humility, in North Carolina Journal of Law & Technology, 1 (2019), p. 10 ss., rivela i limiti odierni di tale tecnologia, osservando: “Another tool Facebook uses to make content moderation at scale manageable is artificial intelligence (Al). In his Blueprint, Zuckerberg calls AI «the single most important improvement in enforcing our policies, because it can quickly and proactively identify harmful content». This further reflects Facebook’s mechanistic approach to content moderation. For every category except bullying and harassment, and hate speech, Facebook found over 95% of the content it took down as violating its Community Standards before it was reported by a user, in large part because of its Al. But the exception of bullying and harassment, and hate speech is telling: these two categories of content are harder for Facebook to proactively identify because they are so highly context dependent. As Facebook notes, bullying and harrassment reports «tend to be personal and context-specific, so in many instances we need a person to report this behavior to us before we can identify or remove it. This results in a lower proactive detection rate than other types of violations». Hate speech is notoriously difficult to detect through automated processes, because it depends so much on linguistic nuance, intention, and local norms. Context is all important at these «complex frontiers of political speech, dangerous speech, and hate speech». So while Al is a necessary part of content moderation at scale, it is not sufficient”. Sempre sul punto si rimanda anche a S.T. Roberts, Behind the screen: content moderation in the shadow of social media, New Haven, 2019.

[27] Peraltro tale questione non deve essere sottovaluta, in modo particolare quando vi è in gioco non solo la libertà d’espressione degli utenti ma anche quella religiosa. Si pensi, per esempio, al rispetto da parte del fedele di regole di natura confessionale che spesso hanno un grado di percettività – ovviamente per chi vi si riconosce in quel dato ordinamento confessionale – analogo a quelle di derivazione statuale. Sotto questo aspetto si rimanda a S. Baldetti, Il “giudice” algoritmo di fronte al fenomeno religioso, in Diritto Pubblico Comparato ed Europeo online, 3 (2020), pp. 3451 – 3455 ove l’Autore precisa: “La diffusione di contenuti sul web che invocassero ad esempio il rispetto di determinati precetti coranici, per essere correttamente valutata richiederebbe una adeguata contestualizzazione della fattispecie. Questa esigenza andrebbe al di là di una valutazione basata su una logica algoritmica che, per ipotesi, si limitasse ad una di tipo true/false. Appare quindi complesso pensare di risolvere il problema semplicemente istruendo un algoritmo con la regola “Cancella i post riguardanti la sura del Corano in cui è presente la parola guerra”, poiché il riferimento alla norma religiosa potrebbe essere in quella sede utilizzata, per esempio, ai fini di confutazione di una fake news sull’argomento. Occorre immaginare una sensibilità della macchina particolarmente evoluta per evitare che contenuti legati al radicalismo religioso siano confusi con altri di pura discussione, critica o riguardanti l’esercizio del culto in ambienti digitali”.

[28] Cfr. R.A. Wilson – M. Land, Hate Speech on Social Media: Content Moderation in Context, cit., p. 1043 ss., ove gli Autori segnalano come: “Posts on Facebook are believed to have both incited specific acts of violence against the Rohingya and contributed to a general climate that made the genocide possible. A UN-sponsored fact-finding mission documented over 150 public social media accounts, pages, and groups on Facebook that «regularly spread messages amounting to hate speech against Muslims in general or Rohingya in particular». The report noted a number of these accounts were ‘particularly influential’ in light of «the number of followers (all over 10,000, but some over 1 million), the high levels of engagement of the followers with the posts (commenting and sharing), and the frequency of new posts (often daily, if not hourly)». The Myanmar government deployed online narratives evoking several different themes about the supposed threat posed by the Rohingya Muslims, including descriptions of them as «an existential threat to the country», «a threat to Burmese racial purity», and «a threat to Buddhist religious sanctity». According to the UN mission, «[s]uch narratives latch onto long-standing anti-Muslim prejudices and stereotypes; they are designed to stoke fear»”. In relazione al cosiddetto affaire ‘Cambridge Analityca’, si veda J. Hinds-E. J. Williams – A. N. Joinson, “It wouldn't happen to me”: Privacy concerns and perspectives following the Cambridge Analytica scandal, in International Journal of Human-Computer Studies, 1 (2020), pp. 1-14; K. Klonick, The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression, cit., p. 2442.

[29] M. Bickert, Defining the Boundaries of Free Speech on Social Media, in The Free Speech Century, 3 (2018), pp. 265 ss.

[30] Tuttavia anche tali promesse non appaiono del tutto esaudite, come rilevano F. Coleman – B. Nonnecke – E. M. Renieris, The Promise and Pitfalls of the Facebook Oversight Board. A Human Rights Perspective, in Carr Center for Human Rights Policy Harvard Kennedy School, Harvard, 2021, pp. 5. Segnatamente Elizabeth M. Renieris osserva: “The main risks of an external over- sight board like Facebook’s Oversight Board (FOB) are that it is neither external nor capable of providing independent oversight. While FOB members do not work for Facebook, they are subject to Facebook’s internal operational challenges. For example, the FOB was delayed in getting up and running due in part to logistical matters, such as obtaining their laptops and other equipment from Facebook. The extent to which the FOB can do its job also depends on the extent to which it can access information about how Facebook operates. As demonstrated in its recent ruling about former President Trump, Facebook refused to answer or provide evidence in response to a number of the FOB’s critical questions about the company’s handling of Trump’s account. Moreover, unlike with respect to external oversight over a company’s financial affairs, there are no clear rules or standards for what constitutes ‘independence’ in the context of external oversight over a platform’s content moderation decisions or for platform governance and accountability more generally. Without such independently developed and enforced rules or standards, a company like Facebook is left to set their own standards for what counts as “independence,” and there is reason to doubt their approach”.

[31] Sul punto si vedano le osservazioni di O. Grandinetti, Facebook vs. CasaPound e Forza Nuova, ovvero la disattivazione di pagine social e le insidie della disciplina multilivello dei diritti fondamentali, in Media Laws– Rivista del diritto dei media, 11 (2021), p. 188-189.

[32] Corte di giustizia dell’Unione europea, Grande sezione , 13 maggio 2014, C-131/12 (Google Spain). In dottrina si veda G. Cintra Guimarães, Global technology and legal theory. Transnational constitutionalism, Google and the European Union, New York, 2019, p. 156 ss.

[33] Segnatamente l’art. 4 delle Condizioni d’uso di Facebook riporta: «Facebook tenta di fornire regole chiare in modo da limitare o, auspicabilmente, evitare controversie con gli utenti. In caso di controversia, è utile conoscere in anticipo le sedi in cui è possibile risolverle, nonché le leggi applicate. Nell'ambito dei consumatori che risiedono abitualmente in uno Stato membro dell'Unione Europa, trovano applicazione le leggi dello Stato membro in questione in relazione a eventuali reclami, azioni legali o controversie contro Facebook derivanti o correlati alle presenti Condizioni o ai Prodotti Facebook (“reclamo”). Il reclamo può essere risolto davanti a qualsiasi tribunale competente dello Stato membro che gode della giurisdizione nell'ambito del reclamo. In tutti gli altri casi, l'utente accetta che il reclamo verrà risolto davanti a un tribunale competente della Repubblica d’Irlanda e che la legge irlandese disciplinerà le presenti Condizioni ed eventuali reclami, indipendentemente da conflitti nelle disposizioni di legge». Il testo citato è quello da ultimo aggiornato il 20 dicembre 2020. Si evince chiaramente che non solo non sussiste nessuna clausola compromissoria che giustificherebbe la giurisdizione di una corte arbitrale: anzi, è ribadita la sussistenza delle giurisdizioni nazionali.

[34] Cfr. S. Pelleriti, La "governance" privata di Facebook e la presa di coscienza del regolatore europeo: qualcosa sta cambiando?, in Rivista della regolazione dei mercati, 2  (2021), pp. 429-444; K. Klonick, The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online Free Expression, cit., p. 2459 ss.; E. Douek, Facebook’s Oversight board: move fast with stable infrastructure and humility, cit., p. 29 ss.

[35] Cfr. Articolo 5, co. 2 dello Statuto

[36] I membri includono anche diversi altri professori ordinari di alcuni dei più prestigiosi Atenei di tutto il mondo e Tawakkol Karman, premio Nobel per la pace.

[37]  A. Iannotti della Valle, La giurisdizione privata nel mondo digitale al tempo della crisi della sovranità: il “modello” dell’Oversight Board di Facebook, in Federalismi.it - Rivista di diritto pubblico italiano, comparato, europeo, 26 (2021), pp. 163-164.

[38] Rispettivamente, Catalina Botero-Marino, colombiana, Decano dell’Universidad de los Andes, Facoltà di Giurisprudenza, Relatore speciale per la libertà di espressione presso l’Organizzazione degli Stati Americani, giudice supplente della Corte costituzionale colombiana; Jamal Greene, statunitense, professore alla Columbia Law School; Michael McConnel, statunitense, professore e direttore del Centro di Diritto Costituzionale alla Stanford Law School e avvocato della Corte Suprema degli Stati Uniti; Helle Thorning-Schmidt, danese, ex Primo Ministro della Danimarca, ex direttore generale di Save the Children.

[39] Articolo 1, co. 2 dello Statuto.

[40] Cfr. D. Ghosh, Facebook’s Oversight Board Is Not Enough, in Harvard Business Review, 16 ottobre 2019, consultabile al seguente indirizzo web https://hbr.org/2019/10/facebooks-oversight-board-is-not-enough.

[41] Già alcuni suggerimenti erano contenuti in M. Maroni, Some reflections on the announced Facebook Oversight Board - 17 ottobre 2019, Robert Schuman Centre for Advanced Studies, Centre for Media Pluralism and Media Freedom (CMPF), 2019; Q. Weinzierl, Difficult Times Ahead for the Facebook “Supreme Court”, in Verfassungsblog, 21 settembre 2019, consultabile al seguente indirizzo web https://verfassungsblog.de/difficult-times-ahead-for-the-facebook-supreme-court/; E. Douek, How Much Power Did Facebook Give Its Oversight Board?, in Lawfareblog, 25 settembre 2019, consultabile al seguente indirizzo web https://www.lawfareblog.com/how-much-power-did-facebook-give-its-oversight-board.

[42] Cfr. BSR, Human Rights Review: Facebook Oversight Board, 2019, p. 1-65.

[43] C. Botero – Marino – J. Greene – MW McConnel – H. Thorning-Schmidt, We Are a New Board Overseeing Facebook. Here’s What We’ll Decide, in The New York Times, 6 maggio 2020.

[44] Si veda l’analisi compiuta da E. Douek, Facebook's Oversight board: move fast with stable infrastructure and humility, cit., pp. 1-78. Cfr. Anche M. Maroni, E. Brogi, Freedom of expression and the rule of law: the debate in the context of online platform regulation, in Research Handbook on EU Media Law and Policy, a cura diP. L. Parcu – E. Brogi, Cheltenham, 2021, p. 166–189.

[45] In particolare, l’articolo 1, co. 5 dello Statuto

[46] Articolo 5, co. 2 dello Statuto.

[47] Sul punto di rimanda a R. Gulati, Meta’s Oversight Board and Transnational Hybrid Adjudication – What Consequences for International Law?, in KFG Working Paper Series, 53 (2022), pp. 1-25.

[48] Articolo 2, co. 1 dello Statuto.

[49] Preambolo dello Statuto.

[50] Riferendosi all’ordinamento giurisdizionale statunitense, in maniera ottimistica, E. Douek, Facebook’s oversight board: move fast with stable infrastructure and humility, cit., p. 77, afferma: “Deciding what the FOB will be includes accepting what it cannot be this includes acknowledging that it cannot be a way to bring due process to any but the smallest fraction of content moderation decisions. Nor can it authoritatively resolve clashing ideas of freedom of expression. But, if done right, the FOB may be able to bring a greater sense of legitimacy and acceptance to Facebook's content moderation ecosystem. This is a massive undertaking, and will require a healthy dose of "constitutional luck." History teaches us that ultimately many variables for constitutional success are beyond the ability of designers to control, and success or failure is necessarily contingent. This may be unsatisfying. But the question should not be whether the FOB is inevitably a perfect institution or an ideal-type of due process and transparency that will bind Facebook to stringent human rights standards. The question for now is whether it is better than the alternative: the current haphazard, opaque process that draws inspiration from Kafka more than Kelsen. By that standard, the FOB shows real promise”.

[51] Sulla centralità delle fonti di soft law nell’odierno panorama giuridico si rinvia, ex multis, a S. Sileoni, Autori delle proprie regole. I codici di condotta per il trattamento dei dati personali e il sistema delle fonti, Padova, 2011, pp. 13-46; E. Mostacci, La soft law nel sistema delle fonti: uno studio comparato, Padova, 2008; B. Pastore, Soft law, gradi di normatività, teoria delle fonti, in Lavoro e diritto, 1 (2003), pp. 5-16. Invero l’emersione del concetto di soft law è da ricondursi, agli inizi degli anni Settanta, al pensiero di René Jean Dupuy che sviluppò le sue analisi nel saggio, ormai divenuto classico R.J. Dupuy, Droit déclaratorie et droit programmatoire: de la coutume sauvage à la soft law, in L’élaboriation du droit international publicColloque de Toulouse, Parigi, 1975, pp. 132- 148.

[52] Sul punto E. Douek, What Kind of Oversight Board Have You Given Us?, cit., p. 6, specifica: “The FOB will never apply or interpret any country’s law. 12 All cases involving content deemed to be illegal under local law are definitionally excluded from the FOB’s remit. Instead, it will «review content enforcement decisions and determine whether they were consistent with Facebook’s content policies and values» and «pay particular attention to the impact of removing content in light of human rights norms protecting free expression». That is clear as far as it goes, but actually tells us very little”.

[53] Articolo 2, co. 2 dello Statuto.

[54] Cfr. R. Gulati, Meta’s Oversight Board and Transnational Hybrid Adjudication – What Consequences for International Law?, cit., pp. 1-25.

[55] Cfr. E. Douek, What Kind of Oversight Board Have You Given Us?, in University of Chicago Law Review Online, 2020, pp. 1-11. In effetti, nel caso in cui il Board decida di non prendere in considerazione la segnalazione dell’utente, l’unica via percorribile rimane quella del ricorso dinnanzi al giudice civile.

[56] Sul punto si rimando all’esaustiva analisi di A. Iannotti della Valle, La giurisdizione privata nel mondo digitale al tempo della crisi della sovranità: il “modello” dell’Oversight Board di Facebook, cit., p. 161.

[57] Si veda sul punto E. Douek, What Kind of Oversight Board Have You Given Us?, cit., p. 5 ss.

[58] Cfr. A. Iannotti della Valle, La giurisdizione privata nel mondo digitale al tempo della crisi della sovranità: il “modello” dell’Oversight Board di Facebook, cit., p. 161; S. Pelleriti, La "governance" privata di Facebook e la presa di coscienza del regolatore, cit., pp. 429-444.

[59] D’altro canto E. Douek, What Kind of Oversight Board Have You Given Us?, cit., p. 5, avverte l’esigenza di sottolineare come “The FOB can make policy advisory statements that could affect the platform more broadly, but these "will be considered as a recommendation." In all of these matters, Facebook's obligation is to publicly disclose what it has done in response to the FOB's decisions in its newsroom […] This has been a widely criticized aspect of the FOB's design, and it is not hard to see why. The extent to which the FOB can actually bind Facebook is very narrow just the individual content in any case." A drop in the ocean of content on Facebook. But I remain convinced that this is overall a positive design choice. The biggest challenges in content moderation involve the rapid pace of change in the online ecosystem, and the difficulty of enforcing any rules at scale. Policies are desi md around these constaints. The FOB is not best placed to evaluate these fast-moving operational matters. As co-chair McConnell said, “we are not the internet police. Don’t think of us as sort of a fast action group that” going to swoop in and deal with rapidly moving problem”. Anche Q. Weinzierl, Difficult Times Ahead for the Facebook “Supreme Court”, cit., chiosa: “The Board’s members will face the unique and seemingly impossible task of establishing a global standardfor permissible online speech. Although, as others have acknowledged, there often is no “right” answer, the Board nevertheless must strive to find ONE globally acceptable solution. This endeavor might take the establishment of transnational private law to a new level. The sought-after “diversity” of the members, albeit necessary for the Board’s legitimacy, will make the task particularly demanding”.

[60]La versione completa della decisione è disponibile al seguente indirizzo web: https://oversightboard.com/decision/FB-I2T6526K/.

[61] Nello specifico si rammenta: “Restoring the post is consistent with international human rights standards. According to Article 19 of the ICCPR, individuals have the right to seek and receive information, including controversial and deeply offensive information (General comment no. 34). Some Board Members noted the UN Special Rapporteur on Freedom of Expression’s 2019 report on online hate speech that affirms that international human rights law «protects the rights to offend and mock» (para. 17). Some Board Members expressed concerns that commentary on the situation of Uyghur Muslims may be suppressed or under-reported in countries with close ties to China.  At the same time, the Board recognises that the right to freedom of expression is not absolute and can be subject to limitations under international human rights law. First, the Board assessed whether the content was subject to a mandatory restriction under international human rights law. The Board found that the content was not advocacy of religious hatred constituting incitement to discrimination, hostility or violence, which states are required to prohibit under ICCPR Article 20, para. 2. The Board considered the factors cited in the UN Rabat Plan of Action, including the context, the content of the post and the likelihood of harm. While the post had a pejorative tone, the Board did not consider that it advocated hatred, and did not consider that it intentionally incited any form of imminent harm”, case 2020-002-FB-UA.

[62] Il che è peraltro comprensibile alla luce della storia di violenza e discriminazione nei confronti dei musulmani, specie della comunità Rohingya in Birmania. Cfr., per tutti, Z. Barany, The Rohingya Predicament: Why Myanmar’s Army Gets Away with Ethnic Cleansing, in Papers (AIA) - Istituto Affari Internazionali, pp. 4-19; M. Grizzle Fischer, Anti-Conversion Laws and the International response, in Penn State Journal of Law and International Affairs, 1 (2018), pp. 1-70.

[63] Cfr. C. Fink, Dangerous Speech, Anti-Muslim Violence, and Facebook in Myanmar, in Journal of International Affairs, Special Issue: Contentious Narratives: Digital Technology and The Attack on Liberal Democratic Norms, 2018, pp. 43-52

[64]La versione completa della decisione è disponibile al seguente indirizzo web https://www.oversightboard.com/decision/FB-R9K87402/.

[65] Segnatamente, “The right to freedom of expression includes the dissemination of ideas that may be considered blasphemous, as well as opposition to such speech. In this regard, freedom of expression includes freedom to criticize religions, religious doctrines, and religious figures (General Comment No. 34, para. 48). Political expression is particularly important and receives heightened protection under international human rights law (General Comment No. 34, at para. 34 and 38) and includes calls for boycotts and criticism of public figures”, case 2020-007-FB-FBR, par. 8.3.

[66] La versione completa della decisione è disponibile al seguente indirizzo web https://oversightboard.com/decision/IG-0U6FLA5B/.

[67] Cfr.  W. Menozzi, Ayahuasca. La Liana degli spiriti. Il sacramento magico-religioso dello sciamanismo amazzonico, Milano, 2009; Id., L’uso magico-medico dell'ayahuasca un esempio di rivalutazione medico-scientifica del profondo sapere terapeutico della tradizione indigena amazzonica, in Atti del XXIX Convegno Internazionale di Americanistica, Perugia, 2007, pp. 785-798; M.C. Cesàro, Ayahuasca: la ‘liana delle anime’ tra New Age e tradizione indigena, in Salute e società, 6 (2007), pp. 1-7.

[68] Sulla produzione e sul consumo di questa sostanza si è peraltro pronunciata anche la quarta sezione della Suprema Corte di Cassazione del nostro Paese con sentenza n. 1443, emessa il 06 ottobre 2005, consultabile al seguente indirizzo web https://dejure.it/#/ricerca/giurisprudenza_documento_massime?idDatabank=0&idDocMaster=1575950&idUnitaDoc=0&nVigUnitaDoc=1&docIdx=1&semantica=0&isPdf=false&fromSearch=true&isCorrelazioniSearch=false.

[69] L’azienda ha dichiarato che: “the user described ayahuasca with a heart emoji, referred to it as ‘medicine,’ and stated that it can help you”, 2021-013-IG-UA case, part. 1, consultabile al seguente indirizzo web https://oversightboard.com/decision/IG-0U6FLA5B/.

[70] In particolar modo si prevedere un esplicito divieto per quelle attività che “coordinano o promuovono (parlandone positivamente e incoraggiandone l'uso, o fornendo istruzioni per crearle o usarle) le droghe”, Standard della community di Facebook, consultabili al seguente indirizzo web https://www.facebook.com/business/help/373506759931554?id=1769156093197771.

[71] Ad ogni modo, occorre tenere presente che l’assunzione di questa sostanza può avere ripercussioni notevoli sull’integrità psico-fisico degli utilizzatori. In questa prospettiva, dunque, dovrebbe essere permessa la libera discussione anche dei pericoli per la salute, connessi all’utilizzo dell’ayahuasca.

[72] 2021-013-IG-UA case, part. 10, consultabile al seguente indirizzo web https://oversightboard.com/decision/IG-0U6FLA5B/.

[73] Sull’argomento è utile la consultazione del contributo di L. Scaffardi, Oltre i confini della libertà d’espressione. L’istigazione all’odio razziale, Padova, 2009.

[74] 2021-013-IG-UA case, part. 8, consultabile al seguente indirizzo web https://oversightboard.com/decision/IG-0U6FLA5B/.

[75] Per tutti, si rimanda a P. Gismondi, L’interesse religioso nella Costituzione, in Giurisprudenza costituzionale, 3 (1958), p. 1230 ss.; D. Barillaro, Considerazioni preliminari sulle confessioni religiose diverse dalla cattolica, Milano, 1968, p. 125; C. Mirabelli, L’appartenenza confessionale. Contributo allo studio delle persone fisiche nel diritto ecclesiastico italiano, Padova, 1975, p. 140; C.A. Jemolo, Lezioni di diritto ecclesiastico, Milano, 1979, p. 104 ss. Nella manualistica, si veda C. Cardia, Principi di diritto ecclesiastico, Torino, 20195, pp. 199-208; E. Vitali, A.G. Chizzoniti, Manuale breve. Diritto ecclesiastico, Milano, 202217, pp. 48-49.

[76] La norma prosegue poi indicando gli indici di rischio: “Meta considera i seguenti segnali per determinare se nei contenuti è presente una minaccia di violenza. Contenuti condivisi in un contesto di ritorsione (ad es. espressioni di desiderio di danneggiare altre persone in risposta a una rimostranza o a una minaccia che può essere reale, percepita o prevista) Riferimenti a episodi storici o fittizi di violenza (ad es. contenuti che minacciano altre persone facendo riferimento a noti episodi storici di violenza che hanno avuto luogo nel corso della storia o in ambientazioni fittizie). Inviti all'azione per compiere atti intimidatori (ad es. contenuti che invitano o incoraggiano altre persone a compiere azioni dannose o a unirsi per il compimento di tali azioni). Contenuti che indicano la conoscenza o condividono informazioni riservate che potrebbero mettere in pericolo altre persone (ad es. contenuti che rendono note o implicano la conoscenza di informazioni personali che potrebbero rendere più credibile una minaccia di violenza fisica. Sono comprese le informazioni che implicano la conoscenza dell'indirizzo di residenza di una persona, il suo luogo di lavoro o di istruzione, i percorsi quotidiani da pendolare o la sua posizione attuale.). Il contesto locale o l'esperienza in materia confermano che l'affermazione in questione potrebbe essere una minaccia e/o potrebbe condurre a violenza o danni fisici imminenti”, Standard della community di Facebook, contabili al seguente indirizzo web https://www.facebook.com/business/help/373506759931554?id=1769156093197771.

[77]Dai casi precedentemente presi in considerazione, è palese come emerga che questo obiettivo si possa realizzare tenuto conto delle specificità dei singoli Paesi e delle ‘tensioni interconfessionali’ esistenti al loro interno.

Tonti Nico



Download:
4 Tonti.pdf
 

Array
(
    [acquista_oltre_giacenza] => 1
    [codice_fiscale_obbligatorio] => 1
    [coming_soon] => 0
    [disabilita_inserimento_ordini_backend] => 0
    [fattura_obbligatoria] => 1
    [fuori_servizio] => 0
    [has_login] => 1
    [has_messaggi_ordine] => 1
    [has_registrazione] => 1
    [homepage_genere] => 0
    [insert_partecipanti_corso] => 0
    [is_ordine_modificabile] => 1
    [moderazione_commenti] => 0
    [mostra_commenti_articoli] => 0
    [mostra_commenti_libri] => 0
    [multispedizione] => 0
    [pagamento_disattivo] => 0
    [reminder_carrello] => 0
    [sconto_tipologia_utente] => carrello
)

Inserire il codice per attivare il servizio.