Disinformazione, propaganda, bugie, minacce, insulti, provocazioni, odio hanno diritto di cittadinanza in Rete?

By 27 Novembre 2019Web e Comunicazione

Stabilire i confini del dicibile in Rete è una delle sfide cruciali della nostra era. Disinformazione, propaganda, bugie, minacce, insulti, provocazioni, puro e semplice odio: devono avere diritto di cittadinanza sulla piattaforme digitali, nei servizi di instant messaging e tra i risultati dei motori di ricerca, oppure no? Come si tutela un ambiente di discussione democratico, nell’era in cui Mark Zuckerberg detiene i dati sulle vite di oltre due miliardi di persone nel pianeta e in cui uno dei più pericolosi hater in circolazione di mestiere fa il Presidente degli Stati Uniti? E, soprattutto, chi lo decide?

Sono domande a cui cerchiamo troppo spesso risposte emotive, di “pancia”. Proposte di legge attrezzate in fretta e furia dopo l’ennesimo scandalo mediatico a base di “odio in rete”, come quella preannunciata dal presidente del Consiglio, Giuseppe Conte, dopo l’orrore antisemita riversatosi addosso a Liliana Segre (“Inviterò tutte le forze politiche che stanno in Parlamento a mettersi d’accordo per introdurre norme contro il linguaggio dell’odio. Via social e a tutti i livelli”); o come quella avanzata da Monica Cirinnà dopo valanghe di insulti sessisti, che insieme all’odio mira a eliminare, pericolosamente, l’anonimato online.

Ma anche campagne di sensibilizzazione a base di buoni propositi che, per quanto meritorie, da sole non bastano a porre fine, e subito, ai danni reali che l’odio organizzato, strategico, reca più spesso a categorie sociali peraltro già discriminate (per questioni di genere, etniche o religiose).

C’è poi il solito gioco delle opposte banalizzazioni: da una parte, gli unici “eroi” sono quelli che, come Alexandria Ocasio-Cortez in una recente audizione all’House Financial Services Committee del Parlamento USA, “demoliscono”, “fanno a pezzi” Zuckerberg e i colossi del “Big Tech”, perché i social starebbero (prove o meno) “distruggendo la democrazia”; dall’altra, quelli per cui ogni regola (prove o meno) è un “ostacolo all’innovazione”, e bisognerebbe lasciare la responsabilità di ogni decisione insieme all’utente e al “mercato”.

Eppure un modo per incamminarsi sulla lunga e accidentata via mediana, quella della realtà, con tutte le sue asperità e complicazioni, ci sarebbe, e da un pezzo: fare ricorso al corpus normativo internazionale sui diritti umani come base dei criteri di moderazione dei contenuti online.

O almeno, è quanto lo Special Rapporteur ONU per la libertà di espressione, David Kaye, va argomentando da tempo, nei suoi interventi pubblici e nel suo recente libro “Speech Police”. Ma è con il rapporto dello scorso 9 ottobre che per la prima volta Kaye ci mostra cosa ciò significhi in pratica nel contrasto dell’hate speech in Rete.

What should governments and companies do about online hate? Responses so far have not been rooted in int’l human rights law and norms, so today I’m presenting a report to the #UNGA that tries to provide some guidance. https://t.co/ed9mFWRrSv pic.twitter.com/xq1OygSgQT

— David Kaye (@davidakaye) October 21, 2019

E se invece di continuare a cercare di reinventare la ruota, è il filo conduttore dell’intero documento, cominciassimo a usare quella che abbiamo già inventato dopo la Seconda Guerra Mondiale, per provare a procedere oltre un dibattito altrimenti inchiodato da troppo tempo ai soliti panici morali (su tutti, l’anonimato), e alle solite soluzioni che non risolvono nulla, e anzi aggiungono ulteriori problemi (a partire dall’idea di promuovere filtri automatici per la rimozione di contenuti d’odio o ritenuti illegali, disastrosa per le conseguenze inevitabili sulla libertà di espressione)?

A dire: se quello che stiamo cercando sono soluzioni globali e insieme dettagliate, specifiche, a un problema al contempo globale e pieno di delicatissime sfaccettature e distinguo, è ora di aprire gli occhi, e rendersi conto che “la normativa internazionale sui diritti umani” fornisce già gli “standard” di cui “Stati e aziende” hanno bisogno per gestire al meglio questioni riguardanti la libertà di espressione online.

Kaye lo scrive anche più chiaramente tra le conclusioni: quell’insieme di norme concordate a livello internazionale nel corso degli scorsi decenni “dovrebbe essere inteso come un framework cruciale per proteggere e rispettare i diritti umani mentre si combattono odio, offese ed espressioni pericolose o inopportune”, anche sulle piattaforme digitali.

Un modello che non fornisce tutte le risposte di cui abbiamo bisogno, certo, ma che tuttavia ne fornisce diverse. Anche quando non lo fa, suggerisce le domande giuste. A partire da quelle fondamentali: di cosa parliamo, esattamente, quando parliamo di “hate speech”? E come si regola in Rete un fenomeno che va ben oltre la Rete?

Di cosa parliamo quando parliamo di odio online

Il primo problema evidenziato da Kaye è definitorio: cos’è, esattamente, l’hate speech? Il diritto internazionale non lo codifica, scrive il rapporteur ONU, e di conseguenza l’espressione è ambigua e può “essere abusata per consentire violazioni su un’ampia gamma di forme espressive lecite”.

Ma l’ambiguità è duplice. Da un lato, scrive Kaye, “molti governi usano “hate speech”, come “fake news”, per attaccare i nemici politici, i non credenti, i dissidenti e i critici”. Dall’altro, quell’ambiguità impedisce a governi e aziende di agire con efficacia su un problema che, invece, è reale.

Si tratta insomma di conciliare due esigenze cruciali per il diritto internazionale, e per noi tutti: la possibilità di dibattito democratico tipico di una società aperta, e insieme il dovere di proteggere le categorie colpite dall’odio, a partire dalle più colpite.

Ma secondo una premessa indispensabile: che i diritti alla libera opinione ed espressione — così come codificato negli articoli 19(1) e 19(2) dell’International Covenant on Civil and Political Rights (ICCPR) — sono, scrive lo Human Rights Committee, “condizioni indispensabili per il pieno sviluppo della persona”, e costituiscono la pietra miliare, il fondamento su cui costruire “ogni società libera e democratica”.

E che dunque ogni restrizione deve essere “eccezionale”, “soggetta a condizioni stringenti e a controllo severo”, e tali che in ogni caso i diritti fondamentali non possano mai risultarne compromessi.

Kaye ricapitola di conseguenza i “test” a cui ogni intervento in tema di limitazione della libertà di espressione deve essere sottoposto prima, non dopo o mai come troppo spesso avviene, per valutare se rientri tra le eccezioni lecite.

I criteri stabiliti dall’ICCPR sono chiari: legalità, legittimità, necessità e proporzionalità.

Significa che la libera espressione può essere limitata solo quando gli Stati identifichino chiaramente cosa intendono per “odio” e come esattamente si soddisfano le prescrizioni a rimuoverlo, limitando a questo modo la pericolosa, e altrimenti inevitabile, discrezionalità sia dei governi che delle aziende nella rimozione di contenuti “d’odio” (legalità).

Ma significa anche che è lo Stato, che impone quei limiti, a dover dimostrare che sono necessari a proteggere gli interessi legittimi dei cittadini (legittimità), e insieme che costituiscano il modo “meno restrittivo” di farlo (necessità e proporzionalità). La “criminalizzazione” dell’odio, si legge in tutto il documento, è un intervento da extrema ratio, l’ultimo strumento a cui ricorrere quando tutti gli altri hanno fallito, e solo per offese “serie”, di comprovata gravità e tali da causare rischi reali all’incolumità o alla sicurezza delle vittime.

E qui la vaghezza definitoria finisce per avvolgere anche il linguaggio del corpus normativo sui diritti umani che dovrebbe dirimerla. Kaye nota infatti che lo stesso ICCPR, all’art. 19(3), prescrive che i limiti alla libera espressione debbano derivare dalla legge, e soprattutto necessari a proteggere “i diritti o la reputazione degli altri, la sicurezza nazionale o l’ordine pubblico, o la salute e la morale pubblica”.

“Queste sono eccezioni definite in modo stringente”, scrive il rapporteur ONU, prima di notare a sua volta che non lo sono poi del tutto visto che, come appunta lui stesso qualche pagina dopo, siamo costretti a muoverci all’interno di confini linguistici molto difficili da delimitare, travolti come sono da emozioni primordiali (odio, ostilità) e proibizioni spesso particolarmente difficili da estrapolare da contesti specifici.

E del resto, basta soffermarsi sulle “stringenti” definizioni riservate alle eccezioni per rendersi conto che non sono molto meno vaghe della stessa espressione “hate speech”. Il significato di “reputazione”, “sicurezza nazionale”, “ordine pubblico”, addirittura “salute pubblica e morale” è ben diverso negli USA, in Europa o in Cina, per esempio.

Un propagandista cinese, se proprio decidesse improvvisamente di curarsi della normativa internazionale sui diritti umani, potrebbe tranquillamente trovare un modo retorico di sostenere che la libertà di espressione non c’entra nulla con le restrizioni applicate dal governo autoritario di Pechino, perché previste entro le suddette eccezioni legittime. Del resto, cos’altro potrebbe essere la rimozione di un post critico con la polizia di Hong Kong durante le proteste se non difesa della “salute e morale pubblica”, della “sicurezza nazionale” e dell’“ordine pubblico”?

Eppure la lettura del più ampio dettato normativo aiuta a stabilire dei confini. Per esempio, l’ICCPR vieta l’incitamento all’odio su base razziale, religiosa o nazionale, e si affanna a precisare cosa si intende per “incitamento”, in questo contesto: “advocacy of hatred”, “advocacy which constitutes incitement”, e “incitement likely to result in discrimination, hostility or violence”.

La sostanza è chiara: non si può promuovere attivamente l’odio, a maggior ragione se è “probabile” si traduca in “discriminazioni, ostilità o violenza”. Ma i confini lo sono meno. E viene il sospetto che non sia nemmeno questione definitoria, ma che si debba tollerare un certo grado di ambiguità e vaghezza nel parlare di “odio” e “incitamento”, online come offline.

Un pensiero che dovrebbe invitare alla cautela chiunque affronti il tema cercando non i titoli delle prime pagine, ma qualche soluzione ai problemi che pone.

Possibile, per esempio, che la quasi totalità degli interventi in tema di moderazione dei contenuti online dimentichi di menzionare i sei fattori chiave nella determinazione della severità dell’incitamento all’odio stabiliti, già nel 2013, dal Rabat Plan of Action?

Eppure fornirebbe una guida anche piuttosto dettagliata alla domanda sul che fare dei post d’odio, specie da parte di leader politici — una questione molto dibattuta a livello globale dopo la decisione di Facebook di considerare lecite inserzioni pubblicitarie con messaggi politici contenenti notizie false, e di Twitter di condonarne l’odio con la scusa della “notiziabilità” di ciò che affermano.

Prendiamo il caso dell’odio diffuso costantemente da Donald Trump a mezzo social media. Come valutare la severità dell’offesa recata dall’inquilino della Casa Bianca, e dunque delle contromisure richieste?

Il Rabat Plan of Action ci chiede di valutare:

1.Contesto sociale e politico prevalente in quel momento.

2.Status del parlante (per esempio, la carica pubblica ricoperta).

3.Intenzionalità.

4.In che misura contenuto e forma sono provocatori in modo diretto (e contano forma, stile, e natura di quanto scritto).

5.Ampiezza del pubblico raggiunto.

6.Probabilità di causare rischi o danni imminenti.Se questo è il criterio, viene da pensare che le politiche di Facebook e Twitter abbiano ben poco a vedere con quanto richiesto dalle norme sui diritti umani.

Non tutto l’odio è controverso

Abbiamo molto parlato di vaghezza. Ciò non significa però che tutto in tema di contrasto dell’odio sia controverso o materia di discussione secondo il diritto internazionale.

Se si legge con attenzione il testo di Kaye, infatti, si comprende che la rimozione di pagine razziste non è affatto problematica. Anzi: l’International Convention on the Elimination of Racial Discrimination (ICERD), adottata l’anno precedente l’ICCPR, obbligherebbe gli Stati — all’art.4 — a dichiarare illegali e addirittura proibire le organizzazioni stesse che esprimono o propagandano razzismo. Non solo eliminare le loro pagine sui social network è lecito e non ha niente a che vedere con la censura, dunque, ma è la loro stessa esistenza politica a dover essere rimossa per imperio statale, se si vogliono davvero preservare i diritti fondamentali dei cittadini in democrazia.

Ma non basta. Altra prescrizione che può suonare controintuitiva per la retorica dominante (le piattaforme devono rimuovere tutto l’odio subito!): l’insulto, secondo le norme sui diritti umani, è invece una specie protetta. Dice infatti il CERD Committee che la normativa internazionale sui diritti umani “protegge il diritto di offendere e deridere” (“offend and mock”), e può essere proibito solo qualora “si traduca chiaramente in incitamento all’odio o alla discriminazione” — limitazione che soffre tuttavia in parte della vaghezza di cui più volte detto.

Gli Stati spesso vorrebbero tuttavia andare oltre, quando non vanno direttamente oltre, limitando anche forme espressive d’odio che non costituiscono “incitamento”. Anche su questo Kaye invita alla cautela: limitazioni alla libera espressione per “blasfemia”, per esempio, sono esplicitamente sconsigliate (“specifically disfavoured”). Allo stesso modo, non sono accettabili divieti al dicibile per “odio contro il regime” o “sovversione”. Nemmeno le leggi che criminalizzano la negazione dell’Olocausto ricevono la protezione del diritto internazionale: “Opinioni che sono “erronee” e “interpretazioni scorrette di eventi passati” non possono essere soggette a proibizioni”, si legge.

Più in generale, le norme sui diritti umani non proteggono “idee o credenze dal ridicolo, da abusi, critiche e altri “attacchi” percepiti come offensivi”.

L’incitamento al genocidio, tuttavia, è sempre punibile. E, insieme, Kaye è attento a ricordare che è punibile anche l’inazione di fronte al compiersi di un genocidio, menzionando più volte il caso di Myanmar, dove il fallimento delle politiche di Facebook di moderazione dell’odio è acclarato.

L’idea è che non va rimosso ciò che non ci piace, ma ciò che danneggia i diritti di tutti e la democrazia, o mette davvero a repentaglio l’incolumità dei cittadini. E questo vale allo stesso modo online e offline, ricorda il rapporteur, mettendo in guardia da chiunque cerchi di far passare il concetto che il mero verificarsi online dell’odio possa costituire aggravante: “Le sanzioni agli individui che producano espressioni illegali di odio non dovrebbero essere scatenate dal loro semplice essere state pronunciate online”.

C’è poi una prescrizione più generale, con cui Kaye cerca di indirizzare l’attenzione dei policy-maker lì dove dovrebbe essere in termini di diritti umani: gli Stati dovrebbero legiferare per proteggere la libertà di parola, non per limitarla.

I frame, insegna la psicologia cognitiva, contano. Ma conta anche la legge.

Per un buon governo dell’odio online

Più dell’analisi legale, comunque utile a ricordare l’abisso di illegalità, scandalismo, approssimazione e mancanza di rispetto per i diritti fondamentali in cui è impantanato il dibattito pubblico in tema di politiche tecnologiche, il rapporto di Kaye è importante perché fornisce alcune prescrizioni che, se implementate, potrebbero davvero migliorare, e da subito, la qualità della nostra comprensione del problema, e forse anche di qualche sua soluzione.

Principi semplici, ma per qualche ragione costantemente ignorati. Ne elenco qualcuno, dalle ultime pagine del testo:

  • Gli Stati non possono chiedere alle compagnie tecnologiche di rimuovere ciò che loro non potrebbero rimuovere perché in contrasto con i diritti umani.
  • Lo Stato deve precisare cosa intende per “odio illegale”, e come si soddisfano i requisiti di legge per affrontarlo.
  • Filtri preventivi ai contenuti non sono parte della soluzione, ma del problema.

Su questo va aperta una parentesi. Kaye è durissimo con la legge tedesca, detta NetzDG, che obbliga le piattaforme a rimuovere i contenuti illegali e d’odio entro 24 ore, pena multe molto salate, fino a 50 milioni di euro per contenuto. La legge, dice, non definisce nemmeno i termini chiave, “odio” e “incitamento”, eppure eroga sanzioni durissime. Secondo quale logica, sembra chiedersi?

Una logica repressiva. Il rapporto è molto franco e duro su questo, rigettando non solo l’efficacia dei filtri all’odio ma la giustificazione stessa della loro esistenza in democrazia. Implementarli, come ora si chiede anche in Francia, sarebbe una forma di “censura pre-pubblicazione”, scrive Kaye, che avverrebbe senza giusto processo, addirittura “invertendo la presunzione, saldamente stabilita, che debba essere lo Stato, e non gli individui, il soggetto responsabile di giustificare le restrizioni alla libera espressione”.

I filtri poi, in ogni caso, nemmeno funzionano. Per prima cosa, non capiscono le sfumature del linguaggio necessarie a distinguere l’hate speech da una normale conversazione. Pensate a un algoritmo che valuti la cultura hip hop senza capirla, per esempio: ciò che è normale perpetuarsi di un fenomeno sociale e artistico si riempirebbe improvvisamente di manifestazioni d’odio da eliminare.

E del resto sarebbe la norma, non l’eccezione: gli algoritmi colpiscono prima e di più le comunità storicamente marginalizzate e sotto-rappresentate, come quelle da cui gran parte del miglior hip hop proviene.

Il che ci consente di chiudere la parentesi, e tornare alle prescrizioni:

  • Deve esserci sempre una revisione umana della moderazione algoritmica dei contenuti.
  • I soggetti e le comunità più colpite devono essere le maggiormente coinvolte nel contrasto della specifica forma d’odio che le colpisce.
  • Le aziende devono adottare policy sull’odio che abbiano come base la normativa internazionale sui diritti umani, e in ogni caso devono fornire una valutazione d’impatto periodica dei loro servizi sui diritti umani.
  • Quando una policy aziendale devia dalla normativa sui diritti umani deve spiegarlo e giustificarlo
  • Gli utenti devono poter fare appello in modo “efficace”, “trasparente” e “accessibile” alle decisioni delle piattaforme in tema di moderazione dell’odio, e meritano una risposta “ragionata” e “pubblicamente accessibile”; inoltre, devono essere protetti da abusi del sistema di segnalazione della piattaforma stessa.
  • Le aziende dovrebbero formare i loro team di moderazione dei contenuti, il loro stesso General Counsel e “in particolare i moderatori di contenuti sul campo” a riconoscere le norme sui diritti umani che il loro lavoro intende proteggere (viste le attuali condizioni di svariati moderatori sul campo, sa di utopia).

Diverse prescrizioni si applicano indistintamente a governi e colossi tecnologici:

  • Definite più chiaramente i termini del problema.
  • Scrivete le vostre regole sulla base delle norme sui diritti umani.
  • La restrizione della libera espressione è l’extrema ratio.
  • Fornite risposte graduate, e proporzionali al danno commesso e alla storia di chi l’ha commesso.
  • Date reale trasparenza per valutare il vostro operato e il reale funzionamento delle regole di contrasto all’odio stabilite.
  • Date sempre un vero e giusto processo a chiunque senta la propria capacità espressiva ingiustamente ridotta.

Ma è francamente sconcertante testimoniare, in tutto il testo di Kaye, quanto sia Stati che aziende ignorino bellamente gli obblighi e i suggerimenti provenienti dal diritto internazionale, senza che ciò comporti per loro alcunché, né in termini sanzionatori né di immagine pubblica.

Questa mancanza di efficacia e presa pubblica del framework dei diritti umani è un aspetto su cui non si può sorvolare, e su cui la stessa comunità dei diritti umani non sorvola. Chiedersi insomma se sia il caso di prevedere meccanismi sanzionatori più efficaci e “pesanti” a difesa dei diritti umani e della libertà di espressione, e non per limitarla, potrebbe essere l’unico reale modo per vedere finalmente implementati, almeno in parte, i principi esposti nelle pagine del rapporto.

C’è poi un ultimo appunto, cruciale per comprendere quanto è distante il clima in cui stiamo discutendo di questi temi, nei media tradizionali e nell’opinione pubblica, e il dettato delle norme sui diritti umani. Ed è il seguente: sono i giornalisti, non i leader politici, la categoria protetta in termini di libertà di espressione.

“Gli standard internazionali dicono chiaramente che i giornalisti e chiunque altro faccia attività di reporting sull’hate speech dovrebbero essere protetti da restrizioni nei contenuti o da interventi sui loro account”.

Per il diritto internazionale, i politici devono invece stare alle regole di tutti. Il passaggio merita di essere riportato per intero:

“Date la rilevanza e la potenziale posizione di leadership nell’incitare a un determinato comportamento, (politici, funzionari governativi e militari) dovrebbero essere vincolati dalle stesse regole sull’odio previste dagli standard internazionali. Nel contesto delle politiche sull’hate speech, la norma è che i personaggi pubblici dovrebbero sottostare alle stesse regole dei comuni utenti. Valutazioni contestuali potranno portare a stabilire qualche eccezione in alcune circostanze, in cui proteggere contenuti come un discorso politico. Ma l’incitamento è quasi certamente più dannoso quando pronunciato da leader piuttosto che da utenti, e ciò dovrebbe essere tenuto in considerazione nella valutazione”.

Specie in un periodo storico in cui la professione è bersaglio di odio sistematico e strategico anche da parte di leader politici di (diversi) paesi democratici, sarebbe importante — urgente — che Stati e aziende riconoscessero con maggiore chiarezza chi ha più bisogno di protezione, se il potere o chi ne sottolinea i limiti e le contraddizioni.

Fabio Chiusi

28 ottobre 2019

Fonte: https://www.valigiablu.it/odio-rete-diritti/