Condividi:

Facebook finisce in tribunale per la diffusione di notizie false e odio online. A denunciare il social network di Mark Zuckerberg alla magistratura francese è Reporter senza frontiere, l’organizzazione che monitora la libertà d’informazione e la sicurezza dei giornalisti, basata a Parigi. La denuncia, rivolta alle filiali di Francia e Irlanda (quest’ultima è la sede europea di Facebook), si basa sull’accusa di “pratiche commerciali scorrette”: il fatto che sulla piattaforma continuino a proliferare contenuti falsi, offensivi, dannosi è una violazione dei termini di servizio del social. Laddove Facebook si impegna con i suoi utenti a garantire uno “spazio sicuro” e a “limitare in modo significativo la diffusione di informazioni false”, esistono prove evidenti che questi impegni sono stati disattesi. E non solo nell’anno cruciale delle elezioni americane, non solo nell’anno drammatico dell’avvio della pandemia: accade ancora oggi, nonostante le segnalazioni, le campagne, i comitati, i rapporti, persino dopo i mea culpa interni e i tentativi di repulisti intrapresi sulla piattaforma. 

Ovviamente Facebook, e la sua controllata Instagram, non sono da soli sotto la lente d’osservazione. Giovedì Mark Zuckerberg comparirà nuovamente davanti al Congresso Usa insieme al CEO di Twitter Jack Dorsey e a quello di Alphabet Sundar Pichai  per testimoniare proprio sulla presenza di contenuti estremisti e di disinformazione sulle loro piattaforme.

Ma la causa giudiziaria intentata in Francia è un precedente interessante – e infatti RSF spera che possa costituire un termine di paragone per futuri procedimenti almeno in Europa, visto che i termini di servizio sono uguali ovunque. 

In particolare, accusa Reporter senza Frontiere, Facebook “costituisce il principale focolaio di teorie della cospirazione sui vaccini per le comunità francofone”.

Il fascicolo contiene inoltre uno studio del think tank americano German Marshall Fund, che nell’ultimo trimestre del 2020 ha contato un miliardo e 200 milioni di interazioni con pagine che diffondono bufale. Come esempio dell’incapacità di Facebook di combattere l’odio online, Rsf ha citato, tra gli altri, le decine di commenti insultanti o minacciosi apparsi sulla pagina della rivista satirica Charlie Hebdo. Nonostante la redazione della pubblicazione fosse stata bersaglio di una strage terroristica, sottolinea Rsf, la piattaforma non ha fatto nulla per eliminare i commenti che incitavano alla violenza contro gli autori di Charlie Hebdo. Un altro esempio citato da RSF è la diffusione di “Hold Up – Ritorno al caos”, documentario francese zeppo di teorie complottiste. 

Sono violazioni del patto con gli utenti che, secondo l’ong, potrebbero costare a Facebook multe salate, “fino al 10% del fatturato medio annuo”. E costituire un precedente per altri ricorsi del genere. Negli ultimi mesi Facebook è stato oggetto di diverse denunce in Francia. A inizio marzo, quattordici militanti femministe hanno fatto ricorso contro la decisione di Instagram di bandire alcuni loro contenuti lasciando però in linea commenti d’odio contro di loro.

Le violazioni del “patto con gli utenti” sono documentate e documentabili praticamente in tempo reale. Lo ha fatto proprio in questi giorni Avaaz, un network americano nonprofit di attivismo digitale per la difesa della democrazia, con una ricerca che identifica ben 267 pagine e gruppi su Facebook che nell’anno elettorale americano hanno raggiunto 32 milioni di utenti con materiale di disinformazione e incitamento alla violenza. Oltre due terzi di questi gruppi e pagine sono riconducibili direttamente a organizzazioni estremiste che negli ultimi mesi sono diventati nomi familiari nelle cronache dei tentativi di destabilizzazione della democrazia americana, fino all’assalto a Capitol Hill del 6 gennaio scorso. Si tratta di Boogaloo, un movimento attivo online e riversato poi in prove di forza nelle strade americane con la promessa di una seconda guerra civile e del rovesciamento delle istituzioni. O ancora pagine e gruppi legati al complottismo di QAnon, basato sulla convinzione che Donald Trump stia conducendo una battaglia segreta contro le forze del male del “deep State” e di una rete di pedofili satanisti infiltrati a Hollywood, nei media, nell’impresa e soprattutto nelle grandi aziende tecnologiche della Silicon Valley. Dal 2020 Facebook ha bandito tutte queste organizzazioni dalla piattaforma. Eppure, dice Avaaz, ben 118 di queste 267 pagine e gruppi sono ancora attivi, con un’audience di 27 milioni di persone. Di queste, oltre la metà sono affiliate a Boogaloo, QAnon e altre milizie. E sono almeno tre i contenuti di incitamento diretto alla violenza diffusi in queste ultime settimane, che il gruppo ha segnalato con urgenza a Facebook. 

Oltre alla denuncia, il rapporto serve a capire quanto sia difficile per le piattaforme stesse arginare il fenomeno a cui hanno aperto le porte (incentivandolo, visto che è stato dimostrato che i contenuti controversi sono quelli che generano più traffico e interazioni e dunque più interesse pubblicitario). Anzi, il fenomeno è in crescita. Avaaz ha calcolato che i 100 post falsi o di disinformazione che hanno avuto più interazioni nel 2020 hanno ricevuto 162 milioni di visualizzazioni. E anche se alcuni di questi post sono stati poi etichettati come falsi, questi milioni di utenti del social non sono mai stati avvertiti del fatto che quel che gli era passato sotto gli occhi era una bugia: il sistema di verifica ed “etichettatura” non prevede un’allerta retroattiva.

Un problema analogo sta investendo drammaticamente anche Instagram, che è di proprietà di Facebook, soprattutto nel campo della disinformazione sanitaria. Un anno fa il social delle foto si era impegnato a rimuovere “affermazioni false o teorie del complotto segnalate dalle organizzazioni sanitarie internazionali e dalle autorità locali come potenzialmente dannose per le persone che le vedono”. Ricerche recenti, come quella del Center for Countering Digital Hate, hanno però dimostrato che questi contenuti continuano a prosperare e sono sempre più difficili da individuare e bloccare perché ora viaggiano sugli account di “micro influencer”, sedicenti medici, guaritori, imbonitori, esperti di benessere, di medicina alternativa e pratiche orientali, che fanno molta presa su grandi community.

Facebook sembra consapevole che il problema è in crescita e ormai in fase emergenziale. E sa anche che sta succedendo proprio a causa di precise scelte di design e di politica di mercato dell’azienda. Una su tutte, puntare sui gruppi – in particolare i “gruppi civici” – in cui i contenuti viaggiano sotto il radar della moderazione delle bacheche pubbliche. Una ricerca interna, citata dal Wall Street Journal, indica che negli Usa i gruppi hanno incoraggiato la polarizzazione degli utenti e sono stati usati per organizzare e incitare le violenze seguite alle elezioni. Circa il 70% dei 100 gruppi civici più attivi su Facebook avevano problemi di discorso d’odio, disinformazione, bullismo e aggressioni online.

173325477 643f9fd5 e5df 4e0b b4ca 47b5fc90a72d - "Bugie e odio, Facebook viola il patto con gli utenti": Reporter senza frontiere porta Zuckerberg in tribunale

Dopo aver tentato di limitare la pubblicità di questi gruppi negli Usa, ora Facebook ha deciso di intervenire anche sul resto del mondo: quando si naviga su Facebook non si vedranno più le “raccomandazioni” per gruppi politici o di contenuto sanitario. Il che naturalmente non equivale a eliminarli, perché gli utenti possono sempre accedervi tramite inviti, raccomandazioni di amici, ricerche per parole chiave. Un’altra misura, per i gruppi che abbiano già violato gli standard di Facebook, è un banner di avvertimento quando si tenta di accedere al gruppo stesso. Per evitare che gruppi già banditi si riformino con altri nomi, quando un certo numero di utenti provenienti da gruppi banditi si ritrovano in un nuovo gruppo, i suoi contenuti vengono messi sotto osservazione e l’intero gruppo viene cancellato se si pubblicano ripetutamente contenuti in violazione con gli standard di Facebook. Inoltre i singoli utenti già segnalati per violazioni ripetute nei gruppi vengono sospesi dal poter pubblicare e anche invitare nei gruppi altri utenti. Tutte misure tese a usare le armi dell’algoritmo per limitare la visibilità degli “attori tossici” senza smontare del tutto il palco. Che questo sia sufficiente ad arginare la marea, è davvero una scommessa molto azzardata.

Fonte: Repubblica

Condividi:

Di

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Su questo sito Web utilizziamo strumenti di prima o di terzi che memorizzano piccoli file (cookie) sul dispositivo. I cookie vengono normalmente utilizzati per consentire al sito di funzionare correttamente (cookie tecnici), per generare report di navigazione (cookie statistici) e per pubblicizzare adeguatamente i nostri servizi /prodotti (cookie di profilazione). Possiamo utilizzare direttamente i cookie tecnici, ma hai il diritto di scegliere se abilitare o meno i cookie statistici e di profilazione. Abilitando questi cookie, ci aiuti a offrirti un’esperienza migliore. Cookie policy