Condividi:

La propaganda no vax non è solo dannosa, è anche profittevole. E ospitarla sulle piattaforme dei maggiori social ha avuto, per molti anni, tangibili vantaggi sia per chi la diffondeva sia per chi ne permetteva, spesso facilitandola, la distribuzione a più utenti possibili.

Dall’inizio della pandemia del Covid19 l’importanza della fondatezza delle informazioni scientifiche è diventata centrale per la tenuta di interi paesi e per questo i grandi social network – da Youtube, a Facebook/Instagram, a Twitter e Tik Tok – sono corsi ai ripari cancellando post contenenti palese disinformazione, etichettandoli come infondati, e promuovendo con link e grandi banner le fonti ufficiali sanitarie. Ma in molti casi era ormai troppo tardi. 

Gli sforzi di “pulizia” dei social, cominciati all’inizio della pandemia, si sono moltiplicati quando la disinformazione sanitaria, inizialmente dedita a negare la gravità della pandemia, a diffondere false notizie sulle cure o a disegnare scenari apocalittici di complotti di fantomatiche lobby mondiali per arrivare allo “sterminio di massa”, si è concentrata sui vaccini. In molti casi si tratta di campagne di disinformazione bene organizzate su linee quasi manualistiche in diverse lingue: stessi esperti, stesse parole d’ordine, stesse fonti, stesse “card” con liste di notizie false graficamente “vestite” da informazione sanitaria.

Però molto di questo materiale è ancora ben visibile sui maggiori social network. Secondo una ricerca compiuta dalla Associated Press, decine di pagine dedicate alla propaganda di false informazioni sanitarie sono ancora presenti su Facebook e Instagram. Alcune sono lì da anni. Nell’ultimo anno Twitter ha rimosso 8400 post perché ritenuti diffusori di disinformazione sul Covid19 e ha di recente introdotto un sistema “a punti” che porta dopo un certo numero di infrazioni all’eliminazione dell’account.

Online però continua ad essere postato materiale a ritmo quotidiano. Facebook dice di aver “etichettato” come possibile disinformazione oltre 167 milioni di post dall’inizio della pandemia. E Youtube ha rimosso 30.000 video solo da ottobre scorso. Dall’inizio della pandemia sono oltre 800.000 i video rimossi perché diffusori di false notizie sul coronavirus. Ma la battaglia per arginare il virus della disinformazione sanitaria è complessa e forse tardiva.

Almeno la metà delle decine di siti identificati da Newsguard (un servizio di “bollinatura” di credibilità, basato su criteri specifici e condivisi da diversi media e accademici in Usa ed Europa) sono attivi su Facebook, Twitter e Youtube. In Italia, solo per fare un paio di esempi, il videoblog e canale tv Byoblu è stato di recente sospeso per due settimane da Youtube per aver diffuso un servizio di attacco ai vaccini anti Covid ritenuto privo di fondamento scientifico. Ma in rete circola moltissimo materiale di questa e altre pubblicazioni digitali che diffondono teorie pseudoscientifiche negazioniste e no vax.

Negli Stati Uniti, racconta AP, il sito The Truth About Cancer nutre da anni il suo oltre milione di follower su Facebook di notizie false su come i vaccini provochino autismo e danni cerebrali nei bambini. NewsGuard la identificata nel novembre scorso come “super diffusore di misinformazione sui vaccini contro il Covid19”. Di recente la pagina Facebook ha smesso di pubblicare post sui vaccini e ha dirottato i suoi follower tramite newsletter sul sito per evitare la “censura” dei social. L’uso dei social solo come base di lancio per creare una community attiva poi via sito, newsletter, gruppi whatsapp – e a volte disposta a pagare per prodotti come libri o pozioni pseudo curative – è stato studiato come fenomeno in crescita da gruppi di ricerca come il britannico Center for Countering Digital Hate, che in uno dei suoi più recenti rapporti ha puntato l’attenzione su un social come Instagram (gruppo Facebook) finora ritenuto veicolo di messaggi prevalentemente positivi.

L’algoritmo di Instagram, secondo i ricercatori, è disegnato per veicolare messaggi di disinformazione di diversa natura agli utenti che si sono dimostrati ricettivi a uno degli argomenti sensibili: per cui una persona che guarda post di cospirazionisti di QAnon vedrà comparire tra i post consigliati materiali no vax o di suprematisti bianchi. I ricercatori hanno creato profili appositi per registrare la frequenza di queste “raccomandazioni” e hanno verificato almeno un post a settimana contenente disinformazione, per la metà riguardante il Covid ma anche i vaccini, l’antisemitismo e le elezioni americane. Molto esposti si sono rilevati gli utenti interessati alle pratiche di meditazione orientale, le community di yoga e benessere, spesso bombardate da messaggi no vax.

Secondo il Centro contro l’odio digitale, la produzione di questi post non è casuale e individuale: “Esiste un’industria no vax organizzata e disciplinata”, dicono. “I no vax vedono nel Covid un’opportunità per creare un’esitazione sui vaccini di lungo termine. Oggi gli account no vax solo in lingua inglese possono contare su oltre 59 milioni di follower. Alcuni sono spinti da motivazioni economiche, altri ci credono veramente. In entrambi i casi il loro obiettivo è minare la fiducia nell’establishment scientifico”. Lo schema per raggiungere l’obiettivo è ripetuto, e spesso si avvale sullo schermo di pseudo figure professionali: esperti, medici, testimonial (come il Robert Kennedy jr di recente bandito da Instagram ma tuttora attivo su Facebook). “I professionisti della salute devono persuadere il pubblico a compiere un’azione. I no vax devono solo creare dubbi sulla sua efficacia, sicurezza o necessità. Per questo operano solo attraverso domande”. 

Per molti anni questa operazione di corrosione della credibilità della scienza è stata condotta nel silenzio delle piattaforme, o – accusa il Centro contro l’odio digitale – con la loro complicità: “Hanno scelto di non alienarsi gli utenti no vax che gli valevano introiti valutabili in un miliardi di dollari l’anno”. Il traffico generato da queste accese discussioni, le condivisioni, i commenti sono quantificabili in denaro, e tuttora Facebook continua ad accettare pubblicità pagate di propaganda no vax e Youtube a pubblicare pubblicità nei loro video.

Fonte: Repubblica

Condividi:

Di

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Su questo sito Web utilizziamo strumenti di prima o di terzi che memorizzano piccoli file (cookie) sul dispositivo. I cookie vengono normalmente utilizzati per consentire al sito di funzionare correttamente (cookie tecnici), per generare report di navigazione (cookie statistici) e per pubblicizzare adeguatamente i nostri servizi /prodotti (cookie di profilazione). Possiamo utilizzare direttamente i cookie tecnici, ma hai il diritto di scegliere se abilitare o meno i cookie statistici e di profilazione. Abilitando questi cookie, ci aiuti a offrirti un’esperienza migliore. Cookie policy