Le fake news sui social media sono un problema mondiale

Facebook e Twitter devono essere riprogettati per combattere le notizie spazzatura

[29 ottobre 2018]

Anche l’esito delle elezioni in Brasile dimostra che cresce l’utilizzo dei social media per diffondere disinformazione, un rischio per la democrazia che fa pensare che sia tempo che colossi come Facebook e Twitter riprogettino le loro piattaforme, Ne è convinto Philip Howard, a capo dell’Oxford Internet Institute (Oii)  che denuncia: «La manipolazione dell’opinione pubblica sulle piattaforme dei social media è emersa come una minaccia critica per la vita pubblica. In tutto il mondo, agenzie governative e Partiti politici stanno sfruttando le piattaforme di social media per diffondere notizie spazzatura e disinformazione, esercitare la censura e il controllo e minare la fiducia nei media, nelle istituzioni pubbliche e nella scienza».

A luglio il rapporto “Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation” dell’Oii ha rilevato che nonostante gli sforzi per combattere la propaganda tossica online, il problema sta ampliandosi a livello planetario: «Il numero di Paesi in cui si verifica la manipolazione dei social media formalmente organizzata è notevolmente aumentato: da 28 a 48 paesi in tutto il mondo – ha detto Samantha Bradshaw, una co-autrice del rapporto – La maggior parte della crescita viene da Partiti politici che diffondono disinformazione e notizie spazzatura nei periodi elettorali. Ci sono sempre più Partiti politici che imparano dalle strategie messe in atto durante la Brexit e le elezioni presidenziali degli Stati Uniti del 2016: più campagne elettorali stanno usando bot, notizie spazzatura e disinformazione per polarizzare e manipolare gli elettori».

Tutto questo nonostante gli sforzi dei governi in molte democrazie per introduree nuove leggi per combattere la fake news su Internet.  Howard spiega che «Il problema è che queste” task force “per combattere le fake news  possano essere utilizzate come un nuovo strumento per legittimare la censura nei regimi autoritari Nella migliore delle ipotesi, questi tipi di task force stanno creando contro-narrative e strumenti per costruire la consapevolezza dei cittadini e il controllo dei fatti».

Un’altra sfida è quella dell’evoluzione dei mezzi che le persone utilizzano per condividere notizie e informazioni. Secondo la Bradshaw  «Ci sono prove che le campagne di disinformazione si stanno spostando su applicazioni di chat e piattaforme alternative. Questo sta diventando sempre più comune nel Sud del mondo, dove i grandi gruppi pubblici sulle chat applications sono più popolari».

Gli account bot automatizzati continuano a essere una tattica molto utilizzata. I commentatori online e i fake account vengono utilizzati per diffondere messaggi pro-Partiti, oltre ad essere utilizzati per condividere strategicamente contenuti o pubblicare tramite keywords i game algorithms e ottenere così determinate  tendenze per i contenuti. Vengono anche utilizzati per segnalare contenuti e account su vasta scala, causandone la rimozione temporanea. Howard aggiunge; «Sospettiamo che la new innovation continui a emergere mentre le piattaforme e i governi adottano misure legali e normative per frenare questo tipo di attività».

Nel complesso, le campagne organizzate di manipolazione dei social media sono un grande business: «Stimiamo che per questo tipo di attività  vengano spesi decine di milioni di dollari  – afferma Howard –  Alcuni di questi soldi possono essere spesi per la pubblicità legittima sui social media, ma c’è sicuramente un settore in crescita per gli account falsi, commentatori e i bot politici online».

Mentre ad essere accusati di interferenza nelle elezioni sono soprattutto Russia, Cina, Iran e Turchia, Howard  spiega in un’intervista a Horizon che «Non si tratta solo di regimi autoritari. Alcuni degli attori peggiori sono in realtà i Partiti politici regolari delle democrazie. Spendono più denaro e sono i più innovativi nel manipolare l’opinione pubblica. I regimi autoritari di solito copiano solo gli strumenti e le tecniche che emergono nelle democrazie. Tuttavia, penso che i russi siano i più avanzati. Sono molto bravi a proporre campagne di propaganda che dividono e polarizzano nelle culture dove c’è già molta polarizzazione politica. Quindi, nel contesto del Regno Unito, sono stati attivi sull’indipendenza scozzese e negli Stati Uniti sono stati attivi su problemi razziali. Le democrazie sono particolarmente vulnerabili perché non vogliamo mettere a tacere le persone e vogliamo rispettare le opinioni».

Ma come si fa a sapere se algoritmi e robot politici influenzano davvero il voto delle persone? Un esempio potrebbe essere il fatto che le Fake News hanno convinto molti elettori britannici che la Brexit avrebbe fatto risparmiare loro 350 sterline (399 euro) alla settimana, un altro è che molti elettori statunitensi nel 2016 erano davvero convinti che Hillary Clinton fosse coinvolta in un giro di  pedofilia nelle pizzerie di Washington DC.

Ma perché siamo così creduloni? «Molti di noi pensano a loro stessi come a consumatori di notizie sofisticate – spiega ancora Howard  – Ma molte persone hanno scorciatoie cognitive quando prendono decisioni politiche. Alcune di queste scorciatoie sono solo modi per proteggersi dal nostro tempo. L’esposizione selettiva è uno. Scegliamo di guardare a fonti di informazioni che sono compatibili con ciò in cui crediamo. Tendiamo ad attenerci ai politici ai quali abbiamo creduto in passato. Queste sono solo le caratteristiche di come pensiamo: possiamo gestirle un po’, ma soprattutto non sono cose su cui possiamo fare molto. In un mondo ideale, tutti vedremmo alcune notizie dal punto di vista diverso dallo spettro politico  in cui ci ritroviamo. E avremmo tutti alcuni amici che non sono d’accordo con noi, con i quali discuteremmo una o due volte al mese. Ma non ci proponiamo molto spesso per questi tipi di discorsi politici».

Secondo  Howard  i bot che diffondono fake news a raffica «Funzionano meglio quando rafforzano ciò che ha detto qualcun altro. E tendono a funzionare solo quando un essere umano prende il contenuto del bot e lo condivide come se fosse il proprio. Quindi di solito le cose che questi robot generano sono sciocchezze o cose ridicole. Ma se riesci a convincere un esponente politico tradizionale a credere ad alcuni componenti e a retwittarlo, allora all’improvviso la trama sarà traente». E’ quel che succede spesso a Salvini che riposta fake news o che è successo recentemente a Di Maio con il Tap.

Il problema è che le tecnologie di diffusione delle fake news sono difficili da combattere e che ogni volta che si trova un sistema per smascherare la messaggistica politica automatizzata si innesca una contromossa e questo sta portando ad una specie di corsa agli armamenti «perché alcuni attori politici utilizzano lo stesso toolkit per generare messaggi automatizzati più sofisticati».

La manipolazione xenofoba ormai si affida anche alla manipolazione delle immagini, come le orde di donne musulmane che invadono le spiagge della Grecia. Si tratta di manipolazioni che da rozze sono diventate molto curate e Howard avverte che «La qualità della falsificazione sta migliorando sempre di più, così sta diventando difficile per noi, identificare  automaticamente quali immagini sono false. Pensiamo anche che la computational propaganda stia assumendo sempre più la forma di annunci sponsorizzati e SEO (ottimizzazione dei motori di ricerca)»

Ma ci sono soluzioni? Per Howard  è passato il tempo dell’autoregolamentazione: «Quel che farà la differenza sarà quando le piattaforme mostreranno una leadership civica e un design per una conversazione democratica. La domanda è: che tipo di suggerimenti gentili possono dare i responsabili delle politiche pubbliche per aiutare gli ingegneri a prendere buone decisioni di progettazione. E lì penso che la risposta vari da piattaforma a piattaforma. Per Twitter penso che gli account automatizzati dovrebbero essere etichettati come tali – un piccolo bot accanto ai nomi di questi account. Per Facebook cerco di capire come trasferire sui giornali alcuni dei profitti che ricava dalla pubblicità e l’utilizzo delle notizie sarà molto importante per l’industria delle news. Non ho ancora capito cosa raccomanderei per WhatsApp».

Ma ci può essere un futuro in cui tutte le informazioni che riceviamo sui social media siano affidabili o facilmente verificabili? «Direi di sì – conclude Howard  – perché, sebbene condivida il cinismo di molti protagonisti, non condivido il loro fatalismo. Penso che ci siano altre organizzazioni nella vita pubblica che potrebbero avere un ruolo significativo nel ripristinare la fiducia dell’opinione pubblica, come le librerie, le università e i gruppi della società civile»