LE REGOLE DELLA DISINFORMAZIONE

Salone del libro - Arena Piemonte - Torino, 9 Maggio 2019

Era il lontano 1215 quando l’Inghilterra adottò la Magna Carta per impedire ai monarchi di abusare del loro potere. Un documento che sancì la storica concessione di re Giovanni “Senza Terra”, sovrano d’Inghilterra, di alcune libertà e diritti giuridici ai baroni inglesi che lo pressavano per l’eccessiva tassazione e per i soprusi operati dal regno su tutti i corpi intermedi, Chiesa compresa.

Oggi, passati più di 800 anni da quell’evento, che ha segnato la storia moderna, ci troviamo nuovamente a dover dibattere circa metodi e soluzioni per arginare un nuovo potere, anch’esso ancora incontrastato, quello disinformativo.

I nuovi monarchi sono incarnati da moderne reti sociali che, polarizzando le ideologie, dei propri “sudditi”, rendono un pessimo servizio per la costruzione del dibattito pubblico.

Basta fare un semplice esperimento su un motore di ricerca per appurare come l’oggettività delle notizie sia scalzata dai pregiudizi degli algoritmi che ci forniscono l’informazione. Recentemente, la giornalista Silvia Lazzaris ha evidenziato che digitando termini come “nigeriani”, “tunisini” o “rumeni”, i risultati restituiscano per lo più notizie relative a crimini e arresti. Anche per noi italiani la situazione non appare migliore: oltre ai soliti stereotipi legati a pasta, pizza e mandolino, l’associazione che la ricerca ci restituisce è il legame con la malavita.

Un sistema che non solo aumenta i pregiudizi, ma anche i proseliti. Pensiamo alla inchiesta condotta da The Guardian che ha dimostrato come grazie a YouTube sia in crescita il numero di persone che giorno dopo giorno si convincono che la terra in realtà abbia la forma di un disco. Certo credere che la Terra sia piatta in sé non è necessariamente un elemento dannoso, ma è indice di come sia facile manipolare le menti e insinuare una crescente sfiducia verso istituzioni e autorità.

Anche il recente incendio di Notre Dame è stato oggetto di bufale e complotti: dalle statue che sarebbero state trasferite pochi minuti prima dell’incendio; al mancato utilizzo di Canadair per spegnere l’incendio. E invece: le statue erano state spostate già l’11 aprile come si evince chiaramente in un post della Diocesi di Parigi; i Canadair, considerando il quantitativo d’acqua contenuto al loro interno, più che facilitare la situazione, avrebbero potuto compromettere la già fragile stabilità del monumento, vessato dalle fiamme.

BIG DATA E FAKE NEWS: UN’UNIONE SUGGELLATA DALL’ALGORITMO

A distanza di alcuni anni da quando il World Economic Forum aveva messo in guardia dalla diffusione di disinformazione attraverso i social media, tacciata come uno dei più grandi rischi globali verso il nostro futuro e la nostra prosperità, ci troviamo oggi a constatare come questa previsione si sia quanto mai verificata. Ciò forse anche in ragione dei risultati, non proprio soddisfacenti, ottenuti, nonostante il profuso impegno istituzionale.

Non dimentichiamo che l’Unione combatte concretamente la disinformazione dal 2015, da quando il servizio europeo per l’azione esterna (SEAE) ha istituito la task force East StratCom con l’intento di rafforzare, sostenere la libertà dei mezzi di informazione e consolidare i media indipendenti. Nel 2016, poi, è stato adottato il quadro comune per contrastare le minacce ibride, seguito nel 2018 dalla comunicazione congiunta sul rafforzamento della resilienza e sul potenziamento delle capacità di affrontare questo tipo di criticità. Ne sentiamo parlare poco, ma queste minacce sono vissute costantemente: si tratta in realtà di una definizione che indica una serie di attività che spesso combinano metodi convenzionali e non, con l’obiettivo, non solo di provocare danni diretti e sfruttare le vulnerabilità, ma anche di destabilizzare le società e creare ambiguità per ostacolare il processo decisionale.

Nell’aprile 2018, la Commissione ha delineato un approccio europeo e meccanismi di autoregolamentazione intesi a contrastare la disinformazione online, tra cui il sostegno di una rete indipendente di verificatori di fatti e strumenti per incentivare il giornalismo di qualità e un codice di buone pratiche dell’UE sul tema della disinformazione, firmato a ottobre da colossi del calibro di Facebook, Google, Twitter, Mozilla, ma anche da associazioni di categoria tra cui quella che rappresenta le piattaforme online e quelle che rappresentano l’industria della pubblicità e gli inserzionisti. Un ottimo risultato sicuramente, ma ciononostante i numeri dell’information disorder non conoscono battute d’arresto. Nel primo bimestre del 2019, secondo i dati raccolti da Agcom nell’Osservatorio sulla disinformazione, si registra un incremento addirittura del 10% rispetto al mese di dicembre 2018. Le notizie non verificate prodotte giornalmente nel primo bimestre 2019 rappresentano il 7% dei contenuti online e si stima che i siti che ospitano tali contenuti pubblichino, in media, 5 nuovi articoli al giorno.

Una circostanza che è confermata anche al livello europeo dagli individui. Secondo l’ultimo sondaggio Eurobarometro (per il quale sono stati intervistati circa 26 mila individui), i cittadini del Vecchio Continente percepiscono in modo netto la presenza di fake news nell’Unione e l’83% degli intervistati ritiene che questo fenomeno rappresenti un pericolo per la democrazia. A pochi mesi dalle elezioni del Parlamento UE, il 61% teme attacchi informatici, il 59% la manipolazione straniera, il 67% si preoccupa della privacy e dei dati che online potrebbero essere utilizzati per orientare i messaggi. In generale si ritiene che la diffusione della disinformazione sui social media sia agevolata dal fatto che le notizie false si appellano alle emozioni dei lettori (88%), sono diffuse allo scopo di pilotare il dibattito pubblico (84%) e sono mirate a generare un profitto (65%).

Del resto, è ormai nota la capacità di gestire dati e informazioni, che consentono profilazioni mirate e individuali.

In questo scenario, la prospettiva di analisi sembra quindi oscillare tra due fuochi: big data e fake news.

Temi distanti e allo stesso tempo legati. Lontani in quanto individuano un punto di fuga, diverso a seconda che si privilegi la libertà dei mercati o la democrazia[.

Collegati perché è la disponibilità di Big Data sugli utenti, unita all’applicazione di sistemi di intelligenza artificiale, che permette di progettare i messaggi in maniera efficace, in ragione dell’audience e del target da raggiungere.

Punto di incontro essenziale tra questi fuochi è l’algoritmo. È questo, infatti, in grado di definire il ranking dei risultati di ricerca sui social o nelle piattaforme online, che favorisce sistemi di personalizzazione automatica dei contenuti visualizzati e consente di migliorare la capacità di profilare gli utenti. Ma che l’algoritmo possa essere aggirato in maniera intenzionale, in modo da dominare i risultati di ricerca, è circostanza ormai nota. Le campagne pubblicitarie su più social media hanno dimostrato come, attraverso specifici software (i cd. software SMMS, social media management service), si possano anche perseguire efficaci strategie di disinformazione online.

L’algoritmo, non solo filtra le notizie disponibili per presentarle agli utenti secondo un ordine, spesso personalizzato, ma è in grado di determinare le modalità di fruizione dell’informazione, orientando significativamente il successo o meno in termini di audience di una notizia. Lo stesso accade quando a essere veicolati sono contenuti fake, sempre più mirati in funzione di specifici obiettivi, per lo più politici o commerciali. La conseguenza è che il web a decidere cosa dobbiamo leggere, ponendo in evidenza alcune informazioni a scapito di altre, non sempre veritiere.

IL CYBERESERCITO AL SERVIZIO DELLA BUBBLE DEMOCRACY

Viviamo in un sistema in cui le “macchine” diventano abili promotrici della disinformazione, rendendo più facile caderne vittima. Non più e non solo interventi umani come quelli noti della russa Internet Research Agency o del cyberesercito cinese “50 Cent Army”, capace – secondo uno studio dell’Università di Harvard – di produrre 448 milioni di falsi commenti in un anno grazie a due milioni di “soldatini dei social” pagati 0,08 centesimi di dollaro a intervento.

Il rischio allora è che chi possiede ingenti risorse economiche possa utilizzare le infinite, e assai meno trasparenti, possibilità di manipolazione dell’opinione pubblica offerte dalla Rete e dalle tecnologie digitali.[

Non è un caso se il 91,5% degli utenti di Google si ferma alla prima pagina e solo il 4,8% va alla seconda, per arrivare poi a percentuali molto basse per coloro che consultano anche quelle successive[. Il pericolo è che da una struttura potenzialmente pluralistica si giunga a un microcosmo stretto e limitato, in cui gli orizzonti possano uscirne appiattiti. Un fenomeno che applicato alla partecipazione politica si declina nella cd. bubble democracy, ossiaquel fenomeno in grado di costruire intorno all’utente una bolla, un mondo personalizzato che ne predispone le scelte, pur non determinandole ovviamente.

Profilare un individuo è semplice, analizzando il comportamento in ambito digitale. Molti profili social sono “aperti”, cioè visibili in toto dall’esterno. In questi casi, il gioco è fatto! Basta cercare i gruppi cui il singolo partecipa, unirsi a loro e azionare i social bot con messaggi fanatici. Nei casi più estremi, scendono in campo sofisticati sistemi di hackeraggio in grado di sottrarre indebitamente informazioni personali di politici sgraditi. Un’attività che talvolta si rivela neanche troppo complessa come ha dimostrato il caso di uno studente tedesco riuscito a carpire e poi diffondere su Twitter i dati di un migliaio di politici, tra i quali persino la Cancelliera Angela Merkel.[

Se poi si considera che bastano 400 euro per cercare di trovare falle in un’infrastruttura Internet, secondo quanto riportato dal direttore del settore cybersicurezza all’Estonian Information System Authority,[ è chiaro come sia molto semplice creare attacchi informatici.

Gli effetti di questo sistema non possono quindi escludere l’emergere di una sorta di campagna elettorale permanente, né di tecniche manipolative e propagandistiche. Studi mostrano che bastano poche decine di like per identificare, con una probabilità dell’85%, l’orientamento politico di un soggetto[.

Il pericolo allora è che anche l’offerta politica possa corrispondere esattamente alla domanda, o ancor più subdolamente essere calibrata in base alle aspettative dei votanti. D’altra parte, le “dark ads”, quelle pubblicità oscure, visibili solo ai soggetti bersaglio, o le campagne condotte dalle cyber troops hanno cercato di influenzare i consensi sui social media.

Vari sono i tipi di manipolazione finalizzati ad alterare la percezione dell’elettorato: dall’incremento fittizio dei sostenitori (fake), all’associazione di termini denigratori a un candidato per caratterizzare negativamente l’indicizzazione nelle ricerche, fino allo spamming con invio di falsi messaggi Twitter. Come vari sono gli strumenti di cui questa tecnica si serve: dai cd. sockpuppet (letteralmente marionette) ossia quelle false identità create sui social media create per elogiare, difendere o supportare un candidato o un’organizzazione, agli spambot quei programmi per pc progettati per aiutare l’invio di spam, fino all’astroturfing e cioè la pratica di mascherare i sostenitori di un messaggio o di un’organizzazione (ad esempio, politica, pubblicità, religione o pubbliche relazioni) per far sembrare che provenga e sia supportato da semplici utenti.

Twitter, nel suo ultimo rapporto biennale sulla trasparenza, ha ammesso di aver individuato a livello mondiale solo tra il gennaio e il giugno 2018 oltre 232 milioni di profili probabilmente fasulli, il 75% di quali sono stati poi sospesi. Facebook, da parte sua, ha cancellato qualcosa come 583 milioni di falsi profili. Su Instagram, invece, sarebbe quasi un decimo degli account (95 milioni su un miliardo) a essere riconducibile a bot automatizzati.

… TUTTA COLPA DEI BOT?

A queste analisi però si contrappongono, o forse si affiancano, altre valutazioni. Una recente analisi (The Spread of True and False News Online) compiuta da alcuni ricercatori della MIT Sloan School of Management e pubblicata su Science, prendendo in esame il funzionamento di Twitter, ha rilevato che sul social le notizie false si diffondono anche sei volte più rapidamente rispetto alle notizie reali: le prime hanno il 70% in più di probabilità di essere ritweettate rispetto alle seconde. Una circostanza che sicuramente non sorprende. Ciò che emerge dall’analisi però è che questa massiccia diffusione non sia solo dovuta ai bot, quanto ai singoli individui che ritwittano contenuti inesatti.[ E allora perché ricorrere ad attacchi hacker per falsare le notizie quando basta influenzare gli utenti?

Del resto, solo guardando al nostro Paese, possiamo rilevare percentuali preoccupanti sulla capacità degli utenti di distinguere notizie false e non. Secondo il Rapporto di Ricerca “Infosfera” dell’Università Suor Orsola Benincasa[, è il 65,46% del campione, mentre ben il 78,75% non è in grado di identificare un sito web di bufale. La percentuale sale all’82,83% quando si tratta di identificare la pagina Facebook di un sito disinformativo e si attesta sul 70,28% quando si deve distinguere un fake su Twitter.

Quali sono le conseguenze? Sicuramente se si trattasse solo di disinformazione diffusa tramite robot allora sarebbe necessaria una soluzione puramente tecnologica. Tuttavia, il riconoscimento di un massiccio intervento da parte degli esseri umani aumenta il grado di complessità e sottolinea come gli interventi comportamentali diventino ancora più importanti nella lotta per fermare la diffusione di notizie false. Il motivo è chiaro, come in un moderno sillogismo, per attirare attenzione sui social si fa a gara per condividere informazioni precedentemente sconosciute, le false notizie sono più nuove, le persone che condividono informazioni nuove sono considerate “sapienti”.

Ecco che allora, occorre mettere gli individui in condizione di riconoscere il pericolo affinché possano evitarlo. Un’attività doverosa se pensiamo che il costo sociale prodotto dagli errori del singolo, non danneggia solo se stesso, ma l’intera società.

CONCLUSIONI

Un contesto decisamente complesso quello in cui ci troviamo a operare. Partiamo dal petrolio di questa pericolosa locomotiva disinformativa: i dati personali. Vero è che il Codice Privacy è stato recentemente riadattato, con il decreto legislativo 101/2018 che adegua la normativa italiana al GDPR (Regolamento europeo n. 679/2018) e tiene in debita considerazione le profilazioni, soprattutto quando riguardano l’utilizzo di dati personali sensibili, quali opinioni politiche, religiose, ideologiche. In questi casi, però, il divieto previsto dal GDPR per scopi decisionali automatizzati si arresta se la ragione è necessaria per motivi di interesse pubblico o l’interessato abbia espresso il suo consenso esplicito. Circostanza quest’ultima che, nel mare magnum della Rete, è talvolta di difficile ponderazione, invasi da privacy policy lunghissime e spesso incomprensibili.

Consideriamo poi un secondo aspetto: l’amplificazione del fenomeno. Il sistema, infatti, si rivolge a un pubblico potenzialmente molto ampio, se consideriamo i dati di penetrazione della Rete. Gli ultimi valori, diffusi da Audiweb lo scorso mese e relativi al mese di febbraio 2019, rilevano ben 41,6 milioni di utenti unici del nostro Paese e un tempo medio passato online pari a 3,30 minuti.[

Seppur vero è che i new media siano sempre più utilizzati dai cittadini per accedere all’informazione, altrettanto vero è che essi si collocano agli ultimi posti della classifica per attendibilità. Questi, secondo gli studi compiuti da Agcom nel Rapporto sul Consumo di Informazione, sono percepiti come credibili da meno di un quarto di coloro che li utilizzano per documentarsi correttamente. Un maggior livello di fiducia viene, invece, riconosciuto ai mezzi tradizionali. Le testate quotidiane, ad esempio, sono ritenute affidabili o molto affidabili da una porzione di fruitori vicina al 40%, potendo contare sulla notorietà e reputazione dei marchi editoriali storici.[

Ecco che allora le fake news possono in qualche modo contribuire a fare emergere il giornalismo di qualità, e non costituirne la nemesi. Riportando il pensiero del professor Charlie Beckett della London School of Economics – esse “sono la miglior cosa che è accaduta negli ultimi anni”, perché danno appunto al giornalismo di qualità l’opportunità di sviluppare un nuovo modello di business fondato sulla verifica dei fatti e agire come una alternativa migliore alle falsità. [ Si tratta allora di un segnale d’allarme che costituisce sicuramente un’occasione per il giornalismo, ma anche uno strumento per il lettore capace di orientarlo nell’overload informativo tipico della Rete. Allora, riprendendo il pensiero di Hegel, la lettura del giornale, resta ancora “la preghiera del mattino dell’uomo moderno”.


Condividi questo articolo: