di Massimo Conte

Misinformation. Guida alla società dell’informazione e della credulità” di Walter Quattrociocchi e Antonella Vicini è il secondo libro segnalato per la Biblioteca dei classici della complessità, al Complexity Literacy Web-Meeting dell’autunno 2020.

Di seguito il video della presentazione tenuta durante il Web Meeting, e a seguire l’articolo lungo di cui il video è una sintesi.


 

Le domande

Come ci comportiamo in rete? Quali sono le dinamiche delle notizie che viaggiano nel web e nei social? Ha senso parlare di “arginare le fake news”? Che effetto ha provare a “smontare le bufale” (debunking) nei confronti delle persone che invece credono a quella visione del mondo?

 

Perché abbiamo scelto questo libro

Le possibili risposte le troviamo nel libro di Walter Quattrociocchi e Antonella Vicini “Misinformation. Guida alla società dell’informazione e della credulità”; Editore Franco Angeli.

Sebbene sia stato pubblicato in tempi relativamente recenti (e non sospetti), cioè nel 2016, è diventato in poco tempo il riferimento a livello italiano e mondiale su come comprendere i fenomeni di flussi informativi in cui siamo immersi. Che possono poi avere ricadute importanti anche sulla politica e quindi sulla vita pubblica delle persone.

 

Il sommario

Ecco come la casa editrice presenta il libro nella bandella di copertina:

Quella contemporanea è l’epoca dell’informazione h24, della velocità delle notizie che attraverso il web e i social network fanno il giro del mondo in pochi minuti, della possibilità di accedere a contenuti e documenti prima raggiungibili soltanto da pochi: eppure questa è paradossalmente anche l’epoca che ha visto il proliferare incontrollato di informazioni false o verosimili che, una volta entrate nel circuito della rete e dei media, è praticamente impossibile bloccare. Il libro offre una panoramica sui meccanismi della formazione delle opinioni e della fruizione dei contenuti sui social network come Facebook, YouTube, Twitter, e sulle dinamiche di contagio sociale.

 

L’autore

Attualmente Walter Quattrociocchi è il Direttore del Laboratory of Data and Complexity presso l’Università Ca’ Foscari di Venezia. In passato si era occupato di reti complesse e scienze sociali computazionali presso l’IMT di Lucca.

 

L’indice ragionato dei contenuti

Il testo parte da una premessa: siamo nell’era della credulità. Data la grande quantità di informazioni a cui siamo sottoposti ogni giorno, operiamo un’attenzione selettiva. Ci esponiamo alle informazioni che riteniamo significative per i nostri interessi.

 

Vediamo i capitoli più significativi.

 

  1. Dalla (dis)informazione alla viralità

Qualsiasi tema è ormai a portata di mano, sul nostro telefono: economia, politica, salute, terrorismo, migrazioni. È sufficiente fare una ricerca su Internet per credere di essere esperti (qui il riferimento è all’effetto Dunning-Kruger).

Le bufale, ovvero informazioni false create ad arte, ma verosimili, diventano virali, cioè si diffondono in poco tempo con grande forza. Una tra tutte che forse ricorderete, quella del senato che aveva approvato un fondo di 134 miliardi di euro per parlamentari in crisi, con 257 voti a favore e 165 contrari. Basta fare una verifica o leggere con attenzione, rendersi conto che i numeri (dei senatori, che sono solo 300 e non 422), non tornano. Inventata dal mitico troll disturbatore Ermes Maiolica con fini umoristici, ma condivisa da molti come vera notizia.

Si creano dei meme (termine coniato da Richard Dawkins nel 1976 nel libro Il gene egoista come tentativo di spiegare il modo in cui le informazioni culturali si diffondono), cioè dei pezzetti di informazione che si propagano e sopravvivono in rete, appunto come se fossero dei virus. E per questo ogni tanto ritornano: continuano a sopravvivere in rete.

E qui si innesta il meccanismo di funzionamento dei social network: per continuare ad essere diffuso, un meme ha bisogno di provocare emozioni intense, come magari la rabbia nei confronti degli immigrati o la paura che un vaccino provochi l’autismo. Emozioni che possono attecchire se non si guarda ai dati reali.

 

Condivido una notizia falsa perché non me ne accorgo oppure perché conferma il mio pregiudizio?

Cosa accade alle informazioni non corrette una volta che entrano nel circuito della rete? C’è modo di far rientrare o di rettificare le false credenze o quando l’effetto domino si scatena non c’è possibilità di arginarlo?

Le dinamiche descritte partono da analisi di grandi dataset di post su social network come Facebook, Youtube e Twitter, analizzando like, condivisioni, temi, gruppi. Nel libro si racconta di fatta su 2 milioni e 300 mila utenti italiani, mettendo a confronto due tipologie di gruppi: quelli di divulgazione scientifica e utenti della cosiddetta informazione “alternativa”.

La qualità dell’informazione sui social perde rilevanza; le persone prendono per vero quello che conferma il loro universo di riferimento. La diffusione di fake news prolifera su questa credulità. Accettiamo una nuova informazione solo se è coerente con il nostro sistema di credenze già strutturato.

Una delle tendenze è quella di semplificare i meccanismi causali; ma nel modo formulo la domanda (ad esempio “danni scie chimiche”) possono esserci già i presupposti della risposta.

Inoltre, più ci si focalizza su un tema, più aumenta la probabilità di essere circondati da persone che hanno le nostre stesse credenze. L’“esposizione selettiva”, cioè la tendenza a scegliere cosa vogliamo sentirci dire e cosa vogliamo leggere, su Facebook viene potenziata e rinforzata. Ovviamente in tal modo ci si espone meno alla diversità e al confronto.

Polarizzazione (forte suddivisione in gruppi coerenti al loro interno) e omofilia (la tendenza a circondarsi di persone con la nostra stessa visione) si rinforzano, creando ulteriore radicalizzazione.

 

  1. Tribù virtuali

All’interno dei social network si rinforza il “pregiudizio di conferma” (confirmation bias), cioè la tendenza ad accettare soltanto le informazioni coerenti con la nostra visione di mondo. E ad escludere quindi le informazioni che potrebbero metterla in discussione. Nessuno di noi ne è esente.

Possiamo distinguere tra:

  • Disinformation: accidentale creazione e condivisione di notizie false;
  • Misinformation: intenzionale creazione e condivisione di notizie false.

Grazie a Internet, ai cookie, agli algoritmi, alla newsfeed di Facebook, la nostra esposizione alle informazioni è sempre più personalizzata e raffinata in base ai nostri interessi. E anche la partecipazione ai gruppi. Ognuno di noi vive in un mondo virtuale tagliato su misura per noi. Fino a ritrovarci in un mondo piccolo popolato solo da nostri simili. Le echo chambers sono delle camere di risonanza in cui ritroviamo ciò che più ci piace, e altre persone con i nostri stessi interessi. Questa sui social è un’esperienza naturale, ma che consente una più ampia condivisione di informazioni false. La successiva correzione non sarà poi altrettanto virale.

Un esempio tra tanti: i post tipo catena di S. Antonio in cui non si autorizza Facebook a utilizzare i propri dati, con una sorta di avviso che si chiude con una call to action del tipo “condividi fai girare anche te”. Ovviamente facendo qualche controllo in più, si scopre che scaricando l’app e accettando il servizio si è già accettato l’utilizzo di quei dati. E il richiamo all’azione è un altro segnale che dovrebbe indurre perlomeno ad avere qualche dubbio.

Studio di come si propagano le informazioni nei diversi gruppi: nei cospirazionisti il processo è lineare, cioè più lento ma inesorabile nel tempo; nei gruppi di divulgazione scientifica c’è un picco iniziale e poi la diffusione si stabilizza

 

  1. Radicalizzazione, segregazione e rinforzo

In che modo il gruppo esercita pressione sul singolo, influenzandone percezioni, opinioni e comportamenti?

Si torna alla metafora del contagio delle informazioni. Nella persuasione, più dei legami di coloro con cui ci confrontiamo, conta il numero di persone che ci riporta la stessa informazione (D. Centola).

Un forte ruolo giocato dal conformismo: possiamo modificare giudizi e valutazioni pur di rimanere nel solco tracciato dal nostro gruppo di riferimento (Ash). Il dibattito tra persone che la pensano allo stesso modo tenderà a produrre una maggiore estremizzazione delle posizioni iniziali (C. Sunstein). Questo può valere tanto per un gruppo a favore dell’uso delle armi, quanto per un gruppo contro il riscaldamento globale. C’è una forte omogeneità nel gruppo: le persone sentono l’eco della propria voce e finiscono per rinforzare la loro posizione nei confronti degli altri. Si arriva ad una sublimazione di quella visione di mondo, una sorta di metafisica a supporto del ragionamento (l’ultimo esempio, estremo e inquietante, è QAnon, la teoria del complotto di estrema destra secondo cui esisterebbe un complotto di un presunto Deep State contro Trump). Si finisce in una guerra tra tribù sempre più arrabbiate, basata sull’antagonismo tra queste visioni di mondo.

Arrabbiate perché è l’algoritmo stesso a nutrirsi di questi sentimenti forti negativi come rabbia, indignazione, lamento: a livello comportamentale, tu utente rimani all’interno della piattaforma a discutere se sei fortemente preso dal dibattito. La noia, al contrario, può trasformarsi in disinteresse e abbandono del social network.

 

  1.  Narrazione del presente e pensiero alternativo

Le teorie cospirazioniste (ad esempio “il piano Kalergi”) si basano su risorse cognitive che soddisfano il bisogno di spiegare eventi inquietanti e insoliti, e allo stesso tempo sono racconti che circolano nella cultura di massa, limitandone la complessità e contenendo l’incertezza da questi generata.

 

  1. Smentite e pregiudizi

Riassumendo, gli step che abbiamo descritto finora sono i seguenti:

  1. pregiudizio di conferma (prendo solo informazioni coerenti con mia visione); 
  2. echo chambers (sto con persone molto simili alle mie credenze);
  3. polarizzazione (rinforzo delle posizioni radicali all’interno di ogni gruppo).

Il passo successivo è chiedersi: esiste un modo per arginare il problema?

Esistono siti specializzati nel tentativo di smontare le bufale, attraverso il fact checking. Ovvero: si analizzano i meme virali, andando a verificare le fonti delle informazioni.

Questi siti (ad esempio butac.it cioè bufale un tanto al chilo, il disinformatico di Paolo Attivissimo, o il Cicap – Controllo sulle affermazioni delle pseudoscienze) non hanno avuto sempre vita facile, perché fare questa verifica può risultare più complesso di quanti sembri a prima vista.

Possiamo considerare i gruppi di debunking come una sorta di reazione immunitaria al proliferare di fake news e misinformation. Purtroppo però anche chi fa debunking non è immune dalle stesse dinamiche di narcisismo e necessità di approvazione. Potrebbe quindi cadere nella stessa trappola che cerca di contrastare, addirittura rinforzando le posizioni polarizzate.

Esempio: chi crede ad una teoria del complotto, di fronte ad un tentativo di debunking, cioè di mostrare la falsità di quelle notizie, finirà per convincersi ancora di più che gli stanno nascondendo la verità dietro versioni ufficiali di comodo. Vedendo ovunque media manipolati, giornalisti compiacenti, governanti fantocci in mano ai poteri forti. E vedendo quindi anche i debunker (cioè gli smascheratori di bufale) come parte integrante di quel sistema. Un dogma contro un altro dogma, uno scontro tra diverse visioni di mondo, inconciliabili. E in tal modo le credenze si radicalizzano.

In alcuni studi fatti si è riscontrato che la somministrazione di informazioni esatte all’interno di un gruppo complottista che tendevano a smontare una teoria non producevano nessun risultato di correzione. Ma, al contrario, generano un effetto controproducente di ulteriore rinforzo.

Ritorna ancora una volta il confirmation bias: un elemento fortemente dissonante rispetto alla mia struttura di credenze mi costringerebbe a mettere in discussione tutto; è quindi più facile rifiutarlo. Nei partecipanti più coinvolti ideologicamente la correzione quindi non è solo inutile, ma anche dannosa perché finisce per rinforzare il loro credo in quella narrazione.

Temi aperti: non serve il muro contro muro. Esiste una terra di mezzo di persone silenziosamente dubbiose, indecise se accettare la teoria del complotto o la sua smentita, ma riluttanti a esternare questi dubbi su un social network.

Sottostante a questa tendenza a credere a teorie così fantasiose c’è l’analfabetismo funzionale già citato, ovvero la scarsa capacità di comprensione del testo che si sta leggendo.

 

  1. Conclusioni: uscire dalle echo chambers

Questo libro ha rappresentato un punto di riferimento per delineare lo stato dell’arte e comprendere e fenomeni che sperimenta chiunque frequenti un social network.

Acquisire consapevolezza aiuta a chiamare le cose con i giusti nomi. Il confirmation bias e le echo chambers erano già presenti nel mondo pre-social network. La differenza è che ora questi fenomeni sono amplificati portando ad una enorme e pericolosa polarizzazione.

Questi tre sono i driver della formazione di conoscenza, dell’acquisizione di informazioni e dell’aggregazione in gruppi intorno a narrative.

Bisogna fare attenzione alla hybris di mettersi al di sopra di queste dinamiche, perché ne siamo tutti soggetti.

Serve uno sforzo collettivo alla creazione di un pensiero complesso, analitico e consapevole. Serve un tentativo di andare oltre l’isolamento, e tentare di costruire dialogo e confronto.

 

In sintesi

Il tema non è più l’accesso all’informazione, perché tutti ci accediamo. Ma avere le capacità per comprendere che stiamo guardando il mondo dal nostro punto di vista, che non è l’unico possibile.

Si lega anche un aspetto di come la nostra esperienza di mondo sia mediata dagli algoritmi grazie a cui vediamo le notizie. Il modo in cui ci informiamo è decisivo per il modo in cui prendiamo decisioni e partecipiamo alla vita pubblica.

Da un lato ci sono meccanismi di aggregazione delle informazioni (gli algoritmi dei social network), dall’altro c’è il confirmation bias, ovvero come privilegiamo dati e fonti che confermino il nostro punto di vista, escludendo tutti gli altri.

Questo ci porta a rinchiuderci sempre di più nella nostra bolla, nella nostra echo chamber, cioè camera dell’eco. È la nostra nicchia in cui vediamo e condividiamo opinioni e informazioni solo con persone che la pensano come noi.

Questo porta alla polarizzazione delle posizioni: gruppi di persone simili, molto coesi al loro interno, ma poco inclini a interagire con gruppi con visioni differenti. C’è poca disponibilità e poca tolleranza ad esporsi al diverso da noi.

È un meccanismo che si autoalimenta, cioè un feedback di rinforzo: il social network ci mostra contenuti in linea con quello che pensiamo, noi ne cerchiamo di più per rinforzare la nostra idea di mondo, e il ciclo ricomincia.

E ognuno di noi avrà sperimentato in prima persona la polarizzazione, quando la discussione con chi esprime un punto di vista molto diverso dal nostro finisce su attacchi personali, senza rimanere nel contenuto (su questo aspetto vi consiglio “la disputa felice” di Bruno Mastroianni), o si finisce per togliersi reciprocamente l’amicizia.

Gli autori suggeriscono di provare ad uscire dalla propria camera dell’eco, per cercare di approfondire i meccanismi emotivi e irrazionali che spingono tante persone a scegliere di credere in bufale e teorie del complotto. Il tema è aperto, non c’è una risposta definitiva. Nel frattempo hanno pubblicato altri libri, che vi consiglio.

 

Bibliografia

  • Sunstein “The law of group polarization”
  • Mastroianni “La disputa felice”
  • Centola “The spread of Beahviour in an Online Social Network Experiment”
  • Quattrociocchi, A. Vicini, “Liberi di crederci. Informazione, internet e post-verità”