DEMENZA DIGITALE E LINGUAGGI Post-verità, la parola che racconta i social

fb-demenza-digitaleUna parola capace di catturare i nostri tempi. L’Oxford Dictionaries, dipartimento della prestigiosa Oxford University Press (che fa a sua volta capo al rinomato ateneo) di definizioni se ne intende. E così nello scegliere “post-verità”, post-truth in inglese, come parola per l’anno 2016, sembra essere riuscita a cogliere una realtà profonda del cambiamento del linguaggio (secondo i ricercatori dell’istituto, l’utilizzo della parola post-verità è aumentata del 2000% rispetto all’anno precedente), ma anche della sostanza.
“Post-verità è un aggettivo che esprime una situazione in cui i fatti oggettivi sono meno capaci di influenzare l’opinione pubblica rispetto al fare leva sulle emozioni o sulle opinioni personali,” il significato di post-verità secondo Oxford Dictionaries, che sottolinea come a influenzare la decisione sia stato soprattutto quanto accaduto nelle campagne elettorali per il referendum sulla Brexit e per le elezioni americane.
Il più importante teatro della post-verità sono stati senz’altro i social network. Al punto che negli ultimi giorni, Facebook ha dovuto ammettere la propria incapacità di distinguere le storie vere da quelle false, e provare a correre ai ripari.
“Poiché l’algoritmo di Facebook è pensato per determinare cosa gli utenti individuali vogliano vedere, ad essi spesso viene mostrato soltanto ciò che convalida le loro convinzioni già esistenti, a prescindere dal fatto che l’informazione condivisa sia vera” spiega un articolo dedicato al tema sul Washington Post.
Così, spiega in un approfondimento la Sunday Review del New York Times, una grande parte della responsabilità per la diffusione di storie false, spesso generate da truffatori interessati ai profitti pubblicitari, va attribuita alle grandi piattaforme come il social network di Mark Zuckerberg o Google, “che hanno reso possibile il fatto che milioni di utenti condividano istantaneamente notizie false, mentre i meccanismi per bloccarle o eliminarle sono implementati lentamente”.
Dopo le polemiche, Facebook ha promesso di rimediare: un migliore controllo e risposta automatica del sito, maggiore facilità nel riportare l’inaffidabilità delle notizie, e un cambiamento del sistema di pubblicità interno, così che i siti che diffondono bufale non possano essere sponsorizzati dal social stesso.
Uno dei problemi però è costituito anche dalla scarsa consapevolezza dei lettori, più interessati a trovare riscontro delle proprie opinioni e di rilanciarle verso il mondo piuttosto che a verità, onestà e accuratezza.
“Penso che la questione non stia nel fatto che la gente non sappia, ma piuttosto che non gli importi – ha spiegato al quotidiano della capitale americana Paul Mihailidis, docente di alfabetismo dei media all’Emerson College di Boston. “Vedono un modo per promuovere le proprie idee e diffondere voci che circolano, oppure di offrire supporto al proprio sistema di valori o candidato, e questo ha la precedenza rispetto al fatto di non sapere con che cosa hanno a che fare. La maggioranza degli utenti non si ferma a valutare le informazioni in modo critico. Uno dei fenomeni che sta accadendo è che nel navigare sui social, il leggere con attenzione è stato sostituito dal monitorare le bacheche. Quando gli utenti vedono un titolo che li attrae, la mossa di default è di condividere”. Tornando dunque al concetto di un mondo in cui opinioni e sentimenti contano più dei fatti, con la benedizione degli algoritmi dei grandi siti internet, ma soprattutto con la complicità, più o meno consapevole, del cuore e della mente di centinaia di milioni di persone. I parametri degli algoritmi si modificano. Le coscienze dell’era della post-verità potrebbero essere un osso più duro.

Rossella Tercatin