Società – Così Facebook decide cosa cancellare dal nostro sguardo sul mondo
C’è un mondo che non vediamo quando investiamo i minuti e le ore della nostra giornata guardando scorrere le vite degli amici su Facebook. Non lo vediamo perché non c’è, non per la nostra soglia d’attenzione che si restringe, non per i frammenti di informazione che ci confondono, non per i video scintillanti che ci attraggono. Non c’è perché Facebook ha deciso che quel post, quella foto o quel video non deve esserci: non rispetta gli standard della comunità. Fino a poco fa non conoscevamo davvero le regole del gioco. Ora una rivelazione del «Guardian» ha aperto uno squarcio sul metodo e le pratiche con cui il social media decide quando un contenuto deve essere rimosso. I «Facebook Files» sono una grande fuga di notizie, i documenti interni che spiegano ai controllori umani di Facebook come comportarsi di fronte a un insulto, un video di propaganda terroristica, un’immagine pornografica o razzista, e ancora davanti a tentativi di suicidio. A vigilare sulla condotta di quasi due miliardi di utenti, tanti sono gli iscritti nel mondo, circa 30 milioni in Italia, c’è una squadra di 4.500 persone che deve giudicare i singoli post sospetti. Entro la fine del 2017 altri tremila addetti si aggiungeranno. Sono controllori umani ma devono seguire un elenco di regole che ritrae fedelmente la logica con cui si scrivono i software, con lunghi elenchi di condizioni che il caso deve rispettare. Molto spesso queste persone si trovano a giudicare i post in pochi attimi, perché il volume delle segnalazioni è significativo. A volte in dieci secondi devono prendere una decisione. È una scelta che può anche cambiare la nostra vita, se riguarda per esempio un video pornografico pubblicato per vendetta, un commento razzista o un messaggio di propaganda terroristica che cerca nuovi adepti. I video in diretta di tentativi di suicidio, per esempio, non sono censurati in tempo reale perché Facebook non vuole punire persone in difficoltà, e per allertare i soccorsi. Cosa succede quando un utente scriverà «qualcuno spari a Trump», protestando contro il presidente americano? II contenuto sarà rimosso perché sembra una minaccia a un capo di Stato. Altre minacce, anche violente, potrebbero invece essere tollerate in quanto non considerate un’intimidazione credibile. È proprio sulle parole che emerge la contrapposizione: Facebook rischia di sbagliare in ogni caso. Sbaglierebbe se censurasse preventivamente alcune parole chiave: diremmo addio a letteratura e racconti scabrosi, a frammenti di realtà, entreremmo in un nuovo medioevo di parole messe all’indice. Sbaglierà se interverrà in ritardo provando a censurare un post che fomenta la violenza. Facebook per prima vorrebbe fuggire da questo dilemma, sperando di essere ancora la piattaforma neutrale delle origini. Ma le dimensioni contano. Oggi Facebook è per gran parte della popolazione occidentale un filtro per vedere la realtà. L’iper-personalizzazione rischia di coccolarci in una bolla in cui vediamo (vogliamo vedere) solo post che ci piacciono. Le tecniche svelate dal «Guardian» servono per tenerci al riparo da contenuti violenti. Ma davvero vogliamo delegare a Facebook questo compito? La fuga di notizie crea qualche imbarazzo ma non fa poi così male al social media Perché racconta la complessità dei processi in corso. Come sempre, Mark Zuckerberg prova a rispondere con un approccio da programmatore. In un software gli errori si risolvono con le nuovi versioni, si prova e si sbaglia e si migliora. Nel manifesto scritto a febbraio Zuckerberg ammetteva implicitamente qualche difficoltà dettata dai grandi numeri. La risposta è nella capacità di creare comunità di valore. Comunità che sappiano trovare un equilibrio e auto-regolarsi. Davvero ne saremo in grado?
Beniamino Pagliaro, La Stampa, 23 maggio 2017