Il caso Nigeria e il problema di Facebook
La vicenda #EndSARS svela il rischio che le piattaforme non riescano a distinguere la manipolazione dell’odio dall’autentica protesta.
di Luca De Biase
In Nigeria opera una forza di polizia particolarmente criticata. Si chiama Special Anti-Robbery Squad (SARS) ed è accusata di essere un’organizzazione corrotta e violenta. In questi giorni è al centro di una delle maggiori crisi del più popoloso paese africano. Il New York Times ha riportato come una manifestazione pacifica contro la SARS sia stata oggetto di colpi di arma da fuoco da parte della polizia con la conseguenza che alcune persone sono rimaste uccise. Questo ha trasformato la manifestazione in qualcosa di molto più violento, con saccheggi e atti di vandalismo.
Amnesty International ha provato diversi atti di tortura e violenze da parte della SARS. Lo stesso fondatore di quel corpo di polizia ha detto alla Bbc che la SARS si è trasformata in una organizzazione criminale. Le proteste non violente erano nate da un video che la polizia ha definito falso. Ma le brutalità che ne sono venute fuori non erano false. Il movimento di protesta si è organizzato sui social network con il nome #endSARS. Su Global Voices, un network di liberi blogger nato a Boston per dare voce a persone che scrivono con un metodo condiviso da tutto il mondo, Nwachukwu Egbunike ha scritto che Facebook ha segnalato come false le notizie che si riferivano a #endSARS e ha facilitato il compito del governo che ha tentato in ogni modo di nascondere il problema della SARS, le proteste e le violenze subite dai manifestanti. Facebook si serve di personale in outsourcing per fare factchecking. In Nigeria usa Africa Check, AFP-Hub e Dubawa. Instagram, nel pieno delle proteste, ha ammesso di avere bloccato per errore alcuni post ritenendo false le notizie che riportavano.
Non è la prima volta. Due settimane prima, Facebook si era trovata coinvolta in una controversia sulla diffusione di hate speech in India. Un paio d’anni prima era stata accusata dal più grande giornale del Brasile di diffondere fake news. Nel 2016, Facebook aveva rimosso un post solo perché criticava il governo di Singapore. Nel 2011, Facebook ha chiuso l’account di un blogger che aveva pubblicato una serie di post sulla criminalità in Honduras. E nel 2010 Facebook aveva chiuso la pagina “We are all Khaled Said” che parlava di come il ventottenne egiziano sia stato ucciso a botte dalla polizia ad Alessandria. Nella pratica di Facebook c’è il rischio di censurare gli attivisti per i diritti umani, o almeno di sbagliare a loro sfavore. «È successo molte volte e spesso senza una spiegazione da parte della compagnia americana» dice Ellery Roberts Biddle, giornalista, esperto di tecnologia e direttore editoriale di Ranking Digital Rights, intervistato via email da Nwachukwu Egbunike per Global Voices.
In tutto il mondo occidentale ci si interroga su come contenere quella che l’Organizzazione mondiale della sanità chiama infodemia di notizie false e di opinioni di odio. In molti casi ci si affida alle piattaforme che come Facebook possono intercettare automaticamente molti post tossici e toglierli di mezzo o almeno limitarne la diffusione. Ma è una modalità insufficiente. Perché il rischio è che Facebook e le altre piattaforme, per quieto vivere o per altri motivi, non riesca a distinguere la manipolazione dell’odio per biechi fini politici, dall’autentica protesta delle persone che criticano i potenti. Il futuro dei social media e del dibattito pubblico dipende da come sarà risolto questo problema.
di Luca De Biase, giornalista