Facebook vuole esentare i post dei politici dal fact checking

D'ora in poi toccherà agli utenti stessi verificare la veridicità di quanto condiviso sui social dai loro rappresentanti.

Facebook non eseguirà più il fact-checking sui post dei politici perché i loro messaggi fanno notizia e possono essere di pubblico interesse. Ad annunciarlo è stato Nick Clegg, ex vice premier britannico e ora a capo della comunicazione globale della società di Menlo Park. «Non crediamo che per noi sia un ruolo appropriato fare da arbitro nel dibattito politico», ha spiegato, «e non vogliamo impedire che il discorso di un politico raggiunga il suo elettorato e sia oggetto di dibattito pubblico». Con questa decisione, d’ora in poi toccherà agli utenti verificare la veridicità di quanto sostenuto dai politici sui social. Allo stesso modo, sarà sempre compito loro dimostrare la falsità delle parole riportate.

LEGGI ANCHE: Fake news e strategie di fact checking

SUI CONTENUTI CHE POSSONO INCITARE ALLA VIOLENZA

«Quando un politico condividerà contenuti su cui precedentemente è stata fatta una verifica», ha poi aggiunto Clegg, «abbiamo in programma di ridimensionarli, far visualizzare nel post il fact-checking delle notizie e rifiutarne l’inclusione negli annunci pubblicitari». Cioè rifiutare la sponsorizzazione. Riguardo ai contenuti che possono incitare alla violenza e comportare un rischio per la sicurezza, Clegg ha invece spiegato che «verranno fatte delle valutazioni globali che terranno conto degli standard internazionali sui diritti umani».

IL RUSSIAGATE E L’ALLARME FAKE NEWS

Dopo l’apertura dell’inchiesta sul cosiddetto Russiagate, nella quale si sospettavano ingerenze da parte della Russia nella campagna elettorale per le presidenziali Usa 2016, su Facebook e altre piattaforme social si è acceso un faro sulla diffusione delle fake news. Il social network di Zuckerberg ha così cominciato a stringere accordi con testate giornalistiche e fact checker indipendenti per verificare le notizie.

COME FUNZIONA IL FACT CHEKING DI FACEBOOK

Facebook ha creato un modello di machine learning per identificare i contenuti potenzialmente falsi sulla propria piattaforma. Dopo la segnalazione, foto, articoli e video sono inviati ai fact checker per essere valutati. Il loro responso ha una doppia funzione: se da una parte stabilisce l’attendibilità o la falsità dell’informazione, dall’altra contribuisce a istruire l’intelligenza artificiale che apprende sia dalla propria esperienza, sia da quella umana.

Leggi tutte le notizie di Lettera43 su Google News oppure sul nostro sito Lettera43.it