Facebook Papers fan luce sui problemi di moderazione dei social media

I media, a cui sono trapelati i documenti interni dell’azienda, affermano che l’azienda dà la priorità ai profitti rispetto agli utenti.

I cosiddetti Facebook Papers (una serie di documenti rilasciati al pubblico dall’ex product director di Facebook Francis Haugen) fanno luce sui problemi con la moderazione dei contenuti e la lotta alla disinformazione sulla piattaforma. I principali media a cui Haugen ha consegnato i documenti, tra cui Reuters, Bloomberg e The Washington Post, sostengono che la società dà la priorità al profitto rispetto alla sicurezza degli utenti, sebbene i dipendenti di Facebook l’abbiano ripetutamente avvertita dei potenziali rischi.

Ad esempio, il Washington Post accusa il CEO di Facebook Mark Zuckerberg di minimizzare l’importanza dei rapporti secondo cui il sito ha contribuito all’incitamento all’odio quando si è rivolto al Congresso degli Stati Uniti. Secondo il quotidiano, Zuckerberg sapeva che il problema era in realtà molto più serio di quanto riferito al pubblico.

Secondo i documenti interni dell’azienda, la piattaforma rimuove meno del 5% dei post di odio e il senior management (incluso Zuckerberg) era ben consapevole della piattaforma che divideva le persone in campi opposti. Facebook nega le accuse e sostiene che i suoi documenti interni siano stati male interpretati.

Zuckerberg è anche presumibilmente responsabile della decisione di non sopprimere la disinformazione su COVID-19 nelle prime fasi della pandemia, poiché potrebbe esserci un “compromesso significativo con l’influenza di MSI” (interazione sociale significativa – metrica interna di Facebook). Facebook smentisce, sostenendo che i documenti siano stati fraintesi.

A sua volta, l’agenzia di stampa Reuters ha accusato Facebook di trascurare regolarmente i paesi in via di sviluppo, a cui è stato permesso di pubblicare pubblicazioni che incitano all’odio e chiedono un’azione estremista. In altre parole, l’azienda non ha assunto un numero sufficiente di moderatori con conoscenza della lingua e della cultura di questi paesi per rimuovere efficacemente tali contenuti. Invece, ha fatto affidamento ingiustificatamente sui suoi sistemi di moderazione automatica, che sono inefficaci nei paesi non di lingua inglese. Ancora una volta, Facebook nega queste accuse.

Secondo quanto riportato dal New York Times, Facebook era ben consapevole che le funzioni “Mi piace” e “Condividi” (elementi chiave del social network) hanno contribuito alla diffusione dell’incitamento all’odio. Come affermato in un documento intitolato “Cos’è il danno collaterale”, l’incapacità di Facebook di affrontare questo problema alla fine porterà l’azienda a “promuovere attivamente (non necessariamente consapevolmente) tale attività”. Ancora una volta, Facebook afferma che il documento è stato frainteso perché la società non danneggerebbe i suoi utenti.