FACEBOOK
22 Maggio Mag 2017 1814 22 maggio 2017

Facebook, le controverse linee guida per la censura

Pubblicati dal Guardian i documenti contenenti le regole per la rimozione dei post. Colpiscono le contraddizioni, a partire dai video degli abusi non oscurati per creare consapevolezza.

  • ...

«Facebook incapace di mantenere il controllo sul suo contenuto», «è cresciuta troppo, troppo in fretta», tanto che «spesso» i suoi moderatori - persone in carne e ossa, non algoritmi - hanno «appena 10 secondi» per fare una scelta. Per decidere, ad esempio, se rimuovere o meno video hard come quelli che in Italia hanno portato Tiziana Cantone al suicidio.

«SICUREZZA DELLE PERSONE AL PRIMO POSTO». È il quadro che emerge dalle rivelazioni del Guardian sulle regole interne di Facebook per la moderazione di argomenti sensibili, dal terrorismo alla pornografia. Il social, incalzato spesso sul tema anche in Italia, si difende sottolineando che mantenere le persone «al sicuro» è la sua priorità.

1. Messaggi razzisti e violenti: anche omicidi in diretta

Quasi due miliardi di utenti e decine di migliaia di post condivisi ogni minuto: Facebook non riesce a monitorare tutto, afferma il quotidiano britannico. E oltre ai contenuti razzisti, violenti, porno e ai commenti d'odio, negli ultimi mesi sono finiti in diretta video sul social anche crimini particolarmente brutali. Dall'omicidio di un pensionato Cleveland al padre che, prima di suicidarsi, ha impiccato la figlia di 11 mesi in Thailandia.

2. Più di 7 mila persone impegnate a moderare i contenuti

Un problema che lo stesso Mark Zuckerberg ha riconosciuto pubblicamente e che il social ripete di affrontare nella maniera più seria. Non solo aggiungendo altre 3 mila persone alle 4.500 che già si occupano della moderazione dei contenuti, ma anche sviluppando strumenti sempre più avanzati.

3. Oltre cento manuali interni pubblicati dal Guardian

Intanto però lo scenario tracciato dall'inchiesta del Guardian è particolarmente torbido. Sul social gli utenti possono segnalare i contenuti offensivi, ma poi cosa accade? Finora la "bibbia" interna di Facebook non era mai stata svelata. I documenti, oltre cento manuali interni, ottenuti e pubblicati dal quotidiano britannico rivelano per la prima volta come la compagnia decide quali contenuti possono o non possono restare sulla piattaforma. La sua "etica" insomma. Indicazioni che spesso portano i moderatori a prendere decisioni controverse. Ecco qualche esempio.

4. Video non rimossi per creare consapevolezza

Secondo Facebook consentire la circolazione di certi video di violenza «può creare consapevolezza in chi li vede» ed è per questo che non vanno rimossi. È il caso dei video che mostrano abusi su bambini, a meno che non siano di tipo sessuale o sadico, e di quelli che mostrano violenza nei confronti degli animali, anche con mutilazioni o tortura. In questo caso però vanno almeno etichettati come "inquietanti".

5. Linguaggio violento accettato in caso di minacce generiche

Anche il linguaggio violento non è ritenuto "credibile" se le minacce sono "generiche". Indirizzarle a un personaggio noto, come il presidente americano Donaldn Trump, o a categorie vulnerabili, non è invece ammesso. Gli stessi moderatori sembrano avanzare perplessità, giudicando in particolare le indicazioni sui contenuti sessuali «le più complesse e confuse» Per fare un esempio, le immagini di aborti sono accettate «purché non mostrino nudità». Altro nodo quello della pubblicazione di filmati in cui le persone tentano di farsi del male: è consentita perché il social «non vuole censurare o punire chi è in difficoltà». Quando non c'è più possibilità di intervenire il video può essere rimosso.

© RIPRODUZIONE RISERVATA

Correlati