Facebook risponde alla richiesta della Global Coalition che gli utenti ottengano un parere nelle decisioni di rimozione dei contenuti


iSpeech Vogon
Facebook risponde alla richiesta della Global Coalition che gli utenti ottengano un parere nelle decisioni di rimozione dei contenuti

Il FEP e più di 100 organizzazioni della società civile in tutto il mondo hanno scritto direttamente a Mark Zuckerberg di recente chiedendo maggiore trasparenza e responsabilità per le pratiche di moderazione dei contenuti di Facebook. Un passo fondamentale, abbiamo detto a Facebook, è l'implementazione di un solido processo di appelli che offre a tutti gli utenti il ​​potere di mettere in discussione e invertire le decisioni di rimozione dei contenuti della piattaforma.

Facebook ha risposto all'inizio di questo mese in una lettera privata a EFF che abbiamo reso pubblico questa settimana. In esso vediamo una vittoria per gli utenti che lottano per ottenere il backup dei loro contenuti. Facebook ha esteso l'opzione degli appelli per coprire quasi tutte le categorie di parole che si ritiene siano in violazione delle regole della piattaforma, compresi i contenuti considerati spam, pericolosi o propaganda terroristica. Le persone che segnalano contenuti che violano gli standard della community di Facebook ma rimangono sulla piattaforma potranno anche sfidare l'inazione di Facebook (anche se non è chiaro quando), secondo la lettera.

Facebook ha affermato che gli appelli degli utenti saranno esaminati da persone diverse da quelle che inizialmente hanno deciso di rimuovere i contenuti. Inoltre, il signor Zuckerberg ha recentemente annunciato l'intenzione di lanciare un " corpo indipendente " il prossimo anno che ascolterà e deciderà alcuni appelli. Nella sua lettera al FEP, Facebook ha dichiarato di voler consultare le parti interessate e i gruppi esterni, compresi i firmatari della lettera Zuckerberg, durante il processo decisionale relativo al gruppo indipendente. Terremo conto di Facebook per garantire che vengano ascoltate voci geograficamente e culturalmente diverse.

La revisione indipendente della rimozione dei contenuti è un elemento importante dei Principi di Santa Clara, una serie di standard minimi di moderazione dei contenuti con una cornice dei diritti umani creata da EFF e dai suoi partner. Abbiamo chiamato su Facebook, Twitter e altre piattaforme di social media per implementare gli standard quando sono stati annunciati a maggio. Stiamo ancora aspettando, ma è incoraggiante vedere Facebook implementare un elemento chiave dei Principi di Santa Clara.

Facebook ha scritto, e gli utenti stanno confermando, che sta fornendo maggiori dettagli sulle presunte violazioni degli standard della comunità quando notifica agli utenti la rimozione dei contenuti. La compagnia dice anche di aver aumentato il proprio gioco di reporting dei dati. Due giorni dopo che la coalizione globale ha scritto al signor Zuckerberg chiedendo maggiore trasparenza sulla moderazione dei contenuti, Facebook ha pubblicato un nuovo rapporto con ulteriori informazioni sul volume delle rimozioni dei contenuti. Nella sua risposta, Facebook ha dichiarato che i rapporti futuri sulla trasparenza includeranno dati sulla rapidità con cui ha rimosso i contenuti in violazione delle sue regole e sulla frequenza con cui è stato ripristinato il contenuto in seguito agli appelli.

Sfortunatamente, gli sforzi di Facebook per essere più trasparenti in merito alla moderazione dei contenuti vanno solo così lontano. Questo deve cambiare. La società ha scritto che non rivela informazioni sul formato dei contenuti rimossi, che si tratti di testo, foto o video, o rivela se un governo o singoli contenuti segnalati e / o richiesti vengano rimossi. "Non crediamo che questi dati forniscano informazioni critiche ai nostri utenti o società civile sulle nostre pratiche di revisione dei contenuti", ha scritto Facebook a EFF. Noi e oltre 100 organizzazioni della società civile siamo in totale disaccordo. Facebook ha rimosso il discorso legittimo per volere dei governi che cercano di sopprimere le voci nelle comunità emarginate. Vogliamo sapere se il discorso viene rimosso a causa di richieste governative, algoritmi o decisioni da parte dei dipendenti.

Continueremo a lavorare con i nostri partner in tutto il mondo per spingere verso una maggiore responsabilità e trasparenza da Facebook. La nostra lettera aperta di richieste al signor Zuckerberg è stato uno sforzo senza precedenti di difendere collettivamente centinaia di milioni di utenti di Facebook che si affidano alla piattaforma per condividere, comunicare e creare. Sappiamo che le pratiche di moderazione dei contenuti sciatte, incoerenti e inique fanno male e hanno conseguenze reali per le comunità più vulnerabili che lottano per essere ascoltate. Ecco perché manterremo la pressione nel 2019 e oltre.

(Articolo originale: EFF)

Commenta su Facebook
Fondazione Frontiera Elettronica

Informazioni su Babel Fish

Con l'ausilio di un Pesce di Babele, Babel Fish traduce in italiano articoli da noti blog intergalattici e - giammai soddisfatto - traduce dall'italiano al Vogon e poi di nuovo dal Vogon all'italiano articoli da noti blog italiani. I risultati delle lavoro di Babel Fish sono pubblicati su questo blog.

Precedente Centinaia di poliziotti antisommossa celebrano il loro speciale "Caga tió" venerdì Successivo Closed, Proprietary, Felonious: The Toxic Rainbow of Locked Technology

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.