The Guardian: "FB decide su sesso e violenza in 10 secondi". La replica

23 maggio 2017 ore 8:01, Andrea De Angelis
Tante volte gli utenti di Facebook (stiamo dunque parlando di centinaia di milioni di persone) si sono interrogati sulla bontà dei loro post. Se violenti e razzisti, sapevano già al momento della pubblicazione di rischiare la cancellazione da parte dei moderatori del social più noto al mondo. Per quanto riguarda invece gli articoli sul sesso, nel senso più ampio del termine, il rischio era diverso a seconda di... che cosa? I parametri sono noti, ma fino ad un certo punto. Anche perché il rischio di scivoloni è sempre dietro l'angolo e magari si finisce per cancellare una foto che è l'immagine di un conflitto, come successo lo scorso settembre in Norvegia con la famosa foto della bimba vietnamita che corre nuda piangendo, bruciata dalle bombe al Napalm. Adesso è il The Guardian a rivelare come "ragiona" Facebook e quali sono le regole per moderare e censurare al meglio i contenuti indesiderati e da biasimare senza troppe discussioni. 

The Guardian: 'FB decide su sesso e violenza in 10 secondi'. La replica
THE GUARDIAN CRITICA FACEBOOK
O meglio come funziona la moderazione sul social più importante e conosciuto del pianeta. Il noto giornale The Guardian in realtà finisce per puntare il dito contro il colosso, imputandogli in particolare il fatto di prendere decisioni importanti (quali appunto la rimozione di un post) in poco tempo, anche in 10 secondi. Una fonte del quotidiano sostiene che "Facebook non è in grado di controllare i suoi contenuti, è cresciuto troppo in fretta, raggiungendo dimensioni enormi". Difficile per esempio reagire in casi come il cosiddetto 'revenge porn' (cioè le persone lasciate che si vendicano postando immagini intime e personali per danneggiare l'ex partner): in molte situazioni occorre decidere se l'immagine è appropriata, spiega l'Ansa, "in meno di 10 secondi", vista la mole di lavoro per i moderatori.

LA REPLICA DI FACEBOOK
Come risponde l'azienda? "Mantenere le persone al sicuro su Facebook è la cosa più importante che facciamo. Lavoriamo duramente per rendere Facebook più sicuro possibile pur consentendo libertà d'espressione". È "qualcosa che prendiamo molto sul serio". Così la compagnia di Menlo Park replica tramite un portavoce alle rivelazioni del Guardian sulle regole e le linee guida segrete del social per la moderazione di argomenti sensibili sulla piattaforma. A scriverlo puntualmente è sempre l'Ansa. Facebook dunque non solo si difende dalle accuse, ma aggiunge che sta implementando il suo sforzo per offrire un servizio ancora migliore. "Mark Zuckerberg di recente ha annunciato che nel corso del prossimo anno aggiungeremo tremila persone al nostro team di operazioni nel mondo - oltre alle 4.500 che abbiamo oggi - per rivedere milioni di segnalazioni che riceviamo ogni settimana e per migliorare il lavoro in modo da farlo più velocemente". Lo ha detto Monika Bickert, Head of Global Policy Management di Facebook.

IL "GIOCO" DEL CORRIERE
Ma in che modo dunque opera Facebook? Come si comportano i moderatori, coloro che ricevono le segnalazioni e sono chiamati a decidere se rimuovere o meno un post? Se lo è chiesto anche uno dei principali quotidiani italiani, Il Corriere della Sera, sull'edizione online di ieri. "Ecco alcune delle immagini arrivate ai moderatori del social network e la decisione che hanno preso in base alle linee guida del social network. Tu cos'avresti fatto? Scoprilo se i tuoi ragionamenti seguono le regole della piattaforma fondata da Mark Zuckerberg" si legge, quindi ecco alcune segnalazioni su cui il lettore può giudicare cosa fare per poi scoprire se ha ragionato o meno come Fb. 

#facebook #theguardian #post 

 
caricamento in corso...
caricamento in corso...