Così Facebook gestisce i contenuti su violenze, abusi e suicidi

aperturaIl Guardian è entrato in possesso di centinaia di documenti di Menlo Park su come vengono affrontate pubblicazione e cancellazione di materiali sconvenienti.

«I video di morti violente sono inquietanti, ma possono aiutare a creare consapevolezza». Si potrebbero riassumere così i documenti pubblicati dal Guardian sulle linee guida di Facebook per la delicata gestione di contenuti di sesso, terrorismo, nudità, abusi e quant’altro: idee chiare, confini molto labili.

Per il giocattolone, si fa per dire, da quasi 2 miliardi di utenti la capacità di intervenire rapidamente su materiale sconveniente è diventata prioritaria, con i governi di mezzo mondo che sono pronti ad applicare salatissime multe (vedi la Germania).

Il materiale ottenuto dalla testata britannica – più di cento fra manuale di formazione interna, fogli di calcolo e diagrammi – è relativo allo step precedente: cosa va cancellato o meno. E, soprattutto, perché?«I video di morti violente sono inquietanti, ma possono aiutare a creare consapevolezza».

Sono le famose «linee guida» cui Facebook fa riferimento ogni volta che utenti, giornalisti o autorità vanno a bussare alla sua porta chiedendo lumi sulle modalità di intervento. Fa un po’ impressione, in considerazione delle dimensioni raggiunte dalla piattaforma, vedere come le regole siano in alcuni casi descritte in rudimentali slide che devono orientare la decisione in «una decina di secondi» dai 4.500 moderatori, destinati a diventare 7.500 nel corso del prossimo anno, di Menlo Park. Come scrive Nick Hopkins citando una fonte interpellata dal suo giornale, «Facebook non può avere il controllo dei suoi contenuti. È cresciuto troppo in fretta». 

Nel documento «violenza esplicita» Facebook parte con una netta posizione sul sadismo: «Non permettiamo alle persone di condividere foto o video in cui persone o animali vengono feriti con intenti sadici». Entra anche nel merito della definizione, distinguendo fra sadismo e sadismo sessuale, con tanto di esempi per i moderatori. «Mi piace vedere quanto soffre», «mi piace vedere soffrire gli animali». Chiaro, quantomeno a livello macroscopico, cosa non va.

Vengono però aperti alcuni spiragli: sono ammesse esternazioni su figure pubbliche, richieste di giustizia o supporto alla pena di morte («Impiccate quel figlio di…»). Chi si può definire figura pubblica? Chi ha più di 100 mila seguaci.

Inoltre, bisogna proteggere «persone o i gruppi di persone vulnerabili» da minacce esplicite. L’elenco comprende politici, attivisti, giornalisti, stranieri, sionisti, senzatetto, drogati. Quindi: «Qualcuno spari a Trump» è una frase che non dovremmo mai vedere su Facebook. Ma precise indicazioni su come «spezzare il collo a una cagna» non vanno considerate come minacce credibili. Stesso discorso per «pestiamo i bambini grassi» o «prendiamo a calci persone con i capelli rossi»: esternazioni ammesse. L’ipotesi di mettere tutti «gli stranieri in camere a gas» non è invece accettata.