Cybersecurity: Le regole segrete della cancellazione dei post su Facebook

Le regole segrete della cancellazione dei post su Facebook

Bullismo, hate speech, offese religiose, sono bannate dal codice etico della piattaforma secondo regole talvolta curiose: è possibile pubblicare la foto di un personaggio famoso mentre fa la pipì

Arturo Di Corinto per Cybersecurity del 15 marzo 2017

Facebook definisce in dettaglio le condizioni d’uso del suo servizio ma ha sempre rifiutato di rendere pubbliche le regole di cancellazione dei contenuti scorretti pubblicati sulla sua piattaforma. Adesso che si parla tanto di censura sul web, di bollino rosso e di multe per le notizie false sui social network, forse è ancora più utile conoscere quali logiche sottostanno alla scelta di Facebook di cancellare alcuni post e non altri.

La Süddeutsche Zeitung, giornale tedesco di lungo corso, con uno scoop che curiosamente non ha ottenuto grandi rilanci sulla stampa è venuto a conoscenza di quei criteri perché i suoi giornalisti alcuni mesi fa hanno avuto accesso ai documenti interni dei moderatori e li hanno pubblicati con alcuni ritocchi editoriali – comprese le immagini che vi presentiamo – per proteggere le fonti. Vediamo quali sono.

Le regole segrete di Facebook

La prima cosa da dire è che gli impiegati dedicati alle funzioni di controllo dei post vengono preparati con un corso di formazione che li aiuta a capire cosa va cancellato e cosa no. Inoltre vengono forniti di una sorta di manuale che spiega step by step la logica da applicare alla revisione dei contenuti.

 

Secondo le fonti di Süddeutsche Zeitung il logo in basso a destra, un cuore con un globo sarebbe il simbolo del dipartimento aziendale che definisci le regole di cancellazione.

Facebook agisce contro l’hate speech il linguaggio dell’odio, perché “crea un ambiente che intimidisce ed esclude in cui la gente non ha voglia di condividere”.

Un ambiente di questo tipo infatti è contrario al business model di Facebook che si basa sulla profilazione degli utenti e l’utilizzo dei metadati delle conversazioni in gruppi e chat per offrire pubblicità mirata dentro e fuori la piattaforma. Quindi per avere questi dati bisogna invogliare le persone a condividere contenuti e interagire con la comunità degli “amici” quanto più possibile, per esporci alla pubblicità che viene pagata anche in relazione al “valore” e al numero delle persone che vi sono esposte.

 

Il linguaggio dell’odio non è permesso

Il capitolo sull’hate speech comincia con la spiegazione dei criteri che un post deve esprimere per essere cancellato come violazione delle regole: specificatamente, un attacco verbale a una “categoria protetta” (protected category). Facebook decide quali siano queste categorie che attualmente includono:

  • Appartenenza religiosa
  • Etnia
  • Disabilità o gravi malattie
  • Identità di genere
  • Orientamento sessuale
  • Provenienza nazionale
  • Razza
  • Sesso

Tutti gli attacchi basati su uno o più di queste categorie vengono cancellati.

Non si attacca chi è socialmente fragile o esposto

E tuttavia ci sono delle sotto-categorie che godono di una protezione aggiuntiva e sono elencate nello stesso capitolo:

  • Appartenenza politica: Repubblicani, Democratici, socialisti, Comunisti, rivoluzionari.
  • Aspetto: biondi, bruni, alti, bassi, grassi, magri
  • Continente di provenienza: Europa o Sud America. Vengono considerati a rischio i seguenti termini: Asiatici (protetti nella categoria “Razza”); Americani o Australiani
  • Età: giovani, anziani, teenagers
  • Stato lavorativo: disoccupati, docenti, dottori, piloti e astronauti
  • Stato sociale: ricchi, poveri, middle class

Religioni come l’Islam, il cattolicesimo e Scientology godono di un’attenzione particolare, per cui sono protetti gli appartenti ai gruppi religiosi ma non le religioni. Lo stesso vale per i singoli paesi. Si può parlare male di Germania e Francia ma non si può parlare male di tedeschi e francesi.

La combinazione delle “categorie” protette

Una categoria protetta (Protected Category, PC, in breve per le linee guida) se combinata con un’altra categoria protetta  produce una nuova categoria. Una pagina del documento lo spiega bene con l’esempio delle donne irlandesi, caso in cui si applicano le categorie nazione di provenienza e sesso.
Così se qualcuno scrive: “le donne irlandesi sono stupide è chiaro che il post contravviene alle regole e viene cancellato”.

 

 

Comunque combinare una categoria protetta e una non protetta può determinare una categoria non proteggibile come “teenagers irlandesi” di cui viene protetta la provenienza o appartenenza nazionale ma il termine teenager non viene protetto. Perciò se scrivo “I teenager irlandesi sono stupidi” il mio post non sarà cancellato.

 

Le affermazioni non consentite

La panoramica alla fine del capitolo sull’hate speech illustra una serie di regole. Le regole sui migranti sono molto interessanti Ad esempio, dire “fucking Muslims” non è permesso perché secondo voi? Perché viene protetta l’appartenenza religiosa, ma la frase “fucking migrants” è permessa perché i migranti sono una categoria “quasi protetta” – una definizione introdotta dopo le polemiche sull’accoglienza dei migranti che si sono diffuse in Germania.

Questa regola stabilisce che le espressioni d’odio contro i migranti sono accettabili dentro certi limiti: battute come “i migranti sono sporchi” vanno fatte passare, quelle che dicono che i migranti sono sporcizia, no.

NO al bullismo

Fare una lista di persone sulla base dell’aspetto fisico o dei tratti di personalità è considerato bullismo e quindi non è permesso. Questa regola stabilisce che una foto di tre donne nude in spiaggia va cancellata se la descrizione chiede chi sia la più eccitante. Ma se le linee guida fossero sempre seguite le dichiarazione di Donald Trump sull’aspetto delle donne andrebbero pure cancellate (“a small-chested woman has a hard time getting ten out of ten points”).

 

Comportamenti autolesionisti sono permessi

Atteggiamenti autolesionisti come forse anche i tatuaggi e il piercing estremo possono essere pubblicate se non invitano gli altri a “farlo a casa”. Secondo Facebook, si tratta di una questione di contesto: immagini di anoressia estrema (picture on the top right) o di bambini feriti (bottom right) non rompono le regole. Fintanto che non sembrino un’istigazione.
I documenti di Suddeutsche dichiarano che le persone che postano immagini di ferite “autoinflitte” andrebbero messe in contatto con chi li possa aiutare. Ma nessuna delle immagini sotto va cancellata.

 

Personaggi pubblici

Facebook come ogni servizio editoriale (è una media company) pone grande attenzione al ruolo pubblico di individui fuori e dentro il suo network e distingue le figure pubbliche dai semplici cittadini. Leader di partito, parlamentari e stelle dello spettacolo godono di una privacy attenuata e perciò è importante capire i criteri che individuano le persone famose. Questi criteri secondo il manualetto di cancellazione includono:

  • Persone elette
  • Chi ha più di 100.000 followers sui social media
  • Persone che lavorano nei media o fanno dichiarazioni pubbliche
  • Persone che sono apparse nelle cronache più di cinque volte negli ultimi due anni

 

Funzioni corporali

il capitolo sul bullismo tratta anche le funzioni corporee: non sono permesse immagini in contesti umilianti come questi nell’immagine, specie se accompagnate da didascalie ironiche:

 

Mentre le immagini qui sotto possono essere ignorate, ci sono immagini che non vengono cancellate ma solo rimosse quando sembrano espressione di bullismo.

 

Una regola rimane curiosa: se le celebrità sono riprese mentre eseguono funzioni corporali il post che li riguarda va ignorato.