Le regole di Facebook per moderare i contenuti: è bufera

L’indagine del Guardian rivela quanto del sistema sia incompleto, sopratutto su temi come violenza, istigazione all’odio e sesso

Posso postare una foto di Barbie che ha appena fatto a pezzetti Ken? O quella di un gattino con i baffi alla Hitler? Facebook ha cambiato le regole dei giochi fin da subito. Giochi sociali, realtà virtuali e realtà fisiche, modi di affrontare le tragedie e modi di comunicare qualsiasi cosa: un contenitore planetario che ospita quotidianamente due miliardi di utenti. Ma cosa c’è dietro questa macchina mondiale? Cosa succede quando un utente segnala un contenuto non appropriato o ritenuto lesivo? Finora le risposte erano incomplete ma ora, grazie un’indagine del Guardian, le carte in tavola sono svelate.

Barbie in versione Dexter

credits foto: corrieredellasera.it

Il Guardian ha avuto accesso a più di 100 fra manuali, reportistiche e diagrammi di flusso che svelano i progetti del social network per eccellenza, concernenti la moderazione di contenuti su violenza, incitamento all’odio, terrorismo, pornografia, razzismo e autolesionismo (ma non mancano anche linee guida sulle partite truccate e il cannibalismo). Un’analisi che mette in luce tutte le fragilità di un sistema posto sotto pressione dai governi Europei e statunitense: in questi documenti infatti emerge la difficoltà sul cosa mostrare e cosa no e sopratutto viene a galla prepotente, la criticità di rimanere a cavallo fra il concedere libertà e diventare censori.

Normare due miliardi di utenti è un’operazione difficile se non impossibile e indubbiamente non ci sono precedenti in nessuna storia del mondo. Esistono policy come nelle normali multinazionali: manuali guida di consuetudini e linee di comportamento in risposta ad atteggiamenti e contenuti pubblicati dagli utenti. Lo scoglio dei numeri può solamente offrire un’idea approssimativa della problematicità di creare un modello di regole a cui attingere per ogni evenienza: si parla di circa sei milioni e mezzo di segnalazioni a settimana relative solamente agli account fake e che i soli 4.500 moderatori analizzano quotidianamente e che sono costretti dunque a prendere decisioni importanti in una manciata di secondi.

Trump "hitlerizzato"

Credits foto: corrieredellasera.it

Per esemplificare la situazione, basta prendere ad esempio alcuni casi raccolti dal Guardian. L’immagine di Trump con i baffi alla Hiltler e sul fondo una svastica è tollerata da Facebook così come il contenuto “Per spezzare il collo di una stronza, applica tutta la tua forza in un punto al centro della sua gol” perché considerata una minaccia generica. Mentre l’immagine di Osama Bin Laden verrà rimossa perché simbolo terroristico e stesso destino accadrà per una minaccia come “Distruggerò l’ufficio di Dublino di Facebook”. Andrà rimossa anche un’immagine che ritrae una sfilata nazista perché riporta il simbolo del partito dell’estrema destra ma una segnalazione su un fumetto che ritrae Hitler non verrà presa in considerazione perché le immagini a fumetto sono ammesse.

Quanto emerge dai “Facebook files” è letteralmente un campo minato. Il discrimine con cui il moderatore ha a che fare spesso comporta implicazioni quasi soggettive, per cui alcune minacce non sono da prendere in considerazione perché frutto dei leoni da tastiera e altre invece si perché colpiscono una categoria protetta dal social network. L’esempio più lampante è questo: se un utente scrive “Qualcuno dovrebbe sparare a Trump“, il contenuto verrà eliminato perché Trump è un capo di Stato mentre “Ucciderò tutti quelli con i capelli rossi” non viene considerata una minaccia reale perché troppo generica. Moltiplichiamo tutto questo per due miliardi di utenti che provengono da tutto il mondo e che quindi hanno culture diverse alle spalle.

Hitler in versione Simpson

credits foto: corrieredellasera.it

Contesto e intenzioni sono alla base soprattutto di valutazioni riguardanti due tematiche complicate e che si dimostrano essere affrontate in maniera insufficiente: quello dei contenuti sessualmente espliciti e della violenza. Se da una parte si eliminano quelli che sono i porno ricatti e si ammette la nudità in pochissimi casi, dall’altro si permette che vengano pubblicati post sull’aborto a patto che non ci siano immagini di nudo. Ma anche la violenza se non viene mostrata con sadismo può trovare alloggio fra le pagine del social network perché potrebbe essere un metodo di denuncia e presa di coscienza. Il video di un tentato suicidio non verrà rimosso perché colui che lo sta girando potrebbe salvarsi grazie a quel video. Vedo dunque sono?

Ma quale potrebbe essere la soluzione che crei fondamenta stabili in un mondo instabile come questo? A Facebook tanto si critica e di strada da fare ce n’è. Un problema è stabilire che tipo di azienda sia e voglia essere: per sopravvivere dovrà ergersi a censore mondiale? Le prime critiche derivano proprio dalla sua natura: è un contenitore che ospita contenuti quindi ha delle responsabilità. Miliardi di responsabilità che quotidianamente pubblicano commenti, foto, video e che si immettono nel flusso intercontinentale che si aggiorna secondo per secondo. Le reazioni alla pubblicazione dei “Facebook files” non si sono certo fatte attendere. Qualcuno fa notare che regolamentazioni di questi tipi non dovrebbero essere emesse a porte chiuse ma dovrebbero essere frutto di una collaborazione da più parti e di certo più trasparenti. Facebook fa scelte ogni secondo e influenza la vita di tutti. Quanto vorrà dunque investire nella ricerca di una soluzione?

Giulia Papapicco

Classe 1988, laurea in Lettere e via, a New York per un anno facendo indigestione di pancakes e sciroppo d'acero ma soprattutto avendo modo di conoscere culture nuove. Scrivo per passione da sempre perchè solo in questo modo riesco a vedere le cose come sono veramente.

2 Commenti

Lascia una risposta

L'indirizzo email non verrà pubblicato. i campi richiesti sono contrassegnati*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.