Ecco come Facebook sceglie i post da rimuovere
Che Facebook applichi la censura ai contenuti del proprio network è cosa risaputa. Ovviamente, il social media non può lasciare circolare ogni tipo di messaggio, testo, video o immagine e, per porre un controllo severo e capillare alla rete, si avvale di migliaia di moderatori sparsi in tutto il mondo. Il filtro di controllo si basa su un doppio livello di monitoraggio in cui la prima fase è gestita attraverso sistemi automatici di scansione semantica e, in un secondo step, attraverso il controllo manuale dei singoli operatori. E se l’automatizzazione si dimostra efficace per propagande terroristiche o per materiale pornografico, ben più complicato resta da definire il confine in altre aree di discussione generale.
Il reportage di Süddeutsche Zeitung
Negli anni, si è consolidata la convinzione secondo cui la scure della censura di Menlo Park vibrasse un po’ a caso e senza un reale codice comportamentale che facesse da bussola. La testata tedesca Süddeutsche Zeitung ha condotto un reportage dimostrando che, effettivamente, il codice etico del social network sia piuttosto confuso e con molte zone grigie. Chiare le linee d’azione relative alle discriminazioni di tipo sociale, religioso e sessuale: Facebook tutela le diversità e colpisce i contenuti che istigano all’odio o alla violenza. Le policy restano però ambigue, dato che è possibile abbandonarsi in un’affermazione contro il Cattolicesimo o l’Islam ma non contro i cattolici o i musulmani. Lo stesso identico discorso vale per le differenze territoriali e nazionali.
LEGGI ANCHE: Marketing, ecco come Apple “spierà” le nostre abitudini di consumo
L’hate speech, ovvero un’elocuzione contenente incitazioni all’odio, è vietato se indirizzato a determinate tipologie di categorie sociali ritenute da proteggere in riferimento a caratteristiche religiose, etniche, sessuali o ad invalidità fisiche e/o cerebrali. Allo stesso tempo, non è possibile, ad esempio, affermare che gli immigrati sono ‘sporcizia’ però possiamo postare sulla nostra bacheca che sono sporchi; in pratica, è apparentemente consentito utilizzare un aggettivo ma non associare un sostantivo con intento denigratorio. Il codice etico della piattaforma, infatti, vieta l’associazione tra gruppi sociali e concetti diffamatori quali ‘assassino’, ‘terrorista’ o ‘criminale’ ma non specifica nulla in particolare sull’utilizzo di attributi per descrivere tali comunità.
Con le immagini la questione si fa anche più complessa e il filtro dei moderatori tiene in considerazione l’associazione tra il supporto visivo e il commento a integrazione dell’immagine; è possibile pubblicare immagini forti e d’impatto emotivo a scopo di sensibilizzazione ma non di derisione o di godimento.
Grande attenzione è posta anche ai temi del bullismo e del cyberbullismo, questione che a Menlo Park hanno sempre dimostrato di portare particolarmente a cuore: non solo intimidazioni, minacce o atti di scherno ma anche l’istigazione all’autolesionismo o la redazione di classifiche sulla base di caratteristiche fisiche o attitudinali sono considerati atti di vessazione e comportano la rimozione del post.
Il tabloid teutonico ha analizzato anche le condizioni di lavoro degli stessi moderatori, 600 dei quali risiedono nella società con sede a Berlino della Bertelsmann Arvato, che collabora con la piattaforma in questo senso. I professionisti della moderazione vivono la propria quotidianità in perenne contatto con contributi scabrosi, violenti, turpi, assorbiti in una dimensione che abbraccia il peggio della rete e delle nefandezze umane. Una questione che resta aperta e su cui non sembra, ad oggi, che esistano margini di manovra per una riformulazione del sistema di azione.