Il “Comitato per il controllo” di Facebook è realtà

 

Cos’è il “Comitato per il controllo” annunciato dal cofondatore di Facebook Mark Zuckerberg? Che si tratti di uno “scaricabarile” di responsabilità?


«Domani verrò a casa tua, siederò comodo sulla poltrona più elegante e, mentre stai guardando la televisione, mi consegnerai il telecomando senza accorgertene: deciderò io cosa vedrai da ora in poi, per quanto tempo e in che ordine. Deciderò io su cosa ti farai un’idea, come e da che fonti. Cosa ne dici? Dimenticavo, non hai scelta, ci vediamo domani».

È un’immagine sgradevole, irritante, che pensi non possa mai realizzarsi, soprattutto con uno sconosciuto. Questo pensiero fa sorridere probabilmente, eppure è quanto già successo nelle vite di tutti noi, quando un ragazzo che possiede gran parte della nostra attenzione quotidiana ha deciso per tutti che non solo il suo algoritmo sarebbe diventato fine e adatto ai nostri gusti, ma che un comitato di esperti avrebbe scelto anche cosa fosse giusto o sbagliato guardare.

Nel 2019 Mark Zuckerberg ha annunciato la fondazione del “Comitato per il controllo”, un panel di esperti sparsi per il mondo che fungerà da appello in tutte quelle occasioni in cui Facebook rimuoverà un contenuto dalla sua piattaforma per violazione degli standard della comunità.

Scrivendo già queste poche righe è difficile scegliere quale tema affrontare per primo: ogni concetto trasuda un modello di business e di gestione della comunità fuori controllo, un castello di carta con fondamenta trasparenti ben salde in dinamiche di potere, denaro e apparenza.

A (quasi) tutti è nota la capacità del social network di apprendere cosa attiri maggiormente la nostra attenzione e di proporci quindi, in modo sempre più ottimizzato, contenuti che ci trattengano dentro la piattaforma per farci interagire maggiormente con ogni cosa. Il grandissimo passo in avanti di oggi da parte di Facebook, è stata l’ammissione in maniera semplicemente cristallina e innocente che un gruppo di persone (per quanto illuminate), raccolte in un organismo fondato dal soggetto che dovrebbero controllare, decide per 2 miliardi di individui cosa sia giusto e cosa no.

Ma facciamo un passo indietro. Era il 2018 quando il CEO di Facebook dichiarava in un’intervista: «Internet deve essere libero, per tutti»: il sogno degli internauti, nel bene e nel male. Il sogno di una comunità autogestita e capace di costruire il proprio futuro a partire dai buoni propositi, superando ogni incidente di percorso. Per questo nel 2019 nessuno credette davvero all’annuncio della fondazione del “Comitato per il controllo”: sembrava più una notizia per far stare buoni governi, moralisti e dubbiosi. Il futuro di Internet, era libero, per tutti.

Nel tempo abbiamo assistito a Cambridge Analytica e a tanti altri scandali, la piattaforma è diventata sempre più vulnerabile di fronte l’opinione pubblica. Il 12 ottobre 2020 la prima plateale virata del colosso di Menlo Park sulla censura: Zuckerberg decide di bannare dalla piattaforma tutti i contenuti ritenuti negazionisti dell’Olocausto, perché «Tracciare le giuste linee tra ciò che è e non è un discorso accettabile non è semplice, ma stanti lo stato attuale del mondo, credo che questo sia il giusto equilibrio». Due giorni dopo, il 14 ottobre 2020, Facebook annuncia che vieterà le pubblicità ai post anti-vaccini grazie all’intervento UNICEF e senza grandi dissertazioni etico-morali inerenti la censura.

Certamente parliamo di argomenti di censura su cui la stragrande maggioranza delle persone si troverà d’accordo, ma il problema non è questo. Le criticità sono molteplici.

1. Chi ha deciso, in primis, che le “Regole della comunità” di Facebook siano eticamente corrette e accettabili in ogni cultura e per la maggior parte di quella comunità di 2 miliardi di persone che la popolano;

2. Chi ha conferito a un solo uomo, coadiuvato da tecnici e specialisti, illimitati poteri di censura su una platea così vasta di individui, travalicando qualsiasi entità di controllo e nazionale;

3. Chi ci dice che domani, invece di censurare chi crede che i vaccini facciano del male o chi nega le atrocità della Shoah, non verranno oscurati pensieri politici “lontani della realtà”, idee “pericolose”, tradizioni considerate “desuete”.

Il problema non è tanto il domani, ma l’oggi. Se ne parla proprio in questi mesi con un nuovo algoritmo: Facebook è ora accusato di favorire i siti di informazione di destra, proprio durante la campagna elettorale americana.

La Tv, i giornali, la radio: tutti i principali media di massa del nostro tempo sono stati in ogni epoca soggetti ad autorità indipendenti che pubblicamente (nei sistemi sani) sono state espressione di visioni anche diametralmente opposte. Ci sono stati gli ordini professionali a porre un limite alle c.d. fake news e a improvvisati portatori di verità, a stabilire le regole di un gioco che, con errori e storpiature, ha dato comunque spazio a tutti per potersi esprimere e portare avanti le proprie idee.

Oggi, su internet, non c’è nulla di tutto ciò. C’è solo un ragazzo, uno sconosciuto, che con il suo “clan” ristretto sceglie per te, con il tuo telecomando.

Qualcuno dirà che del buono c’è: non ci si nasconderà più dietro il falso mito dell’algoritmo oggettivo. Purtroppo non è così. Inizialmente, il Consiglio si occuperà solamente di appelli sui casi riguardanti i contenuti già rimossi da Facebook: tutto il resto continuerà a essere gestito da poveri moderatori o dall’algoritmo, e nessun algoritmo può essere oggettivo. I codici sono scritti da persone, con obiettivi e linee guida, idee e sentimenti che li muovono dal profondo.

Ci saranno anche coloro che si schiereranno al fianco della piattaforma, sostenendo che per informarsi veramente è necessario cercare sui libri, partecipare a eventi o approfondire i vari temi grazie ai mezzi di comunicazione tradizionali. Queste persone dovrebbero aprire gli occhi e rendersi conto che ben 6 utenti su 10 non leggono i post che condividono: questa è la realtà.

Allora cos’è questo “Comitato per il controllo”, uno scaricabarile di responsabilità? Molto peggio: si tratta di brand washing, un diverso modo di pulirsi la faccia davanti al pubblico, semplicemente indicando la luna con il dito e facendo perdere agli interlocutori la meraviglia del nostro satellite. Una pura mossa di marketing, in un mondo dove l’apparenza è sostanza.

Questa decisione non avrà alcun impatto sulla vita reale, vista la mole di informazioni prodotte su Facebook ogni minuto e la loro velocità di diffusione. 

Questa decisione non solo non è utile, ma apre le porte a due idee profondamente sbagliate. Un controllato non può creare il proprio organismo di controllo e vestirlo di indipendenza. Ma soprattutto, un gruppo di soggetti non eletti non può prendere scelte per un’intera comunità: questa è la base della democrazia. L’accesso libero e senza condizioni all’informazione è la base della democrazia: per questo non può essere affidato ai privati.