Perché Facebook antepone ancora il profitto alla sicurezza

Frances Haugen, ex dipendente di Facebook e autrice del leak di documenti dell’azienda, spiega perché il social privilegia i contenuti dannosi anziché limitarli.


A quasi tre anni dallo scandalo di Cambridge Analytica, la diffusione di un’ingente mole di documenti interni riporta Facebook (ora Meta) al centro della discussione pubblica. La notizia, diffusa da una serie di inchieste del Wall Street Journal basate sull’analisi di documenti tenuti segreti al pubblico dall’azienda, dimostra come questa sia non soltanto consapevole del proprio ruolo nella diffusione di messaggi dannosi, ma anche colpevole di averli coscientemente veicolati in quanto fonte significativa di profitto.

Mentre la reazione dell’opinione pubblica getta il social nella sua più grande crisi dopo lo scandalo del 2018, Francis Haugen, ex dipendente di Facebook, decide di uscire allo scoperto e rivela di essere la whistleblower autrice dell’enorme fuoriuscita dei documenti. Prima in un’intervista al programma 60 Minutes del canale statunitense CBS e dopo in una testimonianza dinanzi a una sottocommissione del Senato, l’ingegnera informatica parla direttamente al pubblico dei motivi che l’hanno spinta ad agire contro l’azienda per la quale ha lavorato, denunciando come il social sistematicamente anteponga il proprio interesse economico alla tutela dei propri utenti, costituendo una significativa minaccia alla democrazia.

Facebook, infatti, privilegerebbe tutti quei contenuti che garantiscono maggior engagement, ovvero un più alto coinvolgimento degli utenti rispetto ad un determinato contenuto, espresso attraverso la triade di interazioni tipiche del social – like, condivisioni e commenti. Al fine di mantenere il pubblico attivo sulla propria piattaforma e garantire il più alto numero di interazioni, corrispondente ad un proporzionale profitto economico, Facebook (come qualsiasi altro social network) tende a dare maggiore visibilità agli argomenti più commentati e condivisi sul social. 

Il sistema dell’engagement diventa problematico quando i contenuti che suscitano le reazioni più forti da parte degli utenti sono notizie false, violenza e messaggi d’odio: la whistleblower accusa gli algoritmi di dare a questi argomenti priorità al fine di aumentare il coinvolgimento degli utenti e incrementare il profitto, invece di limitarne la diffusione, come affermato più volte dall’azienda. Le dichiarazioni sono schiaccianti e inchiodano nuovamente l’azienda californiana, la quale smentisce con forza quanto detto dall’ex dipendente, sebbene la testimonianza di Haugen abbia una base inoppugnabile: i risultati delle ricerche condotte dall’azienda stessa

Francis Haugen ha 37 anni e una solida conoscenza dei giganti della Silicon Valley – il suo curriculum la vede in posizioni di rilievo per Google e Pinterest; diventerà invece dipendente di Facebook nel 2019 come membro del “Civic Integrity team”, una squadra di circa 200 persone creata con l’obiettivo di osservare l’andamento delle elezioni politiche nel mondo e studiare in che modo il social network avrebbe potuto essere usato illecitamente dai governi. Un lavoro immenso da portare a termine entro tre mesi. 

La significativa asimmetria tra l’ingente quantità di dati presenti nel social e l’esiguo investimento in risorse adatte alla garanzia della sicurezza, secondo Haugen, oltre a rendere impossibile l’organizzazione di un apparato efficace per la tutela degli utenti, è un palese sintomo dell’intenzionale opposizione di Facebook al contenimento della diffusione di messaggi di violenza e odio.

A scoraggiare ulteriormente l’ex dipendente è stato lo scioglimento della sua squadra di lavoro, proprio qualche settimana prima dell’assalto a Capitol Hill, la cui organizzazione fu in parte favorita dalla circolazione tramite Facebook di notizie false. Così, poco prima di dimettersi, l’ingegnera ha deciso di copiare e raccogliere di nascosto decine di migliaia di pagine di ricerche interne con l’intenzione di accusare pubblicamente l’azienda.

Una delle ricerche più significative tra quelle portate alla luce da Haugen riguarda l’impatto di Instagram, di proprietà di Facebook dal 2012, sulla salute mentale dei propri utenti. Almeno dal 2019, sono stati condotti focus group, sondaggi online e studi i cui risultati dimostrano quanto l’azienda sia consapevole degli effetti del suo prodotto sulla salute mentale degli adolescenti.

In uno dei documenti relativi alle ricerche condotte si precisa come il 32% delle ragazze adolescenti intervistate siano convinte che Instagram peggiori l’immagine che hanno del proprio corpo. In un’altra ricerca l’azienda afferma di essere consapevole del fatto che gli utenti più giovani identifichino in Instagram una delle maggiori cause degli alti tassi di disturbi d’ansia e depressione. Eppure, in pubblico, i dirigenti di Facebook hanno costantemente perpetrato l’idea che gli effetti positivi di Instagram abbiano un impatto superiore rispetto alle conseguenze negative. D’altronde, lo stesso Mark Zuckerberg aveva affermato che i social network avevano maggiori probabilità di avere effetti benefici sulla salute mentale. 

L’immensa mole di dati analizzati da Facebook rientra nel paradigma dei Big Data, il quale concepisce i social network non come semplici trasmettitori di informazioni, bensì come data collectors, cioè imponenti centri di raccolta ed elaborazione di dati emessi dagli utenti. Questa dinamica è contraddistinta da un significativo squilibrio tra una crescente concentrazione di informazioni e un numero volutamente ristretto di entità che le detengono.

Ciò che rende essenziali i Big Data per i social network sono gli innumerevoli modi in cui questi possono essere adoperati: elementi come le tendenze in termini di acquisti, le preferenze politiche o le abitudini quotidiane sono cruciali nella costruzione di un paradigma di tipo predittivo mirato al vantaggio dell’azienda. È fisiologico che un sistema basato sulle previsioni e sul coinvolgimento, se applicato su vasta scala, promuova messaggi ripetitivi e semplificati, i quali diventano mero riflesso di sistemi di credenza precostituiti: il risultato è la diffusione inarrestabile di messaggi dannosi e una forte polarizzazione tra gruppi di opinione opposti, i quali vengono volutamente allontanati dai meccanismi del confronto democratico.

Ed è proprio la gestione dei dati impiegati dagli algoritmi il punto cruciale della questione. La stessa Francis Haugen, in un’audizione al Parlamento Europeo, ha dichiarato come le nuove norme presentate dall’UE sui servizi digitali, le cosiddette Digital Service Act (DSA) e Digital Market Act (DMA), abbiano in sé il potenziale per «salvare le nostre democrazie».

Sebbene al momento si tratti di mere proposte, le quali quindi necessiteranno di superare un complesso iter per essere finalizzate, la whistleblower si è espressa positivamente nei confronti di quelli che si connotano come i primi tentativi concreti di fornire un quadro giuridico moderno, pertinente e realistico per i servizi digitali. Dall’istituzione di un’Agenzia europea per la gestione dei contenuti e degli algoritmi alla trasparenza sulla gestione dei dati da parte delle imprese private, il tentativo dell’UE mira a porre un rimedio all’asimmetria di conoscenza tra i giganti dell’high-tech e gli utenti che forniscono le proprie informazioni.

L’intervento di Francis Haugen non fa che confermare che le nuove minacce alle libertà individuali e ai principi democratici non partono necessariamente dall’innovazione tecnologica, bensì dal suo fragile sistema ideologico che, se non opportunamente rinnovato, è destinato a soccombere sotto i colpi inferti da sempre più insidiosi imperativi economici, politici e sociali. La democrazia ha bisogno di solidi strumenti di protezione e di un’apposita architettura ideologica che sia, prima di tutto, in sintonia con il tempo.

Rosalinda Accardi


rosalinda accardi

Rosalinda Accardi

Classe 1999, studio Scienze Politiche e Relazioni Internazionali e lavoro nel settore degli appalti. Coltivo la curiosità come "forma più pura di insubordinazione".