Il fascino (in)discreto della sorveglianza di massa

Condividi

La sorveglianza di massa e il controllo governativo dei dati, in nome della sicurezza collettiva, potrebbero creare più problemi di quanti ne risolvano.


Negli ultimi due decenni, a partire dall’attentato alle torri gemelle, in tutto il mondo è andato via via imponendosi il mantra securitario della sorveglianza di massa come lotta attiva al terrorismo internazionale. Con l’evolversi della minaccia terroristica, tutti gli stati occidentali hanno risposto con operazioni di intelligence, sostenute da sostanziosi investimenti nel campo della sorveglianza e della videosorveglianza urbana. A queste politiche antiterrorismo hanno contributo le nuove tecnologie: in particolare, il mercato dei dati rappresenta un settore chiave anche nel campo della sorveglianza.

Moli gigantesche di dati vengono immagazzinate e rielaborate per la profilazione e l’erogazione personalizzata di servizi da parte delle grandi multinazionali del web: di fatto ad avere i nostri dati sono delle aziende private che, grazie a forme di regolamentazione sulla privacy più o meno stringenti, rispondono (o dovrebbero rispondere) di un loro uso improprio ad entità nazionali o sovranazionali. Nel caso di una sorveglianza statale, pur con il nobile intento di salvaguardare la sicurezza della collettività, diventa difficile avere la garanzia che i nostri dati non vengano usati impropriamente.

Dopo le rivelazioni di Edward Snowden, secondo cui la National Security Agency spiava, con il pretesto della lotta al terrorismo internazionale, le telefonate e le email di milioni di cittadini americani ed europei nonché di diversi capi di stato alleati, si è tentato di correre ai ripari in tutto il mondo regolamentando l’accesso ai dati privati da parte di aziende ed agenzie pubbliche. Per risolvere le criticità date dal Patriot Act, ed in particolare della sezione 215 che permetteva un livello di sorveglianza speciale per quei cittadini “che al di là di ogni ragionevole dubbio” fossero vagamente legati ad attività terroristiche, gli USA hanno promulgato il Freedom Act.

Per proteggere i cittadini dei propri stati membri e per proteggersi dallo spionaggio dell’alleato americano, l’Unione Europea ha promulgato quella che, in termini di salvaguardia della protezione dei dati, è la regolamentazione più stringente al mondo (anche se sembra che le denunce all’autorità per la protezione dei dati raggiungano numeri irrisori). Regolamentazioni simili, seppur con diverse criticità e allo stato embrionale, sono comparse negli ultimi anni anche in Australia e Russia: in quest’ultimo caso, il governo sta lavorando per la creazione di un database unico, nonostante la Federazione Russa abbia aderito qualche anno fa alla Convenzione europea per la protezione dei dati, che vieta l’unificazione di database raccolti in contesti diversi.

Una realtà diversa rappresenta la Repubblica Popolare Cinese: il Great Firewall cinese e le infrastrutture legate ad esso, nonché l’assenza nel mercato delle grandi multinazionali americane quali Facebook, Google e simili, rendono più difficili azioni di spionaggio e raccolta dati. Inoltre la Cina ha fatto della sorveglianza di massa la sua arma migliore per il controllo del dissenso, anche in questo caso camuffato per sorveglianza in chiave antiterroristica: attivisti pro-democrazia, manifestanti tibetani e di Hong Kong diventano quindi dei pericolosi terroristi o agenti di potenze straniere, mentre la minoranza uigura dello Xinjiang diventa un sorvegliato speciale esclusivamente per via del suo credo religioso.

È su questa scia che si inserisce la costituzione di un database, da parte del dipartimento per la sicurezza della regione dello Xinjiang: si tratta dell’IJOP, acronimo di “Integrated Joint Operations Platform”. Il sistema riceve informazioni sulla popolazione civile da diverse fonti: si va dal tradizionale inserimento manuale di dati da parte di agenti di polizia, al tracciamento “intelligente” da parte di app per smartphone, alle ricevute di acquisti, al riconoscimento di targhe automobilistiche grazie ai punti di controllo posti in posizioni strategiche. Una volta inseriti nel sistema IJOP, si è sottoposti ad un controllo costante ed intrusivo.

Grazie ad una lista di individui inseriti nel database fatta trapelare da HRW, è stato possibile individuare le caratteristiche per le quali si viene inseriti in IJOP. Fatta eccezione per attività di consumo ed erogazione di contenuti online riconducibili al terrorismo ed escludendo caratteristiche riconducibili alla fede musulmana e alla cultura degli uiguri, le discriminanti per l’inserimento nel database sono a metà strada tra il ridicolo e l’inquietante. Rendersi telefonicamente irrintracciabili, essere millenial o utilizzare app per la condivisione file peer-to-peer (Zapya nel caso cinese), indispensabili in territori in cui internet è poco diffuso, o anche solo l’impiego di una VPN, un sistema di camouflage dell’indirizzo IP – l’etichetta digitale dell’apparecchio con cui siamo connessi ad internet.

L’aspetto più inquietante del progetto IJOP è legato alla condivisione dei dati raccolti tra le varie agenzie, con accesso a database di dati biometrici o riconoscimento facciale: la comunità scientifica ha preso di recente le distanze dall’operazione di raccolta di materiale genetico dal 10% della popolazione maschile cinese da parte del governo. Con uno sforzo relativamente irrisorio, si potrebbe riuscire ad ottenere una mappa genetica molto più sostanziosa del 10% raccolto, utilizzando esclusivamente dati relativi al cromosoma Y e ottenendo informazioni relative ai ceppi familiari. Questa è un’operazione senza precedenti per cui tutte le nazioni del mondo hanno mostrato remore etiche.

Molto più comune è invece il controllo governativo di applicazioni di messaggistica o l’ottenimento da parte dei governi dei dati raccolti da aziende del mondo web. Per citare la cinese Zapya, risale al 2019 la notizia di un’operazione di controllo da parte della polizia cinese dell’app: era sufficiente aver scaricato l’app per essere detenuti. La polizia è riuscita ad ottenere informazioni sui dati condivisi dalla popolazione ma non è chiaro come ciò sia potuto succedere.

Un’operazione simile è stata effettuata anche dal governo russo, con l’app di messaggistica istantanea Telegram. L’applicazione ha fatto della garanzia di anonimato e della protezione dei dati il suo cavallo di battaglia, con non pochi problemi: data la diffusione in Europa ed in particolare in Russia ed Europa dell’est, il Cremlino ha preteso le chiavi di crittaggio impiegate, per riuscire a rintracciare contenuti a sfondo terroristico (sempre la stessa scusa). Ad un rifiuto secco degli amministratori dell’app dell’aeroplanino di carta è seguito un down dei server – apparentemente slegato dalla disputa – con successiva consegna delle chiavi: privacy in cambio di sicurezza.

Neanche questa magra consolazione si è avuta nella vicenda Cambridge Analytica, che è rimasta un’intricata matassa fatta di innocenti quiz su Facebook, estrazione e vendita di dati a terze parti, membri del consiglio di amministrazione dell’azienda diventati elementi chiave dell’internazionale sovranista.

Se all’idea che qualcuno ci legga i messaggi o le email, o ci ascolti le chiamate, non si riesce velocemente ad abituarsi, a degli occhi elettronici perennemente puntati addosso, che ci guardano dagli angoli più impensabili delle nostre città, ci abbiamo fatto però velocemente il callo. È questa probabilmente la forma di sorveglianza più utilizzata ancora oggi ed anche la più tollerata, probabilmente perché ritenuta la meno invasiva e lesiva della nostra privacy. Però non è un caso se uno dei simboli delle proteste contro il governo cinese di Pechino ad Hong Kong è l’abbattimento delle torrette delle telecamere di videosorveglianza. Così come non è un caso se i manifestanti per proteggersi dal riconoscimento facciale automatico, durante le proteste di piazza, impiegano laser ed ombrelli scuri.

Gli abitanti di Hong Kong non sono le uniche vittime degli algoritmi di riconoscimento facciale di Pechino: la sorveglianza nei confronti della popolazione uigura dello Xinjiang non si limita al dispiegamento di informazioni proveniente da database incrociati tra loro. È stato progettato da Huawei un sistema per il riconoscimento facciale: esso è in grado di individuare un membro dell’etnia uigura dalle sue caratteristiche somatiche. La messa a punto di un sistema di intelligenza artificiale simile rivela come ci sia un piano deliberato di individuazione dei soggetti ritenuti scomodi e di come tutto l’apparato industriale e tecnologico ne sia complice.

Neanche l’Europa è riuscita a resistere al fascino dell’intelligenza artificiale impiegata per motivi di sorveglianza: sono stati di recente siglati dei contratti per un valore di 100 milioni di euro, per l’acquisto di droni senza pilota da parte dell’agenzia Frontex, per il controllo delle frontiere. La componente intelligente sta in un sistema di riconoscimento e inseguimento di imbarcazioni che abbia lo scopo di fungere da deterrente per gli scafisti. Questo solleva un ulteriore problema etico: siamo davvero disposti a correre il rischio che a fare la scelta sbagliata, o anche solo ad indirizzare la nostra decisione, sia una macchina?

Quel che è certo è che sistemi di riconoscimento facciale, intelligenze artificiali per il riconoscimento di forme, movimenti ed azioni, richiedono un addestramento basato su dati provenienti dalla nostra realtà, dati a loro volta raccolti e smistati secondo il nostro gusto e il nostro background, nonché i nostri bias. È un problema che hanno sollevato in Silicon Valley (insieme a criticità di tipo ambientale, legate all’enorme impatto che si nasconde dietro l’addestramento delle reti neurali). Il rischio è che ad impiegare reti addestrate male, si rischi di rendere ancora più razzista la società in cui viviamo.

È quello che traspare da quanto detto sul sistema di Huawei per il riconoscimento degli Uiguri ma la situazione è analoga negli USA con l’impiego di sistemi di riconoscimento facciale da parte delle forze dell’ordine. Con le proteste legate al movimento “Black lives matter”, tutti i maggiori produttori di prodotti di intelligenza artificiale per il riconoscimento facciale (IBM, Amazon e Microsoft) hanno deciso di sospendere la fornitura di servizi alle forze di polizia.

Questa decisione potrebbe sembrare in linea con lo spirito della protesta ma in realtà nasconde una vulnerabilità dei sistemi: è stato mostrato come i sistemi messi a punto, in particolare Rekognition di Amazon, abbiano un’accuratezza sensibilmente inferiore nell’individuazione di persone afro-americane, in particolare di donne.

Appare dunque chiaro come sia fondamentale impiegare i dati, ma soprattutto la tecnologia, in modo appropriato, per non rischiare di aumentare le disuguaglianze e disumanizzare la società. La tendenza al controllo repressivo del dissenso e alla cancellazione di tutto ciò che appare diverso da noi, oltre a mostrare una faccia chiaramente antidemocratica, sembra essere la naturale tendenza della nostra società organizzata: quasi una tendenza ad un’entropia al contrario, dove l’ordine e il rigore assoluto rappresentano quanto di più disumano possibile. E se prestiamo attenzione, non appena i campanelli di allarme iniziano a suonare, l’unico modo è reagire con del sano ed umano caos.


Salvatore Giancani

Curioso su tutto ed esperto di niente, in perenne equilibrio tra l'essere geek e l'essere nerd, ho una cotta per la fotografia, la musica e i colori (ma non sembrano ricambiare)

Un pensiero su “Il fascino (in)discreto della sorveglianza di massa

I commenti sono chiusi.

error: Contenuto protetto