Perché alla Casa Bianca si parla di intelligenza artificiale

Tra i partecipanti alla riunione tenuta da Kamala Harris sul tema dell’intelligenza artificiale figurano i CEO di Google, Microsoft e OpenAI, fondatrice di ChatGPT.


Ad inizio maggio la Casa Bianca ha ospitato un importante incontro tra i principali amministratori delegati della Silicon Valley con l’obiettivo di discutere di intelligenza artificiale (IA), dei suoi impieghi e dei rischi per gli utenti.

Come specificato dalla vicepresidente Kamala Harris, il vertice è il frutto di uno sforzo dell’amministrazione Biden di limitare i rischi dell’intelligenza artificiale, considerato il forte aumento delle minacce alla sicurezza dei cittadini e ai loro diritti civili. 

kamala harris intelligenza artificiale

Infatti, l’immenso potenziale dell’intelligenza artificiale e la sua rapidissima diffusione ed evoluzione, sebbene possa costituire un valido strumento per affrontare le sfide di una società sempre più complessa, presenta allo stesso tempo numerosi rischi sia per i sistemi democratici sia per i diritti dei cittadini che ne fanno parte.

L’incontro alla Casa Bianca si colloca in una serie di iniziative prese dalla Casa Bianca mirate a regolare e monitorare l’espansione dell’intelligenza artificiale e il suo impiego. Già l’anno scorso, l’amministrazione Biden ha pubblicato una bozza su un vero e proprio bill of rights sui diritti dell’IA, volta a stabilire degli strumenti per garantire la protezione dei dati forniti dagli utenti. 

Allo stesso modo, il Dipartimento del Commercio si è mobilitato e ha pubblicato un quadro contenente apposite linee guida per la circoscrizione dei rischi legati allo sviluppo dell’IA, mentre agenzie governative come la National Science Foundation prevedono di spendere circa 140 milioni di dollari in nuovi centri di ricerca dedicati all’IA.

Se, da una parte, i sistemi automatizzati sono oggetto di un’espansione ed un potenziamento senza precedenti, dall’altra, la lentezza di una concreta risposta legislativa a tutela dei cittadini ha generalmente messo in allarme i sistemi democratici. 

In particolare, l’amministrazione Biden si dichiara prudente dal momento che l’incidenza dello sviluppo dell’intelligenza artificiale può avere effetti imprevedibili sull’economia, la geopolitica e la criminalità.

biden intelligenza artificiale

Mentre in UE si negozia una regolamentazione dell’intelligenza artificiale e in Cina le autorità censurano i suddetti sistemi, Washington si impegna a «monitorare lo sviluppo e l’uso di sistemi automatizzati e promuovere l’innovazione responsabile». 

In particolare, il diffuso clima di incertezza riguardo i rapidi sviluppi dell’IA coinvolgono lo stesso Pentagono: Craig Martell, attuale chief della sezione dedicata al digital e all’intelligenza artificiale del Dipartimento della Difesa, si dichiara «spaventato a morte» dai modelli linguistici generativi dell’IA (come il diffusissimo ChatGPT), i quali costituiscono una potenziale minaccia per la diffusione inarrestabile di disinformazione e fake news grazie alla loro raffinata efficienza e credibilità.

In ambito bellico, invece, gli Stati Uniti discutono ampiamente l’impiego delle armi autonome, il cui funzionamento dipende in gran parte dall’IA: esemplificativi di ciò sono i switchblade drones, droni la cui esplosione viene garantita non da un controllo umano ma da sistemi di riconoscimento che identificano i potenziali obiettivi.

A tal proposito, il Pentagono ha pubblicato un importante documento sulle armi autonome in cui si sottolinea come l’esercito americano stia sì contemplando l’uso delle armi autonome ma coadiuvato dall’attivo coinvolgimento dell’uomo a livello di coordinamento e revisione. 

Nella sua brevità, il fascicolo specifica i livelli di autorità nell’approvazione delle nuove armi e fornisce un’analisi dei loro ultimi aggiornamenti tecnici senza però stabilire un’esplicita regolamentazione. Nel complesso, la chiara intenzione del Pentagono è mantenere il passo nel rapido sviluppo tecnologico delle armi autonome già perseguito da Russia e Cina. 

Ciò che è emerge con chiarezza è che l’impiego dell’IA sia nel settore pubblico che privato richiede una chiara identificazione di responsabilità etiche, legali e morali. In particolare, nel sistema americano, l’intenzione dell’amministrazione di affermare la propria leadership potrebbe passare attraverso il tentativo di modellare un’innovazione responsabile che sia a servizio della democrazia.


rosalinda accardi

Rosalinda Accardi

Classe 1999, studio Scienze Politiche e Relazioni Internazionali e lavoro nel settore degli appalti. Coltivo la curiosità come "forma più pura di insubordinazione".