I RISVOLTI PROBLEMATICI DELLA PROPOSTA DI REGOLAMENTO SULL’INTELLIGENZA ARTIFICIALE PER IL SETTORE DIFESA

La nuova proposta della Commissione europea mira a regolamentare il settore dell’Intelligenza Artificiale, delineando differenti categorie di rischio. Tra queste, sono vietate tout court le pratiche dal “rischio inaccettabile” quali i sistemi di identificazione biometrica, con talune deroghe previste per il settore della Difesa. 

Il 21 aprile 2021 la Commissione europea ha presentato una innovativa proposta di Regolamento, al fine di dotare l’Unione europea di una legislazione armonizzata e comune sul tema dell’Intelligenza Artificiale (d’ora in avanti IA).

L’IA rientra tra le c.d. “tecnologie emergenti e dirompenti” (Emerging Disruptive Technologies) ed è composta da meccanismi che, simulando l’intelligenza umana, permettono ai sistemi di comprendere, apprendere ed interagire con l’utente, al fine di velocizzare e migliorare sensibilmente taluni servizi. 

L’obiettivo della proposta di Regolamento

La proposta risulta essere il primo vero tentativo, esperito concretamente da una potenza mondiale, di regolamentare sistematicamente l’IA. 

Sebbene l’Unione europea non vanti il primato nella competizione internazionale, considerando che cede il passo agli Stati Uniti, i quali detengono un vantaggio globale sostanziale e alla Cina, che si sta rapidamente imponendo come potenza mondiale nel settore, l’Europa, con la proposta di Regolamento, vuole dimostrarsi un affidabile attore di riferimento e pioniere nell’ambito della tutela dei diritti umani connessi all’impiego di tecnologie di IA dannose.

Difatti, con la normativa proposta, indirizzata prevalentemente agli utenti, l’Unione europea tenta di arginare il potere dei competitors statunitensi e cinesi, imponendo rigidi criteri a providers esterni, laddove il risultato finale dei sistemi (c.d. “output”) venga adoperato in uno degli Stati membri dell’Unione, alle autorità pubbliche in paesi terzi ed organizzazioni internazionali allorché usino sistemi di IA per programmi di cooperazione giudiziaria o investigativa con l’Unione europea o con uno Stato membro.

Il fine ultimo della proposta è quello di formulare un quadro giuridico capace di incoraggiare lo sviluppo tecnologico, assicurando all’Unione una leadership nel settore, garantendo, al contempo, ai cittadini europei, l’applicazione di sistemi di IA affidabili, in linea coi valori e diritti fondamentali dell’Unione europea. 

Pertanto, il principale cruccio europeo risulta quello di garantire la piena sicurezza agli utenti che adoperino sistemi di IA, assicurando una risposta adeguata anche in caso di eventuali vulnerabilità come, ad esempio, l’elusione o confusione da parte di agenti esterni di alcuni algoritmi dei sistemi, con conseguente violazione e compromissione dei dati personali dell’utente.

Il divieto per le pratiche dal “rischio inaccettabile”

La proposta in esame, dunque, al fine di rendere più schematica e sistematica la sua applicazione, delinea diverse categorie di rischio per le svariate pratiche di IA esistenti: dal rischio “inaccettabile”, “elevato”, “limitato” e “minimo”, sulla scorta di una valutazione di conformità di tali pratiche ai valori dell’Unione europea.

La metodologia di identificazione del rischio implica l’impossibilità di adoperare pratiche particolarmente dannose, qualificate come dal rischio “inaccettabile” poiché costituenti una chiara minaccia per i cittadini, quali, a titolo esemplificativo, gli strumenti di manipolazione delle persone attraverso tecniche subliminali o indirizzati a specifici gruppi vulnerabili.

Per quanto concerne tali sistemi dal rischio “inaccettabile”, la proposta prevede che gli eventuali trasgressori possano incorrere in sanzioni amministrative fino a 30 milioni di euro o, nel caso si tratti di aziende, del 6% del proprio fatturato annuo complessivo. 

Tra le pratiche vietate figurano l’assegnazione da parte delle autorità pubbliche, tramite sistemi di IA, di “punteggi sociali” (si pensi alla profilazione tramite “Social Credit System” sviluppato in Cina) e i sistemi di identificazione biometrica in tempo reale in spazi pubblici. 

Sull’ultimo argomento, tuttavia, la proposta di Regolamento ha inserito una deroga che consentirebbe alle autorità statali l’utilizzo del sistema di identificazione biometrica per ragioni legate alla tutela della sicurezza, alla lotta contro il terrorismo o per ricerche di vittime di rapimenti.

IA e Difesa: benefici e fattori di rischio

Sul punto, è bene notare come l’utilizzo dell’IA permei ormai da tempo il settore della difesa e della sicurezza e sia peraltro destinato ad aumentare nei prossimi anni, fino a superare qualsiasi altra tecnologia alternativa nel settore aerospaziale. 

Basti pensare ai veicoli a guida automatica (quali per esempio i droni o missili), le armi autonome che, dopo aver individuato il bersaglio con sistema di rilevamento biometrico, si abbattono su di esso ed i sistemi di IA per identificare gli individui ricercati. 

Questo arsenale, ampiamente adoperato nell’ambito militare, risulta avere numerosi vantaggi, soprattutto di carattere economico e di rischio per le persone coinvolte, tuttavia presenta problemi pratici ed etici, che la proposta di Regolamento ha tentato di mettere in luce e, al contempo, limitare.

I problemi principali riguardano la minaccia per i dati personali, potendo tali mezzi invasivi operare un controllo sui soggetti senza alcuna base giuridica, e, soprattutto, un chiaro pericolo per l’incolumità degli individui, la quale dipenderebbe, in tali casi, da meri calcoli di algoritmi e che non sarebbe al riparo da eventuali errori o malfunzionamenti.

Difatti, sebbene la proposta rappresenti solo una bozza della normativa che sarà effettivamente applicabile, viene già in tale sede chiarito che sarà vietato l’utilizzo di questi mezzi definiti dal “rischio inaccettabile”, salvo che per i motivi elencati, così da evitarne una sconsiderata, quanto pericolosa, diffusione.

Per concludere, si deve rilevare come la Commissione abbia effettuato un minuzioso lavoro di bilanciamento tra esigenze antitetiche e contrapposte: regolamentare l’applicazione dell’IA, in una visione antropocentrica, ad esclusiva tutela degli utenti e, d’altra parte, lanciare l’Europa sul mercato dell’IA come vero attore globale, attraverso la sollecitazione rivolta ad aziende e providers di offrire i propri servizi nel vecchio continente, conformandosi a taluni requisiti.

Come spesso accade, tuttavia, il settore della difesa e della sicurezza pare godere di una sorta di “esenzione qualificata” dall’applicazione pedissequa della regolamentazione, giustificata sulla scorta di una deroga per esigenze di ordine pubblico, incolumità e sicurezza. 

Eppure, a ben vedere, sembrerebbe che proprio questo settore necessiti di una regolamentazione specifica, magari a livello globale, con caveat e provvedimenti puntuali che non consentano ad eventuali violazioni di sfuggire dalla rete dei divieti imposti.  

Lascia un commento

Your email address will not be published.

Latest from LAW & RIGHTS