IA E DIRITTI UMANI: I RISCHI PER IL DIRITTO ALLA PRIVACY

Fonte Immagine: https://www.lumi4innovation.it/app/uploads/2020/07/controllo-accessi-biometrico-1024x507.jpg

Il rapporto 2021 dell’Alto Commissariato ONU per i diritti umani si propone di analizzare come l’evoluzione digitale e, in particolare il ricorso all’intelligenza artificiale, possa interferire nell’effettivo godimento del diritto alla privacy.

Il diritto alla privacy è un diritto umano fondamentale riconosciuto nei più importanti strumenti internazionali. Pertanto, il rapporto pubblicato il 13 Settembre scorso, sul diritto alla privacy nell’era digitale attribuisce opportunamente al diritto alla privacy un ruolo di «equilibrio tra il potere dello Stato e l’individuo», fondamentale per lo sviluppo di una società democratica.

Il report si sofferma, in particolare, sui settori in cui maggiormente si rendono evidenti le criticità che possano derivare da un uso «opaco» e sregolato dell’intelligenza artificiale. Innanzitutto, lo sviluppo di tecnologie così sofisticate potrebbe rivelarsi controproducente nel campo del data storage e del data processing: la disponibilità di informazioni personali facilmente reperibili, a causa della fragilità dei sistemi di immagazzinaggio dei dati, faciliterebbe l’intromissione illecita nella sfera privata degli utenti, lasciando incontrollata la circolazione e la diffusione di dati sensibili. Le preoccupazioni del Commissariato Onu si estendono, di conseguenza, alle ripercussioni sul godimento di svariati diritti umani, non solo del diritto alla privacy.

Inoltre, l’accesso incontrollato a questi sistemi permetterebbe di accedere ad un bagaglio eccezionale di informazioni tale da permettere di intercettare il comportamento umano e, attraverso di esso, “dirottare” anche le scelte e le aspettative degli utenti stessi.

La mancanza di regolamentazione, quindi, aprirebbe le porte ai possibili attacchi all’identità personale degli individui. Non a caso, infatti, nel report si sottolinea che il diritto alla privacy è «un’espressione della dignità umana ed è legato alla protezione dell’autonomia del singolo e della sua identità personale».  

A ciò bisogna aggiungere che i sistemi IA non sono esenti da errori, pertanto non affidabili al 100%: si pensi, ad esempio, all’individuo che venga erroneamente accusato di terrorismo e dunque privato della libertà. In tal caso, si aprirebbero le prospettive di molteplici lesioni dei diritti della persona e anche della sua dignità. 

Ulteriori preoccupazioni sono espresse, invece, sotto il profilo dell’impiego dei sistemi IA nei settori definiti strategici: sicurezza nazionale, polizia, giustizia, gestione dei confini nazionali. Sempre più Stati si avvalgono di strumenti in grado di creare profili-tipo, di classificare luoghi e siti di particolare interesse criminale, di identificare sospettati di attività terroristiche e, soprattutto, sempre più Stati ricorrono all’analisi di dati biometrici nei processi di identificazione.

Nonostante, da più parti, venga messa in discussione l’attendibilità di dati come ad esempio, impronte digitali, iridi o volti darebbe luogo a non poche implicazioni: oltre alla lesione della privacy degli individui, si paventa il rischio che l’intervento statale che deriverebbe da una eventuale identificazione possa in sé ledere il diritto all’equo processo, alla difesa, della libertà dall’arresto arbitrario. Senza contare che potrebbe dar luogo a discriminazioni oppure a identificazioni errate, poiché basate sulla sola classificazione e catalogazione empirica di “generi”, “etnie” e “razze”. 

Un altro aspetto da non sottovalutare riguarda il settore dei pubblici servizi e, in particolare, i servizi erogati nei contesti umanitari, dove la distribuzione di beni e servizi spesso dipende da previsioni e calcoli demandati a sistemi sofisticati di IA, in grado sì di intercettare fabbisogni e necessità della popolazione, ma a discapito dell’intromissione nella sfera privata delle persone, nella più totale assenza di misure legislative volte a regolamentare tali pratiche. 

Infine, il report si conclude con una serie di raccomandazioni che la Commissaria Bachelet rivolge agli Stati e alle grandi imprese. Per quanto riguarda i primi, ad essi si ricorda soprattutto l’importanza di:

  • Fissare la tutela dei diritti umani come necessità primaria; 
  • Disciplinare mediante legge il ricorso all’IA, in conformità con i principi di necessità e proporzionalità;
  • Interdire espressamente qualsiasi ricorso ai sistemi IA che non sia disposto nel rispetto del diritto internazionale;
  • Imporre moratorie su quelle pratiche che, attraverso l’impiego di tali sistemi, rischino di ledere i diritti umani, incluso il riconoscimento per mezzo di dati biometrici, almeno fino a quando le autorità responsabili non siano in grado di dimostrare l’assenza di un impatto reale sui diritti umani;
  • Disporre apparati legislativi e non, che siano in grado di prevenire e mitigare gli effetti sui diritti umani, assicurando anche l’accesso a rimedi efficaci alle vittime delle violazioni.

Quanto alle seconde, si chiede di:

  • Usare la dovuta diligenza nella progettazione, vendita e implementazione, tenendo conto delle possibili implicazioni sui diritti umani; 
  • Assicurare la partecipazione dei principali stakeholder nelle decisioni circa lo sviluppo e l’applicazione di sistemi IA, in particolare gli individui e i gruppi cui tali pratiche siano indirizzati;
  • Incrementare la trasparenza nell’utilizzo dei sistemi sofisticati di intelligenza e informare gli individui che ne siano destinatari;
  • Far fronte alla propria responsabilità di rispettare i diritti umani e di collaborare e partecipare ai rimedi previsti qualora queste abbiano causato o contribuito a eventuali violazioni dei diritti umani. 

Lo studio condotto ha permesso di evidenziare come i sistemi di intelligenza artificiale, o meglio, l’uso non regolamentato di essi, possa essere in grado di interferire sul rispetto dei diritti umani a tutto tondo, in uno scenario in cui la violazione del diritto alla privacy si configurerebbe solo come il punto di partenza di violazioni più gravi.

È fondamentale, dunque, che la collaborazione pubblico-privata in previsione del ricorso ai sistemi IA avvenga in maniera trasparente e che soprattutto si fondi su uno human rights based approach , affinché si garantisca ad ogni individuo «il godimento e l’esercizio dei propri diritti umani online e offline». Si auspica soprattutto, che l’accezione originaria negativa di questi strumenti venga rovesciata e che i sistemi di intelligenza siano trasformati in vere e proprie “armi strategiche” attraverso le quali sia persino possibile invocare, difendere ed esercitare liberamente i diritti umani. 

Lascia un commento

Your email address will not be published.

Latest from LAW & RIGHTS