L’intelligenza artificiale in Ue e le tre sfide per tutelare i diritti

Uso non discriminatorio, protezione dei dati e contestabilità delle decisioni sono i tre campi d’azione su cui l’Agenzia europea per i diritti fondamentali chiede un deciso cambio di passo ad aziende e istituzioni europee.

di Andrea De Tommasi

L’Unione europea deve chiarire come le norme esistenti si applicano all’intelligenza artificiale. Le organizzazioni devono valutare come le loro tecnologie possano interferire con i diritti delle persone sia nello sviluppo sia nell’uso dell’AI”. Con queste parole Michael O’Flaherty, direttore dell'Agenzia europea per i diritti fondamentali (Fra) ha presentato il rapporto “Getting the future right: artificial intelligence and fundamental rights” pubblicato il 14 dicembre 2020. Un report con cui l’agenzia ha cercato di identificare le insidie nell’uso dell’intelligenza artificiale in quattro campi principali (attività di polizia predittiva, diagnosi mediche, servizi sociali e pubblicità), indagati attraverso oltre 100 interviste con organizzazioni pubbliche e private che già utilizzano l’AI. Come prevedibile, le aziende dichiarano di ricorrere ai software di intelligenza artificiale per ottenere una maggiore efficienza: per la stragrande maggioranza degli intervistati, nel settore pubblico e privato, l’AI garantisce più velocità, meno errori e costi ridotti, a fronte di una diminuzione delle risorse umane. I risultati del rapporto, secondo gli autori, sottolineano però che c’è ancora molto lavoro da fare, a tutti i livelli.

In primo luogo, la discriminazione è un argomento cruciale quando si parla di intelligenza artificiale. Alcuni studi citati nel rapporto hanno dimostrato che gli algoritmi di riconoscimento facciale basati sull'AI, ad esempio nelle tecniche di polizia predittiva, possono comportare percentuali elevate di errori di classificazione quando sono applicati ad alcuni gruppi demografici, come le donne e le persone appartenenti a minoranze razziali o etniche. Molti intervistati hanno notato che l'uso dell'AI, in generale, può discriminare, ma che i sistemi con cui stanno lavorando non lo fanno. Altri hanno indicato la convinzione che escludere le informazioni sui dati protetti sia una protezione sufficiente contro la discriminazione. In generale, tra gli intervistati la consapevolezza del potenziale di discriminazione contenuto nell’AI si è rivelata relativamente bassa. Ciò richiederà, secondo il Rapporto, lo stanziamento di ulteriori finanziamenti per la ricerca.

La protezione dei dati, assieme al diritto alla privacy, è il secondo terreno su cui si gioca il futuro dell’intelligenza artificiale in Europa. L’Unione europea, ha rilevato il Rapporto, dovrebbe chiarire ulteriormente come si applicano le norme sulla protezione dei dati in questo settore, nonché garantire maggiore trasparenza sulle implicazioni del processo decisionale automatizzato. Nelle interviste, i responsabili aziendali non erano sempre del tutto chiari sul loro utilizzo dei dati personali. “Spesso hanno descritto solo superficialmente i dati utilizzati. In diversi casi, hanno detto di usare dati non personali o anonimi, sostenendo che la protezione dei dati non fosse rilevante in questi casi”, si legge nel report.  In generale, gli esperti intervistati hanno evidenziato che il Regolamento europeo sulla privacy (Gdpr) è difficile da interpretare e manca di chiarezza quando si tratta di definire il processo decisionale automatizzato.

La terza sfida è garantire che le persone possano contestare le decisioni prese dai programmi di intelligenza artificiale. Le persone devono sapere quando viene usata l’AI e in che modo, nonché come e dove presentare un reclamo. Le organizzazioni che si avvalgono dell’AI devono saper spiegare in che modo il proprio sistema adotta decisioni. Un esperto ha spiegato che il problema più grande è che “le persone spesso non sanno che viene utilizzata l'intelligenza artificiale, perché le organizzazioni non sono trasparenti su questo”. Diversi intervistati hanno indicato che informare le persone che qualsiasi decisione presa su di loro si basi su strumenti (anche parzialmente) automatizzati è il primo passo per fornire l'accesso a eventuali reclami.

Il 30 dicembre anche l’Onu si è espressa sulle conseguenze indesiderate dell’AI, annunciando l’avvio di un’ampia consultazione nelle istituzioni e nella società civile per arrivare a definire una regolamentazione internazionale sull’intelligenza artificiale. Il problema, secondo gli esperti delle Nazioni unite, è che gli strumenti di AI vengono sviluppati così rapidamente che “né i progettisti, né gli azionisti, né i governi hanno avuto il tempo di considerare le potenziali insidie di queste nuove straordinarie tecnologie”. Insomma, la discussione è aperta.

Scarica il Rapporto

Leggi il comunicato dell’Onu

 

di Andrea De Tommasi

Martedì 12 Gennaio 2021