Decidiamo oggi per un domani sostenibile

L’intelligenza artificiale nella pubblica amministrazione: opportunità e rischi alla luce dell’AI Act

Il Regolamento Ue 2024/1689 definisce il quadro europeo sull’intelligenza artificiale, rappresentando anche un riferimento per un adeguato uso dei sistemi di AI nella PA. Vantaggi e dubbi per l’azione amministrativa.

di Giuditta Occhiocupo e Saverio Lovergine

lunedì 14 ottobre 2024
Tempo di lettura: min

La Pubblica Amministrazione (PA) ha da tempo adottato forme di sperimentazione di sistemi di intelligenza artificiale per automatizzare e semplificare i procedimenti amministrativi.

Tali sistemi stanno assumendo un ruolo sempre più attivo negli iter procedurali della PA, determinando una metamorfosi del procedimento da “atto a mero supporto elettronico” ad “atto ad elaborazione elettronica”, generando decisioni autonome di algoritmi di AI fondate su un processo non ricostruibile (explainability) e favorendo un processo decisionale che, con l’apporto delle nuove tecnologie e dell’ampia gamma di strumenti di analisi dei dati, risulta basato sull’evidenza (evidence based decision making) e sui dati (data based decision-making).

Processi innovativi che, a fronte di indubbi vantaggi in termini di semplificazione del funzionamento della macchina burocratica e dell’erogazione di più evoluti servizi all’utenza, ingenerano dubbi di incompatibilità con i principi di tutela della persona e di garanzia giuridica in termini di diritto di accesso alle informazioni, di partecipazione al procedimento, di protezione dei dati personali, di trasparenza, di equità sociale e di dignità personale.

Peraltro, finora la PA si è mossa in un quadro normativo internazionale, europeo e nazionale carente o perlomeno non adeguatamente aggiornato in materia.

Senonché, la rapida evoluzione dell’AI, ha spinto l’Unione Europea ad avviare nel 2021 un iter parlamentare concluso con l’adozione del Regolamento (UE) n. 2024/1689  del 13 giugno 2024 (noto anche come Artificial Intelligence Act, AI Act, in vigore da agosto 2024 e che verrà pienamente applicato dal 2 agosto 2026) volto all’istituzione di un quadro giuridico uniforme, finalizzato alla promozione dell’innovazione, alla diffusione di una AI “antropocentrica e affidabile” e alla protezione dagli effetti nocivi, dai rischi e dai possibili pregiudizi agli interessi pubblici, ai valori e ai diritti fondamentali tutelati dalla Carta dei diritti fondamentali dell’UE.

PAntascienza: 15 racconti sulla pubblica amministrazione del futuro

Un’introduzione all’antologia di narrativa fantascientifica a tema PA pubblicata da Themis. Spunti su intelligenza artificiale, automazione dei servizi pubblici, privacy, identità digitale, forme innovative di governo e molto altro.  

di Francesco Grasso, autore e curatore della raccolta

Nelle considerazioni relative alle ragioni dell’intervento normativo, il legislatore europeo, infatti, ha evidenziato come l’uso dell’AI possa presentare molteplici benefici, ma anche criticità derivanti da un utilizzo improprio e dalla sua capacità di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Pratiche che il Regolamento ha definito dannose “in quanto contrarie ai valori dell’Unione relativi al rispetto della dignità umana, alla libertà, all’uguaglianza, alla democrazia e allo Stato di diritto, nonché a diritti fondamentali quali quello della non discriminazione, della vita privata e dei minori” (Considerando 28).

Del resto, il Regolamento rappresenta il risultato di studi, analisi e confronti relativi alle potenzialità e ai rischi connessi all’uso dell’AI, avviati negli scorsi anni tra le autorità europee ed esperti della materia e destinati inevitabilmente a proseguire anche in vista della sua applicazione negli Stati membri.

Per una sintetica sistematizzazione delle opportunità e dei rischi connessi all’uso dell’AI, l’articolo “Artificial Intelligence: threats and opportunities” (Intelligenza artificiale: minacce e opportunità, del 20 giugno 2023) del Parlamento europeo è da ritenersi particolarmente significativo anche ai fini dello sviluppo di ulteriori riflessioni e della messa a punto di  interventi regolatori nazionali.

In esso, le opportunità derivanti dall’utilizzo della tecnologia di AI vengono ritenute molteplici, spaziando dalla leadership dell’UE nell'industria digitale all’impatto positivo sulla vita delle persone.

Con un’infrastruttura digitale avanzata e normative che tutelano la privacy, l’AI potrebbe infatti posizionare l’UE come leader nell’economia dei dati, promuovendo altresì notevoli miglioramenti in settori quali quello della salute, dell’accesso a servizi personalizzati e sostenibili, dell’istruzione e del lavoro a distanza.

Tramite l’AI può essere potenziata anche la sicurezza sul lavoro attraverso l’automazione di compiti pericolosi e la creazione di nuove opportunità occupazionali.

L’AI, consentendo lo sviluppo di nuovi prodotti e di servizi più efficienti, con un incremento della produttività lavorativa stimato tra l’11 e il 37% entro il 2035, può rappresentare un’importante leva anche per l'innovazione.

L’uso dell’AI può inoltre ridurre i costi e rendere più efficienti i servizi pubblici (es. trasporti, educazione e gestione dei rifiuti), contribuendo al raggiungimento degli obiettivi di sostenibilità, attraverso una potenziale riduzione delle emissioni di gas serra entro il 2030.

Tuttavia, la crescente dipendenza dai sistemi di AI può comportare anche minacce e potenziali rischi. Tra essi, emergono quelli relativi al sottoutilizzo o sovrautilizzo della tecnologia, che possono tradursi in opportunità mancate (es. minori possibilità di crescita delle persone) o in un eccesso di investimenti in applicazioni inadeguate.

Cosa rischiamo con l’AI?

Valutiamo i pericoli a cui andiamo incontro con l’intelligenza artificiale. Importante assicurarsi che siano distribuite nella società e vengano accompagnate da una serie di pesi e contrappesi.

Un altro fattore di rischio concerne la questione della responsabilità per i danni causati dall’AI. Infatti, in caso di produttori ritenuti irresponsabili, potrebbe venir meno l’incentivo a fornire prodotti e servizi di qualità, originando il rischio di compromettere la fiducia delle persone nella tecnologia.

Un ulteriore elemento di criticità riguarda la minaccia ai diritti fondamentali e alla democrazia. I risultati prodotti dall’AI dipendono infatti da come è stata progettata e dai dati che utilizza che possono essere intenzionalmente o involontariamente distorti, portando a decisioni influenzate da pregiudizi. Un suo uso improprio, come nel caso del riconoscimento facciale o della profilazione online di individui, può comportare una violazione del diritto alla protezione dei dati e può minacciare la pluralità del dibattito pubblico.

Altra questione delicata è quella dell’impatto sui posti di lavoro: a fronte di nuove opportunità, l’AI potrebbe infatti anche portare all’eliminazione di posti di lavoro. In merito, per prevenire la disoccupazione e garantire una forza lavoro qualificata, si rivelano strategiche un’istruzione e una formazione adeguate.

Ulteriori fattori di rischio potrebbero essere rinvenuti in relazione al tema della concorrenza, che potrebbe essere alterata dall’asimmetria informativa generata dall’AI, favorendo chi ha accesso privilegiato ai dati e alla sicurezza. In quest’ultimo caso, le criticità deriverebbero da applicazioni di AI mal progettate, utilizzate impropriamente o “hackerate”.

Infine, occorre tenere presenti possibili problematiche legate alla trasparenza, qualora non sia chiaro se si stia interagendo con una macchina o con una persona, in tal modo generando potenziali manipolazioni nei comportamenti degli utenti.

In sintesi, a fronte dello straordinario potenziale offerto dall’uso dell’IA, emerge l’esigenza di affrontare con attenzione le relative implicazioni per garantire un futuro sostenibile ed equo, che permetta la tutela dei diritti dei cittadini e della democrazia.

Quindi, anche alla luce dell’evoluzione interpretativa giurisprudenziale e in vista della definizione di un quadro giuridico nazionale (è in corso di esame, presso le competenti Commissioni parlamentari del Senato, l’AS 1146 recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”), la PA deve essere ripensata in chiave digitale, per diventare un’amministrazione moderna e trasparente, che garantisca l’accesso ai servizi ai cittadini e alle imprese in una prospettiva di governance democratica, in grado di gestire la complessità e i variegati riflessi (giuridici, economici, etici e sociali) che l’utilizzo dei sistemi e degli algoritmi di AI comporta e di coniugare la tutela dei diritti con le opportunità e i vantaggi offerti dall’avanzamento della tecnica.

Una governance che si muova in un’ottica di rete tra soggetti pubblici e privati coinvolti nel processo di digitalizzazione e che promuova, laddove possibile, la condivisione, il trasferimento e lo scambio di tecnologia, di misure, di politiche, di strumenti e di migliori pratiche, in modo da agevolare l’adozione di un’AI affidabile e sicura ai fini della protezione delle persone, delle imprese e dell’ambiente, della democrazia e dello Stato di diritto, nonché dello sviluppo di innovazione e occupazione.

Il principio fondante di un’AI affidabile e sicura deve essere tutelato anche con riferimento all’implementazione dei sistemi di AI nei processi amministrativi digitali della PA. Strategicamente, l’adozione dell’AI nella PA deve essere in linea con gli obiettivi a lungo termine dell’amministrazione digitale.

La “Strategia italiana per l’intelligenza artificiale 2024-2026” (Dipartimento per la Trasformazione Digitale e AGID, 2024) che aggiorna la precedente edizione 2022-2024, favorisce e sostiene uno sviluppo dell’IA sicuro, responsabile e inclusivo. Il documento presenta una disamina delle azioni strategiche da realizzare relative a quattro macroaree, tra cui la Pubblica Amministrazione, ciascuna caratterizzata da specifici obiettivi. Due sono gli obiettivi individuati per la PA:

  1. Supportare i processi amministrativi;
  2. Favorire la fruizione dei servizi.

Per raggiungere tali obiettivi sono state delineate sei azioni strategiche:

  1. Linee guida per promuovere l’adozione dell’AI;
  2. Linee guida per il procurement;
  3. Linee guida per la realizzazione di applicazioni di AI;
  4. Semplificazione per cittadini e imprese;
  5. Efficientamento della PA;
  6. AI nelle scuole per la PA.

Tale documento rappresenta un ulteriore importante supporto al percorso di modernizzazione, inserendosi nel più ampio contesto di transizione digitale della PA, che consentirà alle amministrazioni pubbliche di rispondere efficacemente alle esigenze di cittadini e imprese, di migliorare la qualità dei servizi offerti e di incrementare l’efficienza e l’efficacia dei processi amministrativi, contribuendo in modo significativo allo sviluppo economico e sociale del Paese.

di Giuditta Occhiocupo, Ricercatrice Senior Inapp e Saverio Lovergine, Inapp, Unità centrale Pcm-Dfp “Riforma del mercato del lavoro della PA". Le opinioni espresse in questo lavoro, che rappresenta uno sviluppo del paper Inapp “Elementi di analisi sull’impiego di sistemi e algoritmi di IA nelle decisioni amministrative”, impegnano la responsabilità degli autori e non riflettono le posizioni dell’Ente di appartenenza.

Copertina: Markus Spiske/unsplash