Decidiamo oggi per un domani sostenibile

L’Eu AI Act e i suoi problemi

È nata la legislazione europea sull’intelligenza artificiale: numerose le misure per difendere privacy e copyright, ma il rischio è tagliar fuori l’Ue dalla corsa all’AI. Le aziende stanno già evitando di rilasciare i loro prodotti in Europa.

giovedì 11 luglio 2024
Tempo di lettura: min

Parliamo adesso della legge europea sull’intelligenza artificiale. Ne parliamo perché è importante e come argomento deve essere trattato, ma bisogna considerare che non sono un avvocato: quindi per una descrizione completa rimando al sito del Parlamento Europeo (ultimo aggiornamento 18 giugno 2024).

L'Eu AI Act è una legislazione ambiziosa approvata dal Parlamento Europeo che mira a regolamentare l'uso dell'intelligenza artificiale all'interno dell'Ue. Dopo essere stata approvata dal Parlamento europeo, gli Stati che compongono l’Ue hanno 24 mesi per approvare delle leggi nazionali che adattino questi regolamenti europei ai contesti statali.

Questa legge è stata strutturata per gestire le AI attraverso un approccio basato sul rischio, classificando i sistemi in diverse categorie di rischio (inaccettabile, alto, limitato e minimo) e imponendo requisiti specifici per ciascuna categoria. Ci sono poi alcune regole ulteriori (valide per tutti i sistemi di intelligenza artificiale) e alcune realtà esenti da questo genere di limitazioni.

Alcuni sistemi sono considerati a rischio inaccettabile e sono banditi. Questi includono la classificazione delle persone sulla base del comportamento o il riconoscimento facciale in tempo reale. L’esempio che si vuole evitare è il sistema classificazione dei cittadini (Social credit system) attivo adesso in Cina.

I sistemi ad alto rischio non sono banditi, ma richiedono trasparenza, una supervisione umana e una documentazione tecnica dettagliata oltre a un sistema di gestione di rischi, qualità dei dati e sicurezza del sistema.

Gestire le informazioni sensibili nelle AI: una proposta

Dopo le regole pubblicate da OpenAI si apre il dibattito sui limiti dell’intelligenza artificiale. Chi controlla il modo in cui le AI rispondo alle nostre ricerche? Questi strumenti hanno un enorme potenziale informativo, ma potrebbero essere usati per i fini sbagliati.

Quando i sistemi sono a rischio basso i consumatori devono comunque essere in grado di sapere quando stanno interagendo direttamente con un’AI o con un contenuto generato da un’intelligenza artificiale. E quando un’intelligenza artificiale genera un contenuto dopo essere stata educata su un dato materiale, bisogna avere accesso alla lista del materiale stesso su cui è stata allenata (che non deve peraltro essere protetto dal copyright). Oppure, bisogna ottenere il permesso dei detentori del copyright. Non esiste quindi un “fair use” che ne permetta l’uso.

Va notato che non tutti sono soggetti a queste limitazioni. Per esempio le forze dell’ordine possono usare i sistemi di riconoscimento facciale in luoghi pubblici per contrastare il terrorismo e ritrovare bambini scomparsi, cosa non permessa agli altri (rischio inaccettabile).

Vediamo un po’ di problemi con queste leggi e le inevitabili conseguenze:

1) L’idea che le intelligenze artificiali possono solo essere educate con materiale non protetto da copyright rende la maggior parte delle AI semplicemente irrealizzabili. Certo che gli artisti preferiscono che le AI non vengano educate sui loro materiali, ma loro stessi hanno usato i maestri del passato per sviluppare il loro stile. Le intelligenze artificiali hanno una fame di dati che è semplicemente incompatibile con la dieta ipocalorica dei documenti non coperti dal copyright.

2) Il Social credit system cinese è un sistema terribile. Una dittatura 2.0 dove qualunque libertà è soggetta a un algoritmo di controllo tanto preciso quanto ineluttabile che priva non solo della libertà, ma anche del sogno della libertà. Sicuramente dobbiamo evitare questo sistema. Ma rendere certi software di controllo illegali per tutti… tranne che per la polizia, non mi sembra la direzione giusta.

3) Il terzo punto è il più delicato, e quello che mi sta più a cuore. Secondo l’Eu AI Act bisogna dichiarare quando il contenuto è stato sviluppato da un’intelligenza artificiale. E qui mi sorge il dubbio che le persone che hanno sviluppato questa legge non usino essi stessi le intelligenze artificiali. La maggior parte dei contenuti non è sviluppato totalmente dall’intelligenza artificiale, e neanche totalmente dall’essere umano. Ormai siamo già al livello per cui il contenuto è quasi sempre il frutto di una collaborazione. Discuto di un articolo che voglio scrivere con una AI, poi lo scrivo io. È stato scritto dalla AI o da me? Dopo averlo scritto lo faccio correggere da un’intelligenza artificiale – per esempio Grammarly (i cui programmatori vorrei personalmente santificare) mi corregge l’inglese. È adesso diventato un prodotto della AI. Oppure il contrario: ho deciso l’argomento, elenco i punti, faccio la scaletta. Poi chiedo all’AI di scrivere un paragrafo. E poi lo correggo perché mi sono accorto che mancano degli elementi importanti. Allora il lavoro deve risultare fatto solo dalla AI, senza il mio contributo? Questi problemi si ripetono anche nelle immagini. Diversi social network, a seguito dell’approvazione dell’EU AI Act, hanno cominciato a richiedere a chi pubblica un’immagine di specificare se è stata prodotta con l’intelligenza artificiale. Al punto che anche se un’immagine è stata semplicemente alterata, ne viene forzata la categorizzazione sotto il cappello AI. Il risultato è che una foto di un paesaggio in cui l’autore ha cancellato dal cielo la striscia di un aereo sono adesso equiparate a immagini prodotte completamente con l’intelligenza artificiale.

Quel che resta della creatività

Rivediamo in maniera critica la recente intervista ad Asimov. Esploriamo i limiti dell'AI nella generazione creativa, per comprendere come l'essere umano sia ancora indispensabile nel depositare un seme che l'AI poi sviluppa.

A cosa porta tutto questo? A un enorme rallentamento delle tecnologie legate all’AI in tutta Europa. Questo lo si vede già da adesso. Meta.ai, il sito di intelligenza artificiale di Meta (Facebook) non è disponibile in Europa. ChatGPT ha un sistema di memoria che l’utente può attivare, e gli permette di estrarre dalle conversazioni infomazioni sull’utente da memorizzare e usare nelle conversazioni successive. Questo sistema non è utilizzabile per gli europei. Claude è stato inaccessibile nel nostro continente per molti mesi.

Nessuno nega che l’Eu AI Act sia il frutto di ottime intenzioni. Certo che è giusto che non venga usato materiale protetto da copyright. Certo che vogliamo salvare i bambini. E certo che non vogliamo che certi algoritmi pericolosi vengano utilizzati sul pubblico. Certo che bisognerebbe sapere chi ha scritto un testo. Ciascuna di queste regole è ragionevole. È la combinazione di tutte queste insieme, e il loro inserimento nel contesto generale della corsa mondiale all’AI (in cui Stati Uniti e Cina stanno primeggiando), che mi preoccupa. Ma sarei anche preoccupato se fosse un “tana libera tutti”. Sarei preoccupato per motivi opposti. Una vecchia maledizione cinese recita: “Possa tu vivere in tempi interessanti”. I tempi interessanti sono ottimi da studiare e pessimi per viverci. E noi viviamo assolutamente in tempi interessanti.

Ringrazio ChatGPT per la collaborazione e la professoressa Maria Bianca Armiento per aver contribuito alla revisione dell'articolo.