Decidiamo oggi per un domani sostenibile

Dagli Stati Uniti all’Europa, il giro di vite per regolamentare l’intelligenza artificiale

Un ordine esecutivo di Biden rafforza il potere federale sull’Ai. Nel Regno Unito, primo vertice internazionale tra 228 Paesi Italia compresa: un documento comune sancisce l’impegno a “lavorare insieme”. [Video integrale dell’intervento di Biden]

martedì 7 novembre 2023
Tempo di lettura: min

L’intelligenza artificiale si sta diffondendo vertiginosamente e in poco tempo, ma servono leggi per regolarla. Questo è il filo rosso che unisce due importanti eventi che hanno animato il dibattito sull’Ai negli ultimi giorni: uno a guida americana, l’altro a trazione britannica.

Che cos’è successo in America

Il presidente degli Stati Uniti Joe Biden ha emesso il 30 ottobre un ordine esecutivo per la regolamentazione dell’intelligenza artificiale. Due i pilastri del piano, presentato in una conferenza stampa (vedi il video integrale): ampliare l'utilizzo dell'Ai da parte del governo federale; rafforzare il controllo sull’uso a fini commerciali.

Andando più nello specifico, Biden ha imposto obblighi di rendicontazione alle aziende impegnate nel settore Ai e ha richiesto ai produttori di punta di segnalare al governo informazioni significative, come l’addestramento di nuovi modelli e l’applicazione di nuove norme di sicurezza. Lo scopo? Garantire la sicurezza nazionale attraverso un monitoraggio intensivo. La direttiva richiede, ad esempio, che il dipartimento dell’energia si incarichi di valutare in quale modo le intelligenze artificiali possano produrre potenziali rischi relativi a violazioni informatiche o attacchi biologici e chimici (timore nato dopo un rapporto pubblicato sull’argomento dal governo inglese).

Nell'ordinanza, la Casa Bianca chiarisce però che non vuole fermare il treno dell'Ai. Descrivendo l’intelligenza artificiale come “una delle tecnologie più potenti del nostro tempo”, il mandato intende garantire che l’America “apra la strada” di questa nuova tecnologia.

Una delle disposizioni più importanti dell’ordinanza riguarda i nuovi requisiti per le pratiche di red-teaming, processo di valutazione del rischio mediante cui le aziende testano l’Ai per metterla al riparo da pregiudizi razziali, disinformazione e altre potenziali problematiche.

Per applicare questi controlli, però, servono esperti in materia. Per questo, una parte del piano di Biden riguarda l’istituzione di un programma formativo finalizzato all’assunzione di cinquecento ricercatori entro il 2025, oltre a cercare lo stimolo di esperti provenienti dall’estero. 

L’iniziativa presidenziale, nonostante il plauso di una parte dell’opinione pubblica, è stata soggetta però anche a critiche, in particolare per la vaghezza di alcuni termini (l’esatta definizione di ciò che rappresenti una “minaccia per la sicurezza nazionale”), la mancanza di una calendarizzazione e di una dettagliata descrizione della messa in atto del piano.

Horvitz: con ChatGpt4 stiamo vedendo delle “scintille” di intelligenza generale

Intervistato a Presa Diretta, il direttore scientifico di Microsoft ha detto che l’Ai in grado di sviluppare obiettivi autonomi, indipendenti dagli umani, non è così lontana.

Che cos’è successo in Europa

L’aria che si respira nel Vecchio continente è, con le dovute differenze, abbastanza simile. Tra il 1 e il 2 novembre si è tenuto nel Regno Unito l’Ai safety summit, primo vertice internazionale di alto livello sul tema dell'Intelligenza artificiale, guidato (e fortemente voluto) dal primo ministro britannico Rishi Sunak, che punta a far diventare il Regno Unito capofila nel settore dell’Ai e della sua regolamentazione. Obiettivo del summit: stabilire una “visione comune” per i prossimi cinque anni, analizzando rischi e potenzialità di questa nuova tecnologia. Ad aprire l’incontro la dichiarazione di Bletchley (dalla sede dell’incontro Bletchley Park, famoso centro di decrittazione dove lavorò Alan Turing durante la Seconda guerra mondiale).

Nel documento, firmato da 28 Paesi (tra cui Stati Uniti, Cina e Italia), gli Stati concordano "sull'urgente necessità di comprendere e gestire collettivamente i potenziali rischi" dell'Ai, assicurandone uno sviluppo responsabile.

Esiste il potenziale per danni gravi, persino catastrofici, deliberati o involontari, derivanti dai modelli di intelligenza artificiale”, si legge nella dichiarazione. Per evitare i rischi, è necessario stimolare la cooperazione internazionale: “Decidiamo di lavorare insieme in modo inclusivo per garantire un’intelligenza artificiale focalizzata sull’uomo, affidabile e responsabile”.

Secondo il primo ministro britannico: "Questa storica dichiarazione segna l'inizio di un nuovo sforzo globale per costruire la fiducia del pubblico nell'intelligenza artificiale, garantendone la sicurezza".

Nonostante la presenza di vari capi di Stato e di governo (tra cui Giorgia Meloni) e rappresentanti delle big tech (tra cui Sam Altman, padre di ChatGpt, ed Elon Musk, patron di X e Tesla), gli analisti hanno sottolineato l’assenza di alcuni leader politici chiave, tra cui il presidente Biden (sostituito dalla vicepresidente Kamala Harris), il presidente francese Emmanuel Macron e il cancelliere tedesco Olaf Scholz. Assenze che hanno ridotto l’impatto del summit stesso.

Inoltre, molti governi o istituzioni stanno procedendo in autonomi, come dimostra l’ordine esecutivo emesso da Biden o la pubblicazione di un codice di condotta volontario da parte dei Paesi del G7, noto come Hiroshima Ai process. Questo codice di condotta è rivolto soprattutto alle aziende, per monitorare questioni spinose come i rischi dell’intelligenza artificiale per la privacy e la sicurezza informatica.

Scarica l’ordine esecutivo del presidente Usa Joe Biden

Guarda la conferenza stampa di presentazione dell’ordine esecutivo

Scarica la Dichiarazione di Bletchley

Scarica il codice di condotta volontario “Hiroshima Ai process”

Fonte dell'immagine di copertina: ansa.it