Intelligenza artificiale e Large language model per la gestione del rischio
Fondazione Cima sta continuando ad approfondire le applicazioni dell'AI per la gestione del rischio, con l'obiettivo di rendere più efficiente la comunicazione con la popolazione.
di Giovanni Peparello
Quando si parla di gestione del rischio, si parla sempre anche di comunicazione. Lavoro fondamentale della protezione civile è l’informazione della popolazione: su questo aspetto uno strumento utile ed efficace può essere quello dei Large language models (Llm), cioè una classe di modelli di intelligenza artificiale progettati per comprendere e generare testo naturale in linguaggio umano.
Questi modelli sono addestrati su enormi quantità di dati testuali, che possono includere libri, articoli, siti web e altre risorse di testo disponibili online. I Llm sono capaci di comprendere e generare testo naturale, con applicazioni in vari settori. Quello che si sono chiesti i ricercatori di Fondazione Cima, in collaborazione con l’IE University di Madrid, è se questo tipo di strumenti può essere utile anche per la gestione del rischio da disastri.
Gestire l’emergenza con i Llm
Il gruppo di ricerca ha esplorato l’integrazione i Llm nei flussi di lavoro operativi, evidenziando sia il potenziale sia le attuali limitazioni di questi modelli. Quello della riduzione del rischio è però un campo peculiare, perché unisce aspetti di ricerca ad aspetti che riguardano la vera e propria operatività, come avviene durante la gestione di un’emergenza. Come possono inserirsi i Llm in questo contesto? “I Llm si basano sullo stesso principio che guida le tecniche di Machine Learning: sono in grado di apprendere e applicare le informazioni date loro durante la fase di training. Ma gli strumenti di machine learning classici si usano soprattutto per applicazioni di regressione o classificazione. I Llm, invece, usano le informazioni a loro disposizione per generarne di nuove”, spiegano Mirko D’Andrea, ricercatore di Fondazione Cima, e Jean Baptiste Bove, dottorando dell’Università di Genova che conduce i suoi studi presso Cima. “In pratica, possiamo dire che i Llm sono sistemi in grado di prevedere, sulla base di una sequenza di parole, quella successiva”. L’idea dei due scienziati, quindi, era proprio cercare di capire come possano integrarsi nel flusso di lavoro degli enti dedicati alla gestione del rischio da disastri.
Un messaggio di allertamento simile al sistema IT-Alert
“In particolare, abbiamo chiesto a ciascuno dei quattro Llm selezionati di provare a scrivere messaggi di allertamento (come quelli che sono inviati alla popolazione dal sistema IT-Alert), di descrivere scenari utilizzabili nell’ambito delle esercitazioni e infine, il compito più complesso, di fare una valutazione del rischio sulla base di parametri meteoclimatici che gli venivano forniti”. Secondo l’ipotesi di partenza, i modelli avrebbero potuto fornire output efficaci quando si trattava di dare informazioni generiche, ma avrebbero lavorato meno bene quando il compito sarebbe stato molto specifico, richiedendo informazioni e risposte contestualizzate. Secondo questa ipotesi, i risultati degli Llm sarebbero stati inferiori quando le informazioni disponibile per le attività di contestualizzazione erano scarse.
L'utilità e i limiti dei LLM
Da questo lavoro emerge come i Llm possano trovare un’importante applicazione anche nel campo della gestione del rischio, per esempio nel recupero rapido dei dati da grandi dataset, così da migliorare l’efficienza dei flussi di lavoro basati sul testo. Ma al momento è evidente anche la limitazione principale di questi strumenti: i Llm più ampiamente disponibili non riescono a fornire output allo stesso livello umano, al livello di specificità contestuale richiesto, perché non hanno accesso ai dati necessari. Questo diventa particolarmente evidente quando il Llm si trova a confrontarsi, per esempio, regioni al di fuori dell’Occidente, dialetti locali ampiamente utilizzati, tipi di disastro meno comuni, regioni con dati meno robusti o la necessità di valutazioni complete del rischio.
È nata la legislazione europea sull’intelligenza artificiale: numerose le misure per difendere privacy e copyright, ma il rischio è tagliar fuori l’Ue dalla corsa all’AI. Le aziende stanno già evitando di rilasciare i loro prodotti in Europa.
L’Eu AI Act e i suoi problemi
L’utilizzo del Machine Learning per gli incendi boschivi
Fondazione Cima e Mirko D’Andrea non sono al loro primo lavoro per applicare le tecnologie dell’Intelligenza Artificiale alla gestione del rischio. In precedenza si erano occupati in particolare di Machine Learning, vale a dire il sottoinsieme dell’Intelligenza Artificiale che crea sistemi che apprendono e migliorano le performance in base ai dati che ricevono. Fondazione Cima ha implementato questo sistema per sfruttare la capacità di questi algoritmi di imparare a mettere in collegamento ingenti quantità di dati. Questo ha permesso, ad esempio, di effettuare primi studi sulla prevenzione degli incendi boschivi: “Per molti anni abbiamo provato a creare, nei nostri modelli, un nesso di causalità tra le caratteristiche del territorio e la sua suscettività agli incendi – ci aveva spiegato Mirko D’Andrea in questo articolo – La soluzione più efficace, però, è stata basarsi sul Machine Learning che, avendo a disposizione i dati riguardanti la regione d’interesse e lo storico degli incendi di quell’area, riesce a identificare le caratteristiche che più li influenzano”. Da una prima mappatura di pericolosità riferita al territorio ligure, si è arrivati a coprire tutta la regione del Mediterraneo Orientale.
Un dibattito vivo: l’evento dell’Earth Technology Expo
IA e Machine Learning erano stati uno degli argomenti dell’ultimo Earth Technology Expo, che si era svolto dal 15 al 18 novembre 2023 a Firenze. In quell’occasione il convegno Io Non Rischio Più ha illustrato come l’Intelligenza artificiale può essere uno strumento fondamentale per i Piani Di Protezione Civile Comunali, e come IA e Chatbot possono essere integrati per l’informazione e la nuova formazione dei cittadini nella prevenzione e gestione dei rischi naturali. Anche in questo contesto, era stato reso chiaro come lo strumento dell’Intelligenza artificiale abbia le potenzialità per diventare utile per trovare risposte più rapide e adeguate. La strada è ancora lunga, anche perché l’IA per funzionare ha bisogno di moltissimi dati ben organizzati.
Copertina: Pixabay