Intelligenza artificiale: sì, ma sociale
Condividere i dati tra i soggetti dell’economia sociale per alimentare AI che rispondano prioritariamente ai bisogni dei cittadini/utenti, la cui proprietà sia democratica e che limitino il profitto individuale, valorizzando il fattore umano e producendo beni comuni digitali.
di Vanni Rinaldi, giornalista ed esperto ASviS
Come ha recentemente scritto il filosofo Maurizio Ferraris, “nel momento in cui le nostre attenzioni sono polarizzate dall’intelligenza artificiale, diamo per scontato di sapere cosa è l’intelligenza naturale, il che è tutt’altro che ovvio”. Al netto della inevitabile polarizzazione tra tecno catastrofisti e tecno entusiasti, si può però affermare che L’AI è una tecnologia prodotta dall’uomo, come qualsiasi altra, per soddisfare i suoi bisogni. Secondo quanto scrive Nello Cristianini, professore di AI nel suo libro La scorciatoia, "la nuova scienza delle macchine intelligenti parla la lingua della probabilità e dell’ottimizzazione matematica, non più quella della logica e del ragionamento formale".
Le forme di AI che abbiamo visto all’opera finora sono un’esplosiva ed energivora concentrazione di tre elementi: hardware (computer, chip) , algoritmi ed enormi quantità di dati digitali (i famosi Big data). Oggi, ad esempio, le raccomandazioni di Amazon si basano su centinaia di milioni di clienti, quelle di YouTube su due miliardi di utenti, e il modello di linguaggio più avanzato al mondo – GPT-3 – ha circa 175 miliardi di parametri, che devono essere appresi analizzando circa 45 terabyte di testo ottenuti da fonti diverse. Queste grandi quantità di dati e modelli non-teorici del mondo possono generare comportamenti utili, prosegue Cristianini, anche se non ci possono insegnare niente del fenomeno stesso che riproducono. Potrebbe quindi non esistere alcun modo di interpretare le decisioni delle nostre macchine, il che sarebbe invece desiderabile per controllare che non prendano una brutta piega.
Inoltre, vedendo le ultime evoluzioni della tecnologia disponibile, questo strumento diventerà generalista, cioè si potrà usare più o meno per fare qualsiasi cosa: per scrivere un articolo, una tesi universitaria, analizzare un referto medico, disegnare un edificio, guidare un’automobile, emettere una sentenza con validità giuridica, oltreché come già avviene falsificare documenti e informazioni. La tecnologia può indebolire certi valori sociali, scrive dunque Cristianini, come privacy, uguaglianza, autonomia o libertà di espressione, per esempio consentendo sorveglianza di massa mediante telecamere stradali, o persuasione di massa mediante targeting psicometrico. Può anche causare danni, sia quando funziona male sia quando causa effetti imprevisti. Potrebbe perfino giungere a destabilizzare i mercati, influenzare l’opinione pubblica o accelerare la concentrazione della ricchezza nelle mani di quelli che controllano i dati o gli agenti.
È evidente, dunque, che alla luce di questi potenziali rischi, oltreché in base a normali criteri di precauzione, bisognerà agire sul lato dei rimedi se si vuole utilizzare questa tecnologia in sicurezza e soprattutto creare fiducia e ambienti consapevoli e favorevoli per l’AI. Qualcosa si sta già facendo, nell’ambito delle azioni di contenimento, tra le quali rientrano ad esempio i vari regolamenti varati negli ultimi mesi. Ad esempio l’Executive order (Eo) emanato da Biden negli Usa, che impone agli sviluppatori di alcuni sistemi di AI di condividere i risultati dei loro test e le informazioni più critiche con il governo degli Stati Uniti. Ma purtroppo molti aspetti dell’Eo si basano sulla cooperazione volontaria delle aziende tecnologiche. A ciò si aggiunge che l’Eo non ha il rango di una legge del Congresso ed è revocabile dal prossimo presidente degli Stati Uniti. L’Unione europea ha recentemente raggiunto un faticoso accordo sull’AI Act che ha regole più stringenti ma rinvia la loro applicazione fra due anni. Un tempo infinito per una tecnologia come l’AI che fa perdere di rilevanza e probabilmente efficacia al lavoro dell’Ue.
Molto di più andrà fatto quindi ispirandosi ad esempio ai sistemi regolatori e di controllo che hanno consentito a tecnologie innovative come l’aeroplano di diventare un fenomeno di massa sicuro. Per accrescere la fiducia nell’uso del mezzo aereo, oltre a regole condivise globalmente, sono stati delimitati spazi appositi di utilizzo come gli aeroporti e le aerovie nel cielo, istituiti organismi di controllo che testano i materiali e le tecnologie. Tutti gli aerei inoltre dispongono di “scatole nere” per poter accedere ai dati di funzionamento, e non ultimo chi manovra questo mezzo ha bisogno di un “patentino” che certifichi le sue capacità.
Ma non basta però accontentarsi delle sole attività di contenimento e regolamentazione dell’AI, bisogna anche con decisione affrontare il tema della asimmetria tra i proprietari della tecnologia e noi utenti. Si tratta di contrastare il principio di disuguaglianza che ne è alla base: per noi utenti si tratta del nostro essere, la nostra “on life” come la definisce il filosofo Luciano Floridi, mentre per i proprietari della tecnologia si tratta del loro avere, dei loro profitti. Una differenza ontologicamente dirimente che impone una scelta per il nostro agire come cittadini/utenti.
Inoltre il vantaggio accumulato dalle Big Tech in termini di capitalizzazione, di asset tecnologici e soprattutto di dati digitali è tale, che è facile prevedere determinerà dei nuovi monopoli anche nel settore dell’AI. Per questo è importante immaginare e costruire una pluralità di AI che favorisca una diversità di specie, che è un fondamentale principio di salvaguardia dettato dall’importanza dei beni in oggetto. La delicatezza dei beni e servizi nel perimetro dell’AI, come ad esempio la sanità, la mobilità, la stessa informazione e infine il rischio di una collusione delle AI con i governi per forme di controllo, spinge ad affiancare alla richiesta di regolamentazione e controlli anche una richiesta di partecipazione attiva della società civile nel suo insieme , alimentando delle vere e proprie AI sociali, cioè che rispondano prioritariamente ai bisogni dei cittadini/utenti, la cui proprietà sia democratica e che limitino il profitto individuale , valorizzando il fattore umano.
Per fare tutto ciò si deve partire da un bene essenziale per lo sviluppo dell’AI, un bene che è a disposizione delle persone che ne sono i produttori, anche se non ne dispongono autonomamente: i dati digitali. I dati digitali sono la indispensabile materia prima per far funzionare le AI. Come ha ricordato recentemente Roberto Viola, direttore generale della direzione comunicazione e tecnologia della Ue: più addestri (con i dati) un algoritmo e più questo avrà valore. Se quindi si permette ad altri algoritmi di addestrarsi sui nostri dati, avviene quello che gli esperti definiscono un trasferimento di valore.
Che i dati digitali fossero importanti i cittadini europei l’hanno incominciato a mettere a fuoco nel 2018 quando è entrato in vigore il nuovo regolamento sulla privacy. Il Gdpr, General data protection regulation, che dava loro per la prima volta un nuovo diritto soggettivo: avere indietro una copia di tutti i dati digitali da chiunque posseduti e con qualunque piattaforma generati. Un ulteriore passaggio di questa strategia europea si è concretizzato nei primi mesi del 2024 quando è entrato in funzione anche in Italia il regolamento europeo sulla governance dei dati (Dga) . Si tratta di un fondamentale tassello che mette finalmente a disposizione dei cittadini europei le regole con cui utilizzare i dati digitali per la creazione di un vero e proprio mercato europeo dei dati, che la Commissione reputa “potrebbe essere centrale per il rapido sviluppo delle tecnologie di intelligenza artificiale “. Il Dga infatti prende in considerazione gli scambi di dati digitali nel settore pubblico in quello privato e soprattutto nel settore non profit, definendo la possibilità di “sostenere obiettivi di interesse generale mettendo a disposizione quantità considerevoli di dati sulla base dell’altruismo dei dati”. Questa azione è necessaria, in particolare, proprio per aumentare la fiducia nella condivisione dei dati.
L’AI sociale dovrebbe dunque utilizzare tutti i dati, liberamente conferiti dai cittadini, dalle associazioni del terzo settore, dalle cooperative e dalle istituzioni pubbliche, cioè da tutto quel variegato ma importante mondo che in Europa viene definito come l“Economi sociale”. Dovrebbe essere un soggetto collettivo a partecipazione volontaria, con governance democratica , caratterizzato dalla limitazione del profitto o non profit, mutualistico e solidaristico, e teso alla creazione di beni e servizi sociali digitali per il miglioramento del benessere dei cittadini.
In Italia, ad esempio, milioni di cittadini ogni giorno producono miliardi di dati. Se ci riferiamo ai dati sulla mobilità, si tratta di informazioni su milioni di chilometri percorsi ogni giorno, acquisiti dalle scatole nere delle auto dei privati cittadini, o dai sensori a bordo, che ogni giorno monitorando le strade e i conducenti, possono consentire a una AI sociale della mobilità di predire quali sono le strade più percorse e quando e dove si formano i rallentamenti, aiutando non solo i singoli cittadini a scegliere i percorsi migliori ma le amministrazioni locali a programmare interventi per migliorare e ridurre i tempi di percorrenza, aumentare il trasporto pubblico, e anche sviluppare forme aggregative di trasporto collettivo efficiente e sostenibile, riducendo i costi ambientali del trasporto delle persone e delle cose in maniera significativa. Dai miliardi di dati sanitari acquisiti dai soggetti che operano nell’ambito della sanità come ospedali pubblici, medici di base, e dai cittadini con i loro referti clinici ma anche i loro consumi alimentari e i loro stili di vita, si potrebbero alimentare AI sociali tese a sviluppare servizi per il miglioramento della qualità della vita delle persone, la ricerca e l’uso di medicinali tesi al benessere delle persone e non al profitto delle Big Pharma.
I dati epidemiologici generati dai cittadini, insieme ai loro referti diagnostici messi a disposizione dell’AI sociale della sanità, permetterebbero di validare campagne di prevenzione mirate, riducendone i costi e migliorandone l’efficacia. L’AI sociale potrebbe contribuire a realizzare una medicina di precisione (prevenzione delle patologie, diagnosi e cura personalizzata) non legata solo al profitto delle società che possiederanno l’AI ma a beneficio di tutti. Così come l’uso dell’AI sociale consentendo di migliorare la qualità delle immagini di Tac, radiografie e medicina nucleare ridurrebbe i tempi di esposizione alle radiazioni del paziente e migliorerebbe anche le performance riducendo i tempi di attesa degli esami. Come pure se i cittadini italiani fornissero alle AI sociali i loro dati sui consumi energetici si potrebbero realizzare politiche di efficientamento basate sull’uso programmato ed efficiente dell’energia (demand response), risparmiando miliardi di euro e rendendo più sostenibile l’ambiente. C’è insomma un immenso giacimento di dati e informazioni nel mondo dei soggetti dell’economia sociale, che sommato a quello delle istituzioni pubbliche, e con la partecipazione diretta e volontaria dei cittadini, consentirebbe a un AI sociale una serie infinita di correlazioni e soluzioni, creando un enorme area di beni e servizi digitali comuni per il benessere e lo sviluppo sociale ed economico delle persone.
Infine non bisogna sottovalutare che l’AI sociale in Italia e in Europa partirebbe con una potenzialità enorme non solo per la quantità di dati disponibili all’interno del perimetro dell’Economia sociale, ma anche per la capacità tecnologica e computazionale che si trova all’interno del perimetro delle istituzioni universitarie pubbliche. Basti pensare al consorzio universitario Cineca, con sede a Bologna, che raccoglie 118 consorziati tra università, ministeri e istituzioni pubbliche e che dispone di Leonardo, il sesto più potente supercomputer al mondo.
C’è dunque bisogno nel nostro Paese di dare vita rapidamente a una grande alleanza tra le organizzazioni del terzo settore, il movimento cooperativo, e le università, i centri di ricerca non profit, le Fondazioni bancarie, supportata dalle Istituzioni pubbliche, per alimentare e far nascere AI sociali che rispondano ai bisogni dei cittadini e producono beni e servizi sociali digitali per migliorarne la qualità della vita. Questa collaborazione tra pubblico ed economia sociale dovrà essere finalizzata a far nascere in primo luogo uno o più aggregatori “altruistici” di dati, come previsto dal Dga, che possano mettere insieme l’enorme potenziale di dati e informazioni di questi soggetti per allenare AI sociali.
Naturalmente un’alleanza per l’AI sociale dovrebbe porsi non solamente il problema del “capitale digitale” ma anche quello delle risorse economiche reali da utilizzare. La prima fonte di risorse disponibili sono quelle pubbliche che il governo ha deciso di mettere a disposizione con il piano per il finanziamento dell’AI. Bisognerebbe far in modo che venisse riconosciuto un canale dedicato, e magari preferenziale, per la realizzazione dell’AI sociale.
Un secondo importante pilastro dovrebbe venire da quella parte di risorse che sono collocate all’interno del piano denominato “Repubblica digitale” che è gestito dalle Fondazioni bancarie. All’interno dei bandi del programma dovrebbe trovare un adeguato spazio il tema dell’AI sociale. Infine i soggetti non profit che intendessero partecipare all’Alleanza dovrebbero attivarsi con i cittadini loro soci, per fare in modo che questi partecipino direttamente, non solo condividendo i loro dati digitali, ma conferendo anche le risorse economiche del loro 5x mille alle AI sociali non profit, in un grande programma di partecipazione popolare e democratica per la creazione, in Italia e in Europa, di beni comuni digitali tramite un intelligenza artificiale sociale.