La marcia per i dati e la resistenza ai “tecnodatalisti”
Di fronte allo strapotere dei “tecnodatalisti” negli Usa si fanno strada nuove regole a livello federale per ridare potere agli utenti delle piattaforme attraverso l’opt-out universale. Ma in Europa si può percorrere una strada più efficace.
Recentemente il premio Nobel Daron Acemoğlu ha scritto che: “Le piattaforme controllano l’informazione, controllano i dati, decidono cosa vediamo, con chi comunichiamo, monetizzano l’economia dell’attenzione. Quell’accentramento è nemico dell’autogoverno. Questo è uno degli aspetti fondamentali del nuovo ecosistema dei social media che verosimilmente sarà riprodotto e amplificato dall’ecosistema dell’AI… L’AI riguarda i dati, e all’accentramento dei dati, seguirà l’accentramento dell’AI”[1].
Le parole del premio Nobel stanno trovando una conferma nelle manovre messe in atto dall’amministrazione Trump nella gestione del programma federale di “reimmigrazione coatta” che sta utilizzando a man bassa i dati posseduti dalle diverse amministrazioni federali per alimentare delle AI, peraltro addestrate e gestite da Palantir la società di Peter Thiel il mentore di Elon Musk e sponsor del vicepresidente J.D.Vance, per dare la caccia agli immigrati, clandestini e non. Le crescenti rivolte contro queste politiche e la immediata escalation repressiva del governo federale dimostrano, laddove ce ne fosse bisogno, che la tecnologia digitale e in particolare l’AI sta diventando lo strumento principe della svolta antidemocratica tentata dall’amministrazione Trump. Quello a cui stiamo assistendo in diretta in America è la crescente capacità di un piccolo gruppo di persone di utilizzare la tecnologia che possiedono per imporre la loro visione antidemocratica su come gestire le istituzioni e la società riducendo i diritti dei cittadini. Peraltro questo progetto sta portando ad uno scontro di potere interno al blocco dei Trumpiani legati al movimento Maga e i tecnocapitalisti, che evidentemente non completamente soddisfatti delle politiche Trumpiane soprattutto in materia economica e di bilancio, con Elon Musk minacciano addirittura di creare un partito politico autonomo.
Un recente studio pubblicato dall’istituto di ricerche AI Now[2] che si occupa di come la tecnologia influisce sulla società, ha evidenziato questo crescente concentramento di potere nelle mani di poche società private e di come queste stiano manipolando la narrazione sull’IA a loro esclusivo favore. Secondo il rapporto DOGE, il dipartimento sui tagli dell’amministrazione federale messo in piedi da Musk, è parte di una strategia “per la presa del potere, con la AI che funziona come una cortina fumogena per consolidare il potere esecutivo e rimodellare il governo federale per adattarsi all'agenda ideologica dell'amministrazione Trump e dei suoi sostenitori, alcuni dei quali possiedono le aziende tecnologiche che traggono il massimo beneficio sia dell'adozione federale dell'IA che della svolta verso l'austerità”. Il rapporto indica anche alcune strade agli attivisti e alle organizzazioni della società civile che vogliono opporsi concretamente a questo strapotere.
La progressiva presa di coscienza dei rischi insiti nell’uso di queste tecnologie anche per la stessa democrazia, sta però favorendo un movimento di resistenza al loro strapotere. Una sorta di “marcia per i dati”. Questo movimento tra le altre azioni sembra dirigere finalmente la sua attenzione anche al centro del potere dei “tecnodatalisti”: cioè l’espropriazione e il possesso dei dati digitali degli utenti. Dopo quasi due decenni di impunità da parte delle piattaforme digitali nel sottrarre i dati ai loro utenti sulla base di un asimmetrico scambio con i servizi erogati, e dopo che l’Ue ha meritevolmente aperto la strada con la sua normativa, infatti ora anche in America, alcuni Stati come la California stanno cercando di limitare il dominio delle piattaforme digitali e ridare potere agli utenti sui loro dati.
A partire dall’ ottobre 2024, infatti, ben dodici Stati americani concedono alle persone il diritto di rinunciare a concedere i loro dati alle aziende che vendono le loro informazioni personali o elaborano tali dati per la pubblicità mirata. Di queste dodici leggi statali sulla privacy, sette prevedono disposizioni che rendono più facile per le persone rinunciare a determinati usi dei dati personali. Ciò include per esempio il tipo di informazioni personali e pseudonimizzate che vengono regolarmente condivise con i siti web, come le informazioni del browser o le informazioni inviate tramite i cookie.

Un nuovo ruolo dei corpi intermedi per un’intelligenza artificiale sociale
Papa Leone XIV offre il patrimonio della dottrina sociale della Chiesa per rispondere alle domande poste dalla rivoluzione dell’Ai. I corpi intermedi possono impegnarsi per rinnovare il loro ruolo e favorire la nascita di un’intelligenza artificiale sociale.
Fino ad oggi[3], scrivono due ricercatrici Ekene Anene e Amanda Parham in un paper pubblicato da Tech Policy Press, è esistito però un significativo ostacolo pratico nell'attuazione di questi diritti di opt-out: gli utenti che vogliono esercitare il diritto di rinunciare alla concessione dell’uso di queste informazioni per la pubblicità mirata devono infatti individuare e fare clic manualmente sui link di opt-out. Per rendere più facile l'opt-out, le leggi sulla privacy dei sette Stati (California, Colorado, Connecticut, Delaware, Montana, Oregon e Texas) ora obbligano tutte le aziende a tenere conto delle preferenze di opt-out degli individui trasmesse attraverso i cosiddetti meccanismi universali di opt-out (Uoom). Gli Uoom hanno un enorme potenziale per responsabilizzare i consumatori semplificando la gestione delle loro informazioni personali. Questi meccanismi infatti centralizzano il processo di opt-out, consentendo agli utenti di impedire la raccolta dei propri dati senza dover navigare in un labirinto di impostazioni sulla privacy sui siti web. In questo modo, gli Uoom riducono lo sforzo necessario per proteggere la privacy, aumentano il controllo dei consumatori su quali aziende possono accedere alle loro informazioni e consentono agli utenti autonomia e controllo sui propri dati personali. La California è diventata il primo stato a rendere validi per legge i segnali di opt-out . In particolare, le aziende che non rispettano il controllo globale sulla privacy sui loro siti web possono rischiare di essere perseguite in violazione del California Consumer Privacy Act (Ccpa).
Contemporaneamente viene però segnalata[4] la preoccupazione che alcuni cittadini possano perdere l'accesso ai servizi essenziali o ai contenuti online perché proteggono i loro dati. Le istituzioni governative, gli operatori sanitari e le agenzie di stampa si affidano sempre più a piattaforme di social media, applicazioni mobili e strumenti di intelligenza artificiale che richiedono la raccolta dei dati per utilizzare questi servizi. I governi locali, ad esempio, si rivolgono abitualmente a X (ex Twitter) e Facebook per diffondere informazioni di emergenza vitali e in tempo reale durante disastri naturali ed eventi meteorologici, come l'uragano Harvey, l'uragano Sandy e l'alluvione della Valle del Red River del 2009.
Se le piattaforme e le istituzioni costruiscono servizi sulla presunzione che gli utenti condividano i dati, l'opt-out potrebbe rendere i servizi essenziali meno accessibili o efficaci. Una persona che rinuncia alla raccolta dei dati per proteggere la propria privacy potrebbe non essere in grado di accedere a notizie, app sanitarie o servizi governativi che richiedono la condivisione dei dati per servizi personalizzati o controlli di idoneità. In base a un tale sistema, gli individui sarebbero costretti a scegliere tra (a) una mancanza di accesso ai servizi essenziali o (b) l'uso di quel servizio mentre sono sotto costante sorveglianza, sfruttamento e mercificazione dei dati senza alcun modo realistico per proteggersi, minando l'empowerment dei consumatori che l'Uoom intendeva creare.
Infine, gli Uoom, se non attuati strategicamente, prosegue il paper di Ekene Anene e Amanda Parham, hanno il potenziale di aumentare l'esclusione culturale e la disuguaglianza socioeconomica. In un mondo con l’opt-out globale, le aziende potrebbero adattare i loro modelli di business per richiedere il consenso per accedere ai loro servizi o passare a un modello di "pagamento o consenso", come Meta ha tentato di fare nell'Ue. In base a un modello di "pagamento e consenso", le aziende potrebbero richiedere ai consumatori di acconsentire alla condivisione dei dati in cambio dell'accesso "gratuito" ai loro servizi, ma consentire a coloro che desiderano rinunciare alla condivisione dei dati la possibilità di pagare per l'accesso per evitare la raccolta dei dati.
Gli individui benestanti ed esperti di tecnologia sarebbero quindi in grado di rinunciare alla raccolta dei dati mantenendo l'accesso a questi servizi o beneficiare di un panorama in cui i dati vengono utilizzati per offrire esperienze personalizzate e su misura senza sacrificare la loro privacy. Tuttavia, coloro che non hanno la capacità di impegnarsi con questi sistemi a causa della mancanza di risorse, dell'accesso tecnologico o dell'alfabetizzazione digitale potrebbero sperimentare un crescente isolamento culturale e sociale.
Per ridurre questo possibile divario emergente sulla privacy digitale[5], “i responsabili politici devono adottare un approccio equilibrato che garantisca la protezione della privacy riducendo al minimo il rischio di esacerbare le disuguaglianze esistenti. I meccanismi di opt-out universali sono potenzialmente uno strumento prezioso per i consumatori per controllare i loro dati personali, ma devono essere attentamente implementati, in quanto potrebbero involontariamente approfondire il divario digitale se non abbinati a soluzioni sistemiche più ampie”.
Le autorità di regolamentazione dovrebbero, sempre secondo Anene e Parham, imporre che il consenso alla raccolta dei dati sia genuinamente informato e liberamente dato, con le aziende che fanno divulgazioni chiare e trasparenti sulle pratiche dei dati e sulle conseguenze dell'opt-out, assicurando che non ci sia coercizione o manipolazione. I governi dovrebbero fornire al pubblico diritti alla privacy più forti e introdurre restrizioni più universali sulla raccolta e sull'uso dei dati, come il divieto di: 1) l'abuso dei dati di opt-out degli utenti, 2) la discriminazione contro le persone che rinunciano alla raccolta dei dati, 3) l'attuazione di modelli di "pagamento o consenso" e 4) il degrado o la perdita di servizi essenziali per le persone che scelgono di rinunciare alla raccolta dei dati, salvaguardando l'accesso a risorse critiche come i notiziari e i servizi governativi.
Un potenziale modello per tale regolamentazione potrebbero essere gli obblighi di cui all'articolo 5, paragrafo 2, della legge sui mercati digitali (Dma) dell'Ue. Ai sensi del Dma (considerando 36/37/38), le piattaforme sono tenute infatti a fornire agli utenti che non acconsentono alla raccolta dei dati servizi "meno personalizzati ma equivalenti" a quelli forniti agli utenti che acconsentono a pubblicità mirate e "senza fare l'uso del servizio della piattaforma principale... subordinatamente al consenso dell'utente finale".
Per fare questo c’è però bisogno di elaborare e sviluppare una cultura più “dinamica” e “partecipata” della privacy che consenta non tanto e non solo la difesa dei propri dati quanto la loro “liberazione” e circolazione per dare la possibilità di avere delle vere e proprie alternative ai servizi proposti dalle piattaforme monopoliste. Questo in prospettiva è ancora più importante se pensiamo ai processi di accentramento dell’AI ricordati dal premio Nobel Acemoğlu e agli evidenti rischi che il monopolio di pochissime aziende su queste tecnologie alimentate dai dati possono provocare, non solo per la tenuta dei sistemi democratici, ma anche per il potenziale accentramento della conoscenza che ne deriva. A questo proposito un recente report realizzato da un ricercatore del GLAM-E Lab, un'iniziativa congiunta tra il Centre for Science, Culture and the Law dell'Università di Exeter e l'Engelberg Center on Innovation Law & Policy della NYU Law[6] che lavora con istituzioni culturali, ha segnalato come “I bot di intelligenza artificiale che raschiano Internet per alimentare di dati le IA stanno ‘dragando’ i server di biblioteche, archivi, musei e gallerie dove sono disponibili archivi open di qualità”.

L’intelligenza artificiale per la sostenibilità
L’Europa deve difendere le regole e i principi della propria sovranità digitale e mettere a disposizione l’AI per il raggiungimento degli obiettivi dell’Agenda 2030.
In Europa, dopo molti anni di una sorta di dittatura culturale della privacy, si sta facendo strada una visione più proattiva nei confronti dell’utilizzo dei dati. L'Ehds (European Health Data Space) o “spazio europeo dei dati sanitari”, istituito dal Regolamento (Ue) 2025/327, in vigore dal marzo 2025 sia pure con con tempistiche di applicazione scaglionate nel tempo, che introduce il modello dell'opt-out, al posto dell'opt-in, per il trattamento dei dati sanitari e prevede poi il libero uso di dati sanitari per finalità di ricerca sempre in base all’opt-out. Tutti segnali che identificano un cambiamento di direzione per facilitare l’utilizzo e la circolazione dei dati come previsto da gran parte delle normative europee a partire dall’art 20 del GDPR, e dal DGA che regolamenta lo scambio dei dati e i soggetti autorizzati e le realtive finalità, pubbliche, private e non profit.
In Europa si potrebbe dunque, grazie alla legislazione attuale, determinare uno scenario differente, più efficace e altrettanto performante per i cittadini europei. Infatti grazie alla base giuridica rappresentata dall’art 20 del GDPR e degli altri regolamenti e direttive, che consentono a tutti di richiedere una copia dei propri dati da qualunque piattaforma detenuti, e di conferirli in base alle regole del DGA a degli “intermediari” riconosciuti e certificati dalla UE come rispondenti a tutte le regole e principi dei trattati della UE, si potrebbe attivare un ulteriore tipo di scelta per l’utente che consenta il conferimento dei dati per l’ottenimento del servizio ma anche l’automatico conferimento di una copia a uno degli “intermediari” scelto dall’utente stesso. Una nuova modalità che si collocherebbe a metà strada tra la scelta secca dell’opt-out o dell’opt- in, finora a disposizione degli utenti: l’opzione di data return (Opt- Data Return) e cioè della concessione dei dati alle piattaforme per l’ottenimento del servizio a fronte della contestuale scelta (richiesta) di restituzione di una copia degli stessi dati.
Questa modalità contribuirebbe a superare da un lato l’implicito ricatto dell’attuale contratto sinallagmatico “dati contro servizi”, perché concederebbe, con una sorta di “licenza”, come ipotizzato dalla professoressa Giusella Finocchiaro nel suo ultimo libro sulle regole dell’AI, l’uso dei dati alla piattaforma per la fornitura del servizio ma riservando contestualmente all’utente la libertà di conferire una copia degli stessi ad un soggetto terzo. Ed essendo i dati un “bene non rivale” questo scambio potrebbe essere moltiplicato enne volte, consentendo di creare un vero mercato concorrenziale dei dati e quindi delle AI. Non più quindi il monopolio di poche società al mondo costruito sull’espropriazione dei dati ma una pluralità e una diversità di soggetti in competizione tra di loro, con la possibilità per l’utente di scegliere il soggetto più confacente ai suoi bisogni e anche il più conveniente. Questa scelta tra i diversi “intermediari dei dati” riconosciuti dalla UE, che già oggi sono più di 20, si potrebbe fare direttamente al momento dell’accesso all’app o alla piattaforma, con una semplice scelta tra diversi soggetti, come già oggi avviene per l’accesso tramite Spid.
Quindi, per i cittadini europei, si aggiungerebbe alla scelta secca tra opt-in e opt-out (che peraltro rimarrebbe sempre possibile) una terza opzione, determinando una possibilità di reale empowerment dell’utente attraverso il ri-utilizzo dei propri dati, per esempio anche a fini “altruistici” come previsto dal Dga. Contemporaneamente favorirebbe la pluralità di soggetti sul mercato digitale dei dati e quindi una reale concorrenza che attenuerebbe di molto i rischi di quell’accentramento dei dati a cui faceva riferimento il premio Nobel Acemoglu.
Inoltre la possibilità per il cittadino di rivolgersi a soggetti intermediari diversi, anche con forme proprietarie democratiche, come nel caso delle “cooperative di dati”, permetterebbe in prospettiva di avere anche reali alternative di governance del mercato dei dati improntate ai principi di democrazia, mutualità e solidarietà. Si ridarebbe dunque la possibilità all’utente di scegliere, a parità di servizio, tra l’essere suddito o cittadino del nuovo spazio digitale nel quale stiamo rapidamente, e in parte inconsciamente, transitando.
Copertina: Ansa
[1] Daron Acemoglu; fonte MIT, Shaping the future of work, tratto da Corriere della Sera del 26/5/2025
[2] AI-NOW, Artificial Power- 2025 Landscape Report del 3/6/2025
[3] Ekene Anene, Amanda Parham; Universal Opt-out mechanism: empowering consumers or créating a new digital divide?; Tech Policy Press del 22/5/2025
[4] Ibid.
[5] Ibid.
[6] Glam- E lab; Are AI bots knoking cultural heritage offline?, Michael Weinberg; june 2025