Decidiamo oggi per un domani sostenibile

Fare chiarezza sui contenuti generati dall’intelligenza artificiale

La Commissione europea ha proposto una bozza per l’etichettatura dei materiali prodotti utilizzando l’AI, ma ci sono margini di ambiguità che devono essere chiariti.

martedì 10 marzo 2026
Tempo di lettura: min

A chi frequenta i social network, YouTube, i reel di Facebook, gli short di TikTok sarà capitato di vedere video sempre più brevi con eventi “improbabili”. Dalla scimmia che carica un missile antiaereo e lo spara, alla anziana signora che prende a padellate un orso grizzly, a eventi sportivi sempre più estremi, alla influencer a Dubai che con un selfie dice che “va tutto bene, anche se ogni tanto ci scoppia una bomba in testa”, o alle interviste ai cittadini di Westeros (ambientazione fantasy de Il Trono di Spade) su cosa pensano dei loro governanti. Ormai siamo al punto in cui è quasi impossibile capire se un video è fatto con l’intelligenza artificiale o meno. E ovviamente la divisione non è netta perché se da una parte ci sono i video fatti totalmente con l’intelligenza artificiale, e altri sono fatti completamente senza, in mezzo ci sono moltissimi stadi intermedi. Video fatti senza AI, ma modificati. Cambiando un particolare, cancellando un dettaglio, fino a correggere il labiale o cambiare il background o la faccia, mantenendo i movimenti. Oppure mantenendo la persona, ma cambiando quello che fa. Da un certo punto di vista queste sono ottime notizie. Aprono enormi potenzialità creative. Chiunque con un computer domestico può generare dei brevi spezzoni. E con un po’ di bravura legarli in un video più lungo. Ma questa esplosione di video ha dei costi, ed è importante parlarne e considerarli. Anche legislativamente.

I social network cercano di massimizzare il tempo online e la partecipazione. Quindi se un utente vede un video intero sicuramente il video è più interessante,rispetto alla possibilità che lo  veda in parte e poi passi al prossimo video. Se poi lo guarda più volte, evidentemente deve essere un molto interessante. E quando un video è giudicato interessante dall’algoritmo, verrà pubblicizzato più spesso. Inevitabilmente video brevi, che tendono a essere visti più volte, hanno un vantaggio intrinseco. E per questo molti creator si focalizzano su questo formato. Piccoli video, leggeri, fatti con l’intelligenza artificiale, con una frase in fondo che si lega alla frase iniziale. E con un contenuto che ti induce a rivederlo più volte per capire se è vero o è stato prodotto con l’AI.

Prima di andare avanti, è utile distinguere tre tipologie di contenuti molto diversi tra loro, che spesso vengono messi nello stesso calderone.

  • Il primo è il contenuto generato interamente dall'AI. La scimmia col missile non esiste. Il cittadino di Westeros non esiste. Non c'è nessun originale. Tutto è sintetico, dal primo all'ultimo pixel.
  • Il secondo è il contenuto reale modificato dall'AI. Esiste un originale, ma l'intelligenza artificiale ha cambiato qualcosa. Può essere il labiale, la faccia, quello che una persona tiene in mano. Oppure, come vedremo, una foto sgranata "migliorata" in modo creativo. I deepfake appartengono a questa categoria.
  • Il terzo tipo è il processing tecnico puro. L'AI ha toccato il contenuto ma non ha aggiunto né tolto nulla di significativo. La stabilizzazione di un video mosso, la riduzione del rumore. Come il flash sulla macchina fotografica: uno strumento, non una modifica.

Tre categorie con tre problemi completamente diversi. E con tre risposte legislative necessarie differenti.

Secondo l'AI Act europeo (Articolo 50), che entrerà pienamente in vigore ad agosto 2026, bisogna indicare che video e foto sono fatti con l’intelligenza artificiale (anche in parte) se non è evidente dal video stesso. Questa legge è problematica da diversi punti di vista. Prima di tutto non distingue bene tra i tre casi indicati sopra. Ormai molte foto sono parzialmente modificate con l’intelligenza artificiale, cosa che, se applicata alla lettera, renderebbe ogni foto un prodotto dell'intelligenza artificiale.

Data center e neurotecnologie: come l’Europa può evitare l’effetto lock-in

Un rapporto del Centre for future generations identifica quattro leve che possono rafforzare l'autonomia tecnologica del Vecchio continente. Le scelte attuali su intelligenza artificiale e clima incideranno ben oltre il 2050.

Faccio un esempio: prendo una Canon reflex e faccio una foto. Scelgo io l’apertura e i tempi. Tutto manuale. Oppure prendo la stessa macchina e faccio una foto in modalità automatica. Non è più manuale, ma non c’è intelligenza artificiale coinvolta. Oppure prendo un telefonino moderno, faccio una foto in automatica, e in questo caso la CPU fa partire una rete neurale (quindi una piccola AI) per decidere l’apertura e i tempi della foto. Il risultato è praticamente indistinguibile, ma questa foto è adesso fatta con l’intelligenza artificiale e dobbiamo segnalarne l’uso. Evidentemente in questo caso non ha senso. Imporre di segnalare tutto rischia di rendere la segnalazione inutile.

All’estremo opposto l’idea che non ci sia bisogno di indicare che un video è prodotto dall’AI se è evidente ignora le diversità umane. Quello che è evidente per me, esperto in intelligenza artificiale di 55 anni, e quello che è evidente per un ragazzo di 16 anni, o un anziano signore di 75 anni, o un operaio di 40, non è lo stesso. E anzi c’è un rischio severo di persone che credano a cose false, seguendo video manipolati con l’intelligenza artificiale. Questo accade tantissimo anche tra i professionisti.

Recentemente negli Stati Uniti gli agenti dell’Ice hanno ucciso Alex Jeffrey Pretti, un cittadino americano che protestava e aveva appena aiutato una donna coinvolta e vittima della loro operazione. La cosa ha, giustamente, generato tantissime proteste. La modalità è stata particolarmente brutale in quanto lo hanno freddato dopo che si era inginocchiato. La foto di questo evento ha fatto il giro del mondo, ma in alcune versioni Alex Pretti ha in mano una bottiglia. Una bottiglia? Quello che segue è la mia ipotesi di quello che è successo. La foto originale è molto sgranata. Così per aumentare la qualità hanno usato una AI per ridisegnarla. È una procedura standard, lo so fare anche io. E nel fare questo si consegna all’AI la foto originale, si scrive una descrizione di cosa si voglia ottenere, si stabliscono le nuove dimensione della foto risultato e si imposta  e un numero tra 0 e 1 che indicha quanto la nuova foto possa variare dall’originale. Con 0 riottieni la stessa foto sgranata con 1 una foto completamente nuova. Ma con valori intermedi generano simili. Nella foto originale Alex non ha una bottiglia in mano. Forse il telefonino. Ma l’AI, vedendo una persona inginocchiata con qualcosa in mano e con dei poliziotti in divise vicino, applica le immagini più simili che ha visto. Che cosa ha una persona inginocchiata in strada, in mano? Spesso una bottiglia. Ed ecco apparire la bottiglia nella mano di Alex Pretti. Non per cattiveria di chi ha manipolato l’immagine, che magari non se ne è neanche accorto. Ma cercava solo di migliorare la qualità di un documento fotografico d’importanza eccezionale.

Vedete perché è importante che si sappia quando un’immagine è stata manipolata, e che la legge lo imponga?

Mentre scriviamo, l'Europa sta deliberando esattamente su questo. La Commissione europea ha pubblicato il 5 marzo scorso la seconda bozza del Code of Practice sull'etichettatura dei contenuti AI, nell'ambito dell'Articolo 50 dell'AI Act. La consultazione pubblica si chiude il 30 marzo 2026. Il codice definitivo sarà approvato a giugno, e le regole entreranno in vigore il 2 agosto 2026.

La bozza attuale prevede l'etichettatura obbligatoria dei contenuti AI realistici, e la marcatura machine-readable (ovvero che possono essere riconosciuti ed elaborati da un computer) di tutti i contenuti generati. Ma esonera quelli "evidentemente fittizi", replicando esattamente il problema descritto sopra: evidente per chi?

E non prevede ancora il diritto dell'utente a filtrare i contenuti in base alla loro origine. Questa è la lacuna che vale la pena colmare. C'è ancora tempo per farlo.

Sulla base di tutto questo, la proposta che mi sentirei di presentare al legislatore europeo si articola in tre punti.

  • Per quanto riguarda i contenuti generati interamente dall'AI devono essere etichettati sempre, senza eccezioni. Non "se non è evidente", ma sempre. La scimmia col missile è ovviamente falsa per me; non lo è per tutti. E domani potrebbe non esserlo per nessuno.
  • ogni piattaforma deve inoltre essere obbligata a permettere agli utenti di filtrare i contenuti in base alla loro origine. Vedere solo contenuti generati dalle AI (il primo caso), solo contenuti umani, o entrambi. Non è censura ma è restituire agli utenti la scelta su cosa guardare. Inoltre: cancellerebbe il vantaggio algoritmico intrinseco che oggi i contenuti AI hanno su quelli normali. E le piattaforme dovrebbero permettere agli utenti di segnalare materiale incorrettamente categorizzato.
  • Viceversa il processing tecnico puro non dovrebbe richiede etichettatura. Stabilizzare un video, ridurre il rumore, migliorare la nitidezza senza reinterpretazione creativa non è una modifica al contenuto. È uno strumento, come il flash. Obbligare a segnalarlo svuoterebbe l'etichetta di ogni significato.

Manca la parte più difficile: la legislazione sul secondo tipo di prodotti, i contenuti non generati dall’AI, ma modificati in maniera profonda dall’intelligenza artificale, sono un territorio più complesso e in rapida evoluzione. Sicuramente dovrebbero essere etichettati. Ma potrebbe non essere sufficiente. D’altra parte è troppo presto per imporre richieste più forti, conviene aspettare che si stabilizzi la tecnologia e concentrarsi sui casi al momento ovvi.

Copertina: Philip Oroni/unsplash