Decidiamo oggi per un domani sostenibile

L'intelligenza artificiale rovescia la legge di Brandolini: come l'AI sta cambiando il fact-checking

Non solo smaschera le bugie con precisione chirurgica, ma per ogni affermazione falsa fornisce una bibliografia ragionata. Vediamo perché è importante.

Tempo di lettura: min

La legge di Brandolini, formulata da Alberto Brandolini in un tweet del 2013, afferma che "la quantità di energia necessaria per confutare una stronzata è di un ordine di grandezza superiore a quella necessaria per produrla". 

Chiunque abbia mai provato a correggere una fake news sui social sa quanto questa osservazione sia dolorosamente accurata. Ma l'intelligenza artificiale sta ribaltando questa dinamica in modi che non avremmo potuto immaginare solo pochi anni fa.

Il mio feed social è un esperimento sociologico involontario. Frequento ambienti diversissimi: sostenitori di Trump che cerco di ignorare, ricercatori di democrazia elettronica, attivisti del clima, femministe che cercano di ignorare me, meditatori, crudisti, permacultori, scienziati di vita artificiale, ingegneri dell'intelligenza artificiale, giocatori di Go e, più recentemente, professori universitari in pensione con il pallino della sostenibilità. I miei account sono diventati un crocevia di punti di vista così contraddittori che, se queste persone si trovassero nella stessa stanza, probabilmente si avvelenerebbero volentieri a vicenda.


(una famosa vignetta di XKCD… credo)

Questo mare magnum di opinioni divergenti porta inevitabilmente con sé una quantità non trascurabile di post... diciamo opinabili. La mia strategia zen è sempre stata quella di non farmi influenzare, scrollando oltre con serenità buddhista. Ma recentemente ho scoperto un metodo che ha letteralmente rovesciato la legge di Brandolini.

Quando mi arriva l'ennesimo post cospirazionista, invece di ignorarlo o perdere mezz'ora a scrivere una confutazione ragionata, faccio una cosa semplice: lo copio e lo incollo a una delle AI disponibili (di solito scelgo quella che al momento mi sta più antipatica, per una sorta di giustizia poetica). Chiedo semplicemente di fare il fact-checking del contenuto. L'intelligenza artificiale non solo smaschera le bugie con precisione chirurgica, ma per ogni affermazione falsa fornisce una bibliografia ragionata, indicando dove quella particolare disinformazione è stata già confutata e perché.

Il risultato lo copio come commento, specificando chiaramente che ho chiesto a Claude, ChatGPT, Gemini o xAI di verificare le informazioni. A volte basta questo intervento per fermare la propagazione della notizia falsa. Altre volte bisogna difendere la posizione o spiegare perché le intelligenze artificiali non sono "solo macchine che ripetono quello che hanno sentito in giro", un'obiezione che ironicamente viene spesso da persone che stanno letteralmente ripetendo teorie del complotto sentite in giro.

La bibliografia fornita dall'AI è fondamentale per un motivo preciso, convincere le persone che diffidano delle intelligenze artificiali. Quello che invece non si riesce mai a convincere è chi ha condiviso la fake news. Quella è spesso una battaglia persa in partenza, perché ammettere di aver condiviso una falsità significherebbe perdere troppo la faccia. L'obiettivo non è convincere lui, ma chi lo legge. E dunque impedire che la disinformazione si propaghi ulteriormente, e farlo senza investire dieci volte l'energia che è stata necessaria per produrla. Con le intelligenze artificiali, questo diventa finalmente possibile.

Ma quali sono gli effetti più ampi di questa dinamica sulla società? La viralità di un post dipende da un fattore p, che rappresenta il numero medio di persone a cui viene rimbalzato. Capiamolo meglio, se io mando un contenuto a 100 persone, e loro in media lo mandano a x persone, il post diventa virale quando x supera 100. Possiamo definire quindi p come x/100. E se p > 1 il post sarà virale. Ma p non è uniforme in tutta la società. All'interno di alcuni gruppi, quelli che condividono la visione del mondo di quel post, p è molto maggiore.

Questo crea un fenomeno interessante: esistono posts che sono virali all'interno di specifiche comunità o reti di comunità, ma non nella società in generale. Questi post si diffonderanno come onde all’interno di queste comunità, ma poi si rifrangeranno raggiungendo i limiti di quella comunità. Questo meccanismo tende ad armonizzare la conoscenza all'interno di una echo chamber creando una conoscenza del mondo condivisa. Ma non espandendola ulteriormente.

Persone come me, che abitano simultaneamente più echo chambers, ricevono post da universi paralleli che raramente si toccano. Osservo costantemente come i miei contatti si autoselezionino: chi ripete i miei post appartiene invariabilmente a una specifica sottocomunità. Non c'è quasi mai un vero passaggio di informazione tra gruppi diversi. Le persone di una echo chamber tendono a evitare i post con cui sono in disaccordo come si eviterebbe un escremento di cane sul marciapiede: con distacco studiato, fingendo di non vederlo.

L'intelligenza artificiale sta però introducendo un elemento nuovo in questa dinamica. Le echo chambers continueranno a esistere - sono il sale della democrazia, permettendo lo sviluppo di identità collettive e la protezione di idee minoritarie. Tuttavia, le posizioni più estreme potrebbero venire progressivamente smorzate.

Quando diventa facile e veloce verificare un'affermazione, la soglia per condividere contenuti palesemente falsi si alza. Non elimineremo la polarizzazione, ma potremmo assistere a una sua moderazione. Non eliminando le differenze di opinione, ma aiutando a costruire un terreno comune di fatti condivisi su cui basare il dibattito.

C'è un'ironia in tutto questo: l'intelligenza artificiale, spesso accusata di amplificare la disinformazione, potrebbe diventare uno degli strumenti più efficaci per contrastarla. Non attraverso la censura o il controllo dall'alto, ma semplicemente abbassando drasticamente il costo energetico della verifica dei fatti. Brandolini aveva ragione sulla sproporzione energetica, ma non aveva previsto che avremmo potuto delegare il lavoro pesante a un'intelligenza artificiale instancabile.

La prossima volta che vedete una fake news particolarmente irritante, prima di ignorarla o di sprecare energia preziosa in una confutazione manuale, provate a chiedere a un'AI di fare il lavoro sporco. Potreste scoprire che la legge di Brandolini, dopo anni di regno incontrastato, ha finalmente trovato la sua kryptonite.