Decidiamo oggi per un domani sostenibile

Ma quanto mi costi?

L’intelligenza artificiale sta diventando una nuova utility: potente, utile e… da pagare al consumo.

martedì 14 ottobre 2025
Tempo di lettura: min

L’intelligenza artificiale ha fatto un ulteriore passo avanti. La ricerca negli ultimi anni ha iniziato a stabilizzare i risultati, e i ricercatori sono riusciti a elaborare degli algoritmi di AI estremamente evoluti in grado di programmare meglio dei migliori esseri umani (il campionato mondiale di coding l’ha ancora vinto un essere umano, ma di poco e l’AI è arrivata seconda), così come risolvere problemi di matematica superando i migliori matematici. Questo risultato non con macchine specializzate, ma generali. Fa differenza se si tratta di una stessa intelligenza artificiale che scrive ottimo codice, risolve problemi di matematica, gioca a scacchi come un grande maestro, e risolve problemi di chimica dei materiali. Oppure se sono quattro programmi differenti. In un caso l’AI ha un’intelligenza a tutto tondo e potrebbe anche spaziare su campi differenti (come il cervello umano). Nell’altro è uno strumento specializzato, ma inflessibile. Sono insomma macchine generali molto intelligenti, ma di cui abbiamo ignorato i costi. E i costi sono enormi. Questi strumenti consumano tantissima elettricità. Certo, un’AI può adesso lavorare su un singolo prompt per 30 ore. Ma chi paga per quelle 30 ore? Pensate che il contrattino da 20 euro al mese, o anche da 200, possa essere sufficiente?

Quindi, mentre da una parte queste aziende producono modelli sempre più grandi e sempre più intelligenti, dall’altra c’è una ricerca continua per diminuire i costi e i consumi di questi cervelloni. Nota, in genere cervelloni viene usato per indicare supercomputer, ma è molto più adatto per questi sistemi.

Le ditte hanno modo di controllare questi costi semplicemente girando una manopola (virtuale). Il numero di CPU (il “cervello” del computer, quello che svolge i compiti ed elabora i calcoli) che assegnano a ogni intelligenza artificiale. Possono abbassare questo numero per tutti, o solo per certi utenti. Sempre o solo nei momenti di maggiore traffico. A un certo punto è inevitabile limitare le risorse perché se tutti si collegano e cercano di usare il massimo delle potenzialità che gli sono state promesse, il numero di CPU a disposizione semplicemente non basta.

Questo proprio nel momento in cui le AI, grazie alle loro nuove capacità, sono sempre più utili. Abbiamo adesso agenti AI in grado di ricevere istruzioni composte, analizzarle, definire un piano per eseguirle, e poi passo dopo passo seguire il piano per eseguire quelle istruzioni. E a volte il risultato funziona pure.

Siamo ancora utili? La grande domanda dell’era AI, tra chi la teme e chi la spinge

L’intelligenza artificiale potrebbe svolgere in mezz’ora un lavoro di tre mesi, ma anche creare contenuti di bassa qualità che rallentano la produttività. Capacità cognitive a rischio, secondo gli esperti. Stati divisi tra regolamentazione e accelerazione. 

 

Però tutto questo ha un costo. E all’improvviso le aziende sembrano essersene accorte. Di certo OpenAI e Anthropic, meno Google che grazie alla sua dimensione ha più libertà economica di manovra. Se leggete i forum in cui si discute di Cloud Code (CC) su Reddit, vedrete che siamo passati da un periodo in cui tutti cantavano le lodi di quello che potevano fare con Cloud Code a uno in cui sono cominciati a sorgere dei problemi. Per chi non lo sapesse CC è un programma che applica l’intelligenza artificiale Claude al codice direttamente dentro al computer dell’utente. Un po’ come avere un elfetto nel computer che mette a posto e fa quello che gli chiedi. Più l’elfetto è intelligente, più è utile. Meno lo è, più è pericoloso. Può, in buona fede, cancellare cartelle di informazioni vitali, o rompere il codice di programmi funzionanti.

In questo contesto tutto ha cominciato a rompersi. Le intelligenze artificiali a volte funzionano, a volte diventano idiote (diversamente intelligenti?). Ti fanno grandi complimenti, ma non sono più in grado di portare un elemento nuovo nella conversazione. Se stanno gestendo del codice il risultato è pieno di errori. Scrivono codice senza considerare tutti i documenti a cui hanno accesso, perché non hanno più accesso alla memoria o alle CPU necessarie per gestire e considerare quei dati.

E intanto le aziende mettono dei limiti chiari all’uso. Alcuni al giorno, altri nello slot di 5 ore, oppure a settimana, o al mese. E, se sfori, non puoi più usare quella AI per il resto della settimana o del mese. Vi rendete conto del danno che questo comporta per un’azienda o un lavoratore autonomo che ormai usa professionalmente la AI? Per esempio, io sono passato da 20 dollari al mese di uso di Cursor a 200. Solo per rendermi conto che avevo già bruciato 100 dollari in otto giorni. Lo rifarei. Anche 400 dollari al mese sono decisamente meno di quanto mi costerebbe un programmatore professionista. E il risultato è migliore. Ma la promessa iniziale era un’altra. Inoltre, non sempre le AI producono risultati di valore. E se stai pagando il loro lavoro al token, stai più attento a come li usi. Per esempio, non li usi più per chiacchierare, e quando ti ritrovi a riscrivere lo stesso prompt quattro volte perché l’AI non fa quello che desideri (ma quello che gli hai maldestramente chiesto) fai più attenzione a come ti esprimi; cominci a essere preciso, e questo forse è un bene.

Un’altra tecnica per consumare meno, usata dalle aziende di AI, è quella di avere più intelligenze artificiali a disposizione e poi indirizzare ogni richiesta alla AI con l’intelligenza necessaria per risolvere la richiesta, ma non di più. Questo lo fanno in tanti, ma OpenAI è la più sfacciata. Siamo passati dall’avere accesso (in contemporanea) a ChatGPT 4, 4o, o1, o3 -mini, o3, 4.5, a ChatGPT 5-auto, che poi instrada le richieste a ChatGPT 5-Instant o ChatGPT 5-Thinking. Peccato che 5-Instant risulti meno intelligente di 4o (a cui ci eravamo abituati) e 5-Thinking non è proprio al livello di o3. Però ChatGPT 5 costa meno della somma degli usi del ventaglio precedente. Come spesso accade il prodotto di massa impone la sua presenza e gli usi di nicchia si ritrovano schiacciati.

C’è un’altra alternativa, pagare per ogni singola domanda l’AI che stai usando. E in questi casi le aziende che offrono questi servizi sono più aperte all’uso dei loro strumenti. OpenAI offre ben 35 diversi modelli di intelligenze artificiali. E qui si scopre che un milione di Token della AI ChatGPT 5-nano (quella che a volte sospetto mi risponda) costa cinque centesimi in input (il testo che l’AI legge) e 40 centesimi in output (il testo che l’AI scrive). Mentre O1-pro (il modello più costoso) 150 dollari in input e 600 dollari in output. Uno scarto di quattro ordini di grandezza. Non ho i dati, ma non credo molte aziende usino O1-pro.

Quindi la ricerca del modello giusto, in grado di soddisfare i nostri bisogni senza consumare una quantità di energia enorme è importantissimo. Riuscire a mantenere gli usi che questi strumenti possono avere, all’interno di un range di costi abbordabili è anche importantissimo. Tra l’altro ormai le AI locali sono comparabili a quelle in rete. GPT-OSS:120b gira tranquillamente sul mio laptop e la sorella minore (GPT-OSS:20b) gira su quasi tutti quelli moderni, e il livello delle risposte è molto buono. Soddisfa tranquillamente il 90% delle mie necessità. Non so se potrebbero sostenere un programma ad agenti come Claude Code (mi riprometto di testarlo appena posso), ma per molti usi delle AI, basta e avanza. Tra l’altro usare un’AI locale vuol dire avere sempre sotto controllo su quale modello lavora, con quante CPU e GPU, con quanta memoria. Insomma diventare adulti ed essere responsabili delle proprie necessità.

C’è stato un giro di boa. Come se fossimo passati dal creare l’automobile più veloce possibile a quella sufficientemente veloce da essere utile, ma sufficientemente economica da essere sostenibile, l’utilitaria dell’AI.

Stiamo andando verso un mondo in cui l’intelligenza diventerà un bene di pubblica utilità, come l’elettricità. Misurata in QI al token (o qualcosa di equivalente), la si pagherà al consumo. Ciascuno potrà avere gli elettrodomestici intelligenti che vuole a casa, ma avranno bisogno di collegarsi alla rete elettrica, forse a quella idrica, e sicuramente a internet per scaricare l’intelligenza necessaria per funzionare.