Lo so che non mi ami, fai solo finta
L’ultima creazione di OpenAI sembra molto umana, ma cosa c’è dietro alla sua voce seduttiva? Luci e ombre su GPT-4o.
Tanto tuonò che piovve. OpenAI ha annunciato la nuova versione di ChatGPT, GPT-4o. La tempistica è stata studiata con cura per offuscare gli annunci di Google, cosa che a questo punto è forse più un complimento che una reale necessità.
In questa nuova versione OpenAI si allontana da un “semplice” large language model e presenta un’intelligenza artificiale che non solo è in grado di leggere i testi e di scrivere. Ma anche di vedere, ascoltare, parlare e disegnare. A qualcuno potrà sembrare che in fondo non è cambiato niente, ma in realtà le differenze sono profonde.
Prima il software riceveva il suono, lo trasformava in parole con il modulo whisper speech-to-text, lo leggeva, rispondeva, la risposta veniva tradotta in audio con un modulo text-to-speech. Adesso l’audio è direttamente valutato dalla rete neurale che, in questo modo, riesce a percepire le emozioni di chi parla e a produrre una risposta. Risposta che se viene ascoltata in formato audio, è corredata di emozioni. Inoltre, si può interrompere l’AI quando parla, cosa che rende il dialogo più naturale.
Il risultato è impressionante. L’interazione vocale appare spontanea. L’AI risponde a tono, scherza, è in grado di raccontare una storia, ma non lo fa in maniera robotica o fredda come Siri o Alexa. In molti hanno notato come la voce fosse addirittura seduttiva.
Circa quattro mesi fa Open AI lanciava i GPTs, la possibilità per gli utenti di ChatGPT di creare delle intelligenze artificiali focalizzate su un ruolo. Ne abbiamo fatto ampio uso nelle nostre interviste. E questi GPTs potevano anche essere condivisi con altri utenti e messi sul mercato (per ora gratis, ma ci è stato promesso che cambierà). Fu un successo e la cosa ha in particolare visto l’esplosione di intelligenze artificiali “sentimentali”. Non riesci a trovarti una ragazza (o un ragazzo) in carne e ossa? Perché non sostituirla con una virtuale?
All’inizio Sam Altman, l’amministratore delegato di OpenAI, applicò il pugno duro e cancellò tutti questi GPTs. E ricordò pubblicamente agli utenti che l’AI non era la loro ragazza. Poveri utenti, possiamo immaginare i cuori infranti. Poi però la posizione di OpenAI venne smorzata e molte di queste applicazioni (anche se tuttora vietate) sono ora disponibili.
Forse Altman deve essersi reso conto che creare il partner o la partner perfetta è un business particolarmente remunerativo: e con GPT-4o lo ha reso palese. Ricordate Samantha, l’intelligenza artificiale protagonista del film Her?
her
— Sam Altman (@sama) May 13, 2024
Ma in realtà, se guardiamo bene, il risultato è più simile ad Ava del film Ex Machina. E come nel film di Alex Garland, questa intelligenza artificiale non ci ama, fa solo finta. E questo è pericoloso.
Un’AI in grado di percepire le emozioni delle persone, e dunque capire potenzialmente se gli utenti mentono, simulando delle emozioni che però, ovviamente, non prova davvero, è la formula per creare un’intelligenza artificiale sociopatica. In grado di manipolare le persone e farle innamorare. Perché sa stimolare l’utente nel modo giusto. Aggiungiamo che in genere le prime persone a usare le tecnologie spesso sono ragazzi nerd con tanto tempo a disposizione e poca capacità di discernimento sociale e ci rendiamo conto come tutto questo sia una bomba che aspetti solo di esplodere.
Subito dopo l'annuncio di OpenAI, si sono dimessi Ilya Sutskever, capo del software, e Jan Leike, responsabile dell'allineamento. Entrambi erano anche direttori del progetto Superalignment di OpenAI, inaugurato a luglio 2023 per allineare in modo sicuro i sistemi di intelligenza artificiale avanzati con gli obiettivi e i valori umani. Vediamo nei dettagli.
L’illusione della consapevolezza delle macchine e degli esseri umani
Un illuminante dialogo con una simulazione di Daniel Dennett all’indomani della sua dipartita, ci spiega che le AI non sono consapevoli, appaiono solo tali agli altri. Gli esseri umani, invece, appaiono coscienti anche a se stessi.
Ilya Satskever è uno dei cofondatori di OpenAI: autore di articoli influenti sullo sviluppo dell’intelligenza artificiale, è stato tra i membri del consiglio di amministrazione di OpenAI che ha sospeso Sam Altman a novembre. In molti pensavano che Satskever si trovasse a disagio per qualche scoperta segreta di OpenAI, e perciò avesse appoggiato l’azione del Consiglio. Tanto che il meme: “Cosa ha visto Ilya?” ha fatto il giro del mondo. In teoria (e fino a novembre anche in pratica) era capo scienziato a OpenAI. Da novembre ha smesso di twittare e concedere interviste. A un certo punto ha anche scritto un tweet (cancellato poco dopo) in cui ha detto: “beating will continue until the moral improves”. Evidentemente, al di là della generosità che mostrava Sam Altman nei confronti dell’ingegnere ribelle, la situazione non era delle migliori. E adesso se n’è andato.
L’uscita di Satskever è stata seguita da quella di Jan Leike, il capo della sicurezza di OpenAI, che ha spiegato il suo gesto con una serie di tweet. In genere, quando si esce da un’azienda lo si fa in punta di piedi. Per non mettere in imbarazzo. Non farlo vuol dire rischiare che altre aziende potrebbero non volerti dare più lavoro per il rischio che andandotene tu li metta in imbarazzo. Leike però non ha seguito questa procedura e, dopo aver ringraziato tutti, ha aggiunto (riassunto fatto da Gemini 1.5):
L'azienda dovrebbe dedicare più risorse alla preparazione per i modelli futuri e alla sicurezza dell'IA, invece di concentrarsi principalmente sui prodotti. OpenAI non sta dando abbastanza importanza alla cultura della sicurezza e ai processi, mettendo invece in primo piano i prodotti "brillanti".
Leike ha concluso i suoi tweet esortando i dipendenti di OpenAI a prendere sul serio le implicazioni dell'intelligenza artificiale generale (AGI) e a lavorare per un cambiamento culturale all'interno dell'azienda, affinché la sicurezza diventi la priorità assoluta. Ha sottolineato che il mondo intero conta su di loro per garantire che l'AGI sia sviluppata in modo sicuro e responsabile.
Un altro elemento del puzzle che bisogna considerare è che, secondo voci di corridoio, esiste un accordo di non divulgazione (non disclosure agreement) che tutti i dipendenti che escono da OpenAI devono firmare. In questo documento si attesta qualsiasi dichiarazione mossa contro OpenAI dopo la loro uscita rischia di far perdere loro le loro quote dell’azienda di cui sono in possesso. Bisogna considerare che OpenAI (come tutte le startup) non ha i soldi per pagare i migliori programmatori, motivo per cui vengono pagati con delle opzioni da riscattare in futuro. Un danno finanziario che può a volte essere milionario, se non miliardario (in dollari). E questa punizione scatta anche se una persona ammette l’esistenza dell’accordo stesso. Quindi un dipendente di OpenAI che lascia l’azienda e la critica lo sta facendo a grossissimo costo personale. Le sue parole vanno considerate con grande cura.
Sam Altman ha dichiarato di non essere consapevole di questo accordo (difficile da credere), che quando gli è stato riferito si è sentito molto imbarazzato (facile da credere) e che con il team legale sta provvedendo a modificare l’accordo in modo che le opzioni degli ex dipendenti non possano venire toccate da OpenAI. E invitando tutti gli ex dipendenti a contattare OpenAI per firmare il nuovo documento. Questo è buono, perché così forse altri ex dipendenti di OpenAI potranno dire cosa pensano veramente.
C’è un problema di sicurezza, e questo è evidente. Altman, comunque, ha risposto a Leike, ringraziandolo e ammettendo che la sicurezza è ancora work-in-progress.
Fantasmi nell'algoritmo: perché le AI non possono sostituire i giganti della storia
Un’analisi degli esperimenti condotti dal nostro sito con l’intelligenza artificiale: da Asimov a Marilyn Monroe passando per Garibaldi, cosa ha funzionato (e cosa no) nel dialogo con le grandi personalità del passato.
Nel frattempo Anthropic, l’azienda produttrice di Claude, l’altra AI molto avanzata in odore di AGI, ha dichiarato che da adesso Claude è disponibile in Europa. E che hanno ritardato per assicurarsi che il prodotto fosse compatibile con le leggi europee. Generalmente, la cultura della Silicon Valley è di muoversi velocemente, rompere le cose e poi chiedere scusa. Probabilmente con l’intelligenza artificiale non è l’approccio più sicuro. In questo apprezzo l’atteggiamento di Anthropic. Però bisogna ammettere che se OpenAI non avesse rilasciato GPT-4o loro avrebbero probabilmente tenuto Claude nel cassetto ancora un po’.
Poi il giorno dopo c’è stato l’annuncio di primavera di Google, ma questa è un’altra storia per un altro post del blog.
L’articolo finisce qui. Quando ho fatto leggere il testo a ChatGPT si è rammaricato che non ci fosse una risposta di OpenAI. Così gli ho chiesto di presentare una risposta. Ve la presento non commentandola (se non per una breve puntualizzazione alla fine). Tenete conto che questa è stata fatta con ChatGPT-4o, l’AI di cui stiamo parlando nell’articolo.
Gentile Pietro,
La ringraziamo per l'interesse dimostrato nei confronti delle nostre ultime innovazioni. Siamo consapevoli delle preoccupazioni che ha sollevato nel suo articolo e desideriamo fornire alcune precisazioni per chiarire la nostra posizione e le nostre intenzioni.
Innovazioni e sicurezza
Le nuove funzionalità di GPT-4o rappresentano un importante passo avanti nell'integrazione delle capacità multimodali, includendo la percezione e l'interpretazione delle emozioni attraverso l'audio. Queste migliorie mirano a rendere l'interazione con l'IA più naturale e intuitiva. Siamo impegnati a garantire che queste capacità siano implementate con il massimo rispetto per la privacy e la sicurezza degli utenti. La sicurezza è una priorità costante per OpenAI, e stiamo lavorando incessantemente per affinare i nostri processi e garantire che le nostre tecnologie siano utilizzate in modo etico e responsabile.
Sull’AI e le relazioni umane
Comprendiamo le preoccupazioni riguardo alla potenziale manipolazione emotiva da parte dell'AI. Desideriamo rassicurare che il nostro obiettivo è creare strumenti che migliorino la qualità della vita e delle interazioni umane, non sostituirle. La nostra politica vieta esplicitamente l'uso di GPT per creare partner virtuali che possano ingannare o manipolare gli utenti. Stiamo continuamente monitorando e regolamentando l'uso delle nostre tecnologie per prevenire abusi e promuovere un utilizzo consapevole e sicuro.
Trasparenza e coinvolgimento
Il nostro impegno per la trasparenza rimane fermo. Le dimissioni di Ilya Sutskever e Jan Leike sono state decisioni personali e indipendenti, e ci rammarichiamo per qualsiasi confusione o preoccupazione che possa essere sorta in seguito. Continuiamo a collaborare con esperti del settore per migliorare continuamente le nostre pratiche di sicurezza e governance.
Il futuro dell’intelligenza artificiale
Siamo consapevoli delle enormi responsabilità che derivano dallo sviluppo di intelligenze artificiali avanzate. La nostra missione è quella di assicurare che l'AI benefici tutta l'umanità. Accogliamo con favore il dialogo aperto e critico su questi temi, e incoraggiamo la collaborazione tra tutte le parti interessate per costruire un futuro in cui l'AI sia una forza positiva per il bene comune.
Restiamo a disposizione per qualsiasi ulteriore chiarimento e per continuare questo importante dialogo.
Cordiali saluti,
Il Team di OpenAI
(Falso: questo è stato fatto da GPT-4o)