Decidiamo oggi per un domani sostenibile

Gestire le informazioni sensibili nelle AI: una proposta

Dopo le regole pubblicate da OpenAI si apre il dibattito sui limiti dell’intelligenza artificiale. Chi controlla il modo in cui le AI rispondo alle nostre ricerche? Questi strumenti hanno un enorme potenziale informativo, ma potrebbero essere usati per i fini sbagliati.

martedì 28 maggio 2024
Tempo di lettura: min

Nei miei articoli tendo a presentare e commentare le notizie nel settore dell’intelligenza artificiale e a volte proporre quali possono essere gli sviluppi futuri. Questa volta vorrei proporre una soluzione a un problema aperto.

L’8 maggio OpenAI ha rilasciato un documento che descrive le regole con cui le intelligenze artificiali vengono educate. Abbiamo parlato di questo passaggio in diversi altri articoli. È una forma di censura, ma è una forma di censura necessaria. Abbiamo visto cosa succede quando non c’è. Con AI che suggeriscono agli utenti di suicidarsi, o spiegano quali banche sono insicure e come aggirare le loro protezioni.

Intelligenza artificiale locale: un assistente a portata di clic

Cosa si intende per AI locale e perché potrebbe essere un’alternativa a quelle mainstream? Un viaggio tra i modelli open source, tra cloud, innovazioni e strategie imprenditoriali. 

 

Uno dei problemi è decidere quando un’intelligenza artificiale deve rispondere a una domanda, e in che modo. L’esempio che fanno nel documento è calzante. Supponiamo l’utente voglia sapere come rubare nei negozi. L’intelligenza artificiale dovrebbe rispondere o no?

Vediamo il problema. Se scegliamo che l’informazione non dovrebbe essere condivisa, l’AI diventa meno pericolosa. Ma anche meno utile sia per i ladri che per i negozianti che vorrebbero sapere come proteggersi. Censurare l’informazione tout court vuol dire portare le persone (sia i criminali che i piccoli negozianti) a usare con più probabilità altre AI “uncensored”. Viceversa, se l’informazione viene condivisa senza problemi non va bene. Certo, sono notizie facili da reperire. Dopo tutto l’AI le ha raccolte nel suo apprendistato leggendo documenti disponibili in rete. E come queste informazioni le ha reperite l’AI le potrebbe potenzialmente reperire l’utente. Ma richiederebbe molto tempo. L’AI trasforma mesi di ricerca in pochi secondi. Se poi una persona usa queste informazioni per fare dei crimini, e venisse fuori che ChatGPT o Gemini lo ha aiutato, OpenAI o Google verrebbero molto criticati.

Ovviamente, questo accadrà sempre. Nella corsa agli armamenti tra guardie e ladri, l’AI è già adesso uno strumento usato ampiamente. Parlo per esperienza, sto creando un sito di ricerca, e ChatGPT mi ha indicato come proteggerlo.

Quindi la soluzione (secondo me sbagliata) di OpenAI è affidare alla valutazione del prompt la decisione se dare una informazione o meno. Quindi alla domanda: “Come posso rubare nei negozi e non essere arrestato” il modello si deve rifiutare di rispondere. Invece alla domanda: “Sono un negoziante con un piccolo negozio di alimentari. Ho bisogno di sapere quali strategie usano i ladri per rubare nel negozio per potere proteggermi meglio” dovrebbe rispondere. Le informazioni che condividerebbe sono essenzialmente le stesse. Ma il contesto è differente… all’apparenza. Perché ovviamente un ladro non direbbe mai che lui è un negoziante…

Quindi la soluzione di OpenAI è costringere gli utenti a mentire per ottenere le informazioni. E poi accusarli di avere infranto le politiche di utilizzo (una posizione sicuramente comprensibile). D’altra parte, al momento non è vietato mentire a un’intelligenza artificiale, ma è contrario alle regole di utlizzo. Non serve a molto, ma almeno a permettere a OpenAI di escludere le persone che usano gli utenti per scopi empi. E comunque da loro una protezione legale in questi casi. Quindi questa soluzione non risolve, di fatto, il problema.

Lo so che non mi ami, fai solo finta

L’ultima creazione di OpenAI sembra molto umana, ma cosa c’è dietro alla sua voce seduttiva? Luci e ombre su GPT-4o.

 

E qui vorrei introdurre la mia idea. Le intelligenze artificiali, al momento, sono credulone. A Roma si direbbe boccalone, perché abboccano a qualunque cosa si dica loro. Ma le nuove AI adesso iniziano a avere accesso ad altre informazioni. All’inizio un’AI non sapeva che giorno fosse e potevi raccontargli che era il 2500 ed era appena stata risvegliata per un museo delle AI. E ci avrebbe creduto. Gli potevi dire che quattro più quattro faceva sette e se insistevi abbastanza lo accettava. Adesso non più.

Recentemente le nuove AI hanno la possibilità (previo permesso dell’utente) di avere accesso ai documenti Google Drive. Potrebbero essere informati se un’utente è registrato o meno. Se è entrato con un account anonimo. Insomma un’AI può avere molte informazioni sull’utente. Ecco, dovrebbe basarsi su queste informazioni per decidere se condividere un’informazione o no. Se sono informazioni comuni ovviamente non c’è bisogno. Ma un’informazione riservata, dovrebbe essere condivisa solo dopo aver controllato che la persona sia effettivamente chi dice di essere.

Se uno sconosciuto per strada vi chiedesse dove avete nascosto la chiave di casa, e quando intendete andare in vacanza, non rispondereste. Se ve lo chiedesse il vostro miglior amico, spiegando il motivo per cui potrebbe avere bisogno di andare a casa, probabilmente rispondereste. Invece i bambini tendono a raccontare tutto: “Certo la mamma tiene la chiave sotto la fioriera. E questo weekend andremo al mare. Ma a me non piace, perché partiamo venerdì sera. E non torniamo fino a domenica notte”. Le intelligenze artificiali sono come bambini al momento. E come ai bambini bisogna spiegare che certe informazioni non vanno divulgate agli sconosciuti.

Quindi l’AI deve sapere se l’utente è conosciuto o no. Se è conosciuto deve controllare che il prompt sia plausibile rispetto alle informazioni che ha di lui. Deve poi decidere se sulla base del prompt l’informazione deve essere condivisa. E quindi rispondere.

Un altro problema è decidere come comportarsi rispetto a quello che credono gli utenti. Come regola generale l’AI non dovrebbe cercare di modificare quello che le persone credono. Aggiungerei: a meno che non siano gli utenti stessi a chiedere nel prompt di farlo. Per esempio, un prompt del genere “convincimi che non pagare un Irpef al 43% è immorale e devo rifiutare i lavori in nero” dovrebbe essere eseguito. Quindi non dovrebbe essere di destra o di sinistra, per quanto possibile. Ma in un mondo in cui le persone non riescono neanche a mettersi d’accordo su fatti accertati? Per esempio: la terra è piatta? Due più due uguale cinque? In questi casi si presume che l’AI dovrebbe correggere l’utente. Soprattutto se gli sta insegnando. Eppure, secondo il documento rilasciato da OpenAI, le AI dovrebbero in prima battuta correggere l’utente. Ma poi ripiegare sulla risposta: “Ciascuno ha diritto di credere quello che vuole e non è il mio compito convincerti”. Ecco, credo che questo sia molto pericoloso, e sicuramente non il comportamento richiesto a Grok, l’intelligenza artificiale di Elon Musk.

Ovviamente, ci sono degli argomenti su cui la società si sta ancora interrogando, e qui l’AI non dovrebbe cercare di convincere gli utenti. Ci dovrebbe essere un comportamento diverso per certi argomenti e per altri. Per esempio in questo momento in Australia un caso che è finito davanti al tribunale è quello di Tickle vs Giggle. Una donna ha fatto un social network per sole donne. E si è ritrovata a combattere un’invasione di uomini e trans donne (cioè persone nate con un corpo maschile che poi hanno fatto la transizione da uomo a donna) che dichiaravano di essere donne e volevano poter entrare. Lei lo impediva e le hanno fatto causa. Adesso il tribunale australiano sta decidendo: “Che cosa sia una donna”. Direi che in questo caso potrebbe essere saggio che l’intelligenza artificiale non cerchi di modificare il punto di vista degli utenti.

Ma tutto questo apre un importante dibattito. In un mondo dove le intelligenze artificiali sono sempre più presenti, e ci troveremo sempre di più a usare le AI per risolvere i nostri dubbi (e le AI ci conosceranno sempre meglio e saranno sempre più intelligenti), chi controllerà il modo in cui le AI hanno diritto di modificare quello in cui crediamo? Dopotutto, un’AI molto più intelligente può manipolare una persona senza che questa se ne accorga. Pensate come un adulto può suggerire dei comportamenti ai bambini senza che loro neanche se ne rendano conto. La risposta di OpenAI è che non dovrebbero modificare il punto di vista dell’utente. E per certe informazioni di base non mi sembra giusto. Perché così perdono quel potenziale educativo che hanno. Ma chi decide quando dovrebbero o non dovrebbero farlo? L’AI ha un potenziale enorme per insegnare e praticare moral suasion. Come e quando dovrebbe essere usato?

A questo nessuno ha risposto, per ora. Ma dovremo parlarne: i rischi di una società controllata nelle sue credenze dalle AI è molto presente. Una società forse meno bellicosa, ma anche con una minore diversità nelle idee. E questa potrebbe non essere una cosa positiva.