Chiamale se vuoi emozioni artificiali
Algoritmi e soluzioni di machine learning sono in fase di sperimentazione per il riconoscimento facciale delle emozioni. Secondo molti studiosi, le espressioni sono diverse a seconda di culture e contesti sociali, ma le industrie delle Ai pensano già a come impiegarle nei settori produttivi.
di Luca De Biase
Una quantità di algoritmi e soluzioni di machine learning sono progettate per riconoscere automaticamente le espressioni facciali e decodificarle in modo da stabilire a quali emozioni si riferiscono. Un articolo di Kate Crawford su Nature, parte dall’analisi di “4 Little Trees” un programma sviluppato a Hong Kong che promette di riconoscere le emozioni dei bambini mentre fanno i compiti con il computer. Usa il riconoscimento facciale per classificare le espressioni in base a sei emozioni fondamentali: felicità, tristezza, rabbia, disgusto, sorpresa e paura.
Secondo le stime, dice Nature, l’industria del software che riconosce le emozioni di chi sta davanti a uno schermo crescerà a 37 miliardi dollari entro il 2026. Si prenderanno decisioni di assunzione basate sul riconoscimento delle espressioni online, si riterranno credibili testimoni in processi in riferimento ai risultati di questi algoritmi, si faranno percorsi educativi personalizzati usando i dati generati da questi software. Ma alcuni studi mettono in discussione la scienza che sta dietro questi sistemi di riconoscimento delle emozioni. Secondo Lisa Feldman Barrett, del Department of psychology, Northeastern university, e altri, le espressioni sono relative alle diverse culture e ai diversi contesti sociali. La scienza che suppone esistano le sei emozioni fondamentali si basa sulle ricerche psicologiche di Paul Ekman realizzate negli anni Sessanta e dopo di allora messe in discussione, a partire dall’antropologa Margaret Mead, proprio in base ai differenti contesti culturali. Ma le sei emozioni piacciono all’industria dell’intelligenza artificiale perché semplificano il lavoro in maniera molto comoda. Il problema è che poi questi risultati sono usati nella vita reale per supportare le decisioni in una quantità di settori, dalle assunzioni, appunto, ai processi e ai percorsi educativi. Studiosi e imprenditori lungimiranti, dal Mit all’Ada lovelace institute di Londra, hanno dichiarato di apprezzare il fatto che alcuni sistemi politici regolino l’utilizzo di questi sistemi di analisi automatica delle espressioni.
La scelta della Commissione europea di proporre una nuova regolamentazione dell’intelligenza artificiale, resa nota mercoledì 21 aprile 2021, è stata accolta con molti apprezzamenti e alcune critiche. Ma non è più il tempo dell’avversione preconcetta per la regolamentazione della tecnologia digitale che si manifestava qualche anno fa in base alla convinzione secondo la quale ogni regola frena l’innovazione: ormai si è compreso, anche nel mondo anglosassone, che la tecnologia va pensata anche per le sue conseguenze in rapporto alla società che la utilizza. E dunque il lavoro di regolamentazione appare più legittimato, anche per quanto riguarda i suoi sviluppi futuri. Casomai, sul riconoscimento facciale, la Commissione è apparsa piuttosto timida. Ma questa è un’altra storia.
di Luca De Biase, giornalista