Che cos’è il poverty porn 2.0 e cosa c’entra l’intelligenza artificiale
L’AI sta esacerbando un dilemma che il settore non profit affronta da anni: utilizzare o no immagini di indigenza per sensibilizzare il pubblico. Con gli avatar, si rischia di creare una “estetica della miseria” che sfrutta storie reali.
Bambini denutriti, villaggi africani battuti dal sole, ciotole vuote, mani che implorano aiuto: si chiama “poverty porn”, o pornografia della povertà, ed è l’abitudine a rappresentare le persone dei Paesi a basso e medio reddito in condizione di costante sofferenza, spesso attraverso immagini e fotografie in stock.
Questa strategia comunicativa, adottata a lungo da molte Ong di caratura internazionale, ha l’obiettivo (comprensibile) di sensibilizzare l’opinione pubblica su tragedie umanitarie in atto o condizioni di cronico disagio. Ma è stata spesso criticata perché, oltre a rischiare di ottenere col tempo l’effetto contrario (l’esposizione ripetuta alle immagini di sofferenza desensibilizza lo spettatore) riduce i soggetti a corpi decontestualizzati, sofferenti e razzializzati. Quindi gli abitanti della Repubblica democratica del Congo, del Burundi, del Sud Sudan non vivono più in condizioni di estrema povertà? Assolutamente no, ma non si possono ridurre solo a questo.
Con l’intelligenza artificiale questo discorso ha fatto un salto di qualità. Le immagini generate dall’AI consentono di produrre fotografie verosimili in pochi secondi, a costo zero e senza coinvolgere artisti ed esperti locali. Nel 2023, per esempio, l'Oms ha pubblicato una campagna antitabacco generata dall’intelligenza artificiale (qui sotto) che raffigurava un bambino sofferente e affamato, presumibilmente di origine africana, con abiti impolverati e la didascalia “Quando fumi, io muoio di fame”.

L’immagine è stata creata per disincentivare i fumatori a spendere soldi nel tabacco e spronarli a usarli per scopi più etici. Ma l’effetto è stato innescare un ragionamento sull’uso dell’intelligenza artificiale in questo “poverty porn 2.0”.
I difensori dello strumento dicono che, grazie all’AI, i soggetti non verranno coinvolti in prima persona, sostituiti da avatar fittizi. Ma se tecnicamente questa soluzione “protegge” le persone, dall’altra crea una povertà astratta, “un’estetica della miseria” che sfrutta storie e comunità reali, appiattisce realtà complesse, bypassa il consenso e si vende bene sugli aggregatori di immagini stock come Adobe (qui una carrellata di: bambino presumibilmente africano accovacciato a bere da una pozzanghera sporca, bambino coperto di fango, donna bianca che aiuta bambini neri) o Freepik.
“L’AI generativa riproduce fedelmente la vecchia ‘grammatica visiva’ della povertà – stereotipi razziali, scene decontestualizzate, sofferenza messa in scena – esattamente ciò da cui il settore ha cercato di allontanarsi. Questo non solo rappresenta male le persone, ma mina la fiducia del pubblico confondendo fatti e finzione”, ha commentato su Rsi Noah Arnold, responsabile per l’Impatto sociale per Fairpicture, una piattaforma che garantisce contenuti fotografici in collaborazione con artisti locali, utilizzata da organizzazioni come Fairtrade e Oxfam international.
Arnold sottolinea che il problema non è tanto l’AI, quanto “il razzismo radicato e la mentalità coloniale che hanno plasmato l’aiuto umanitario e la salute globale fin dalle origini”. Molto prima della diffusione dell’intelligenza artificiale “molte organizzazioni diffondevano immagini stereotipate e dannose, spesso costruite ad arte da fotografi del Nord globale per soddisfare le aspettative dei finanziatori. […] L’intelligenza artificiale non ha creato questo impulso, ma lo rende più visibile e può accelerarlo”, sostituendo i corpi reali con i loro cliché.
Una possibile alternativa, secondo The Lancet, è etichettare le immagini generate dall’AI, e allo stesso tempo sostenere i fotografi locali, impegnati in una rappresentazione autentica della realtà. Ma da qui a credere che possa succedere ce ne passa.