Decidiamo oggi per un domani sostenibile

Che cos’è il poverty porn 2.0 e cosa c’entra l’intelligenza artificiale

L’AI sta esacerbando un dilemma che il settore non profit affronta da anni: utilizzare o no immagini di indigenza per sensibilizzare il pubblico. Con gli avatar, si rischia di creare una “estetica della miseria” che sfrutta storie reali.

martedì 14 aprile 2026
Tempo di lettura: min

Bambini denutriti, villaggi africani battuti dal sole, ciotole vuote, mani che implorano aiuto: si chiama “poverty porn”, o pornografia della povertà, ed è l’abitudine a rappresentare le persone dei Paesi a basso e medio reddito in condizione di costante sofferenza, spesso attraverso immagini e fotografie in stock. 

Questa strategia comunicativa, adottata a lungo da molte Ong di caratura internazionale, ha l’obiettivo (comprensibile) di sensibilizzare l’opinione pubblica su tragedie umanitarie in atto o condizioni di cronico disagio. Ma è stata spesso criticata perché, oltre a rischiare di ottenere col tempo l’effetto contrario (l’esposizione ripetuta alle immagini di sofferenza desensibilizza lo spettatore) riduce i soggetti a corpi decontestualizzati, sofferenti e razzializzati. Quindi gli abitanti della Repubblica democratica del Congo, del Burundi, del Sud Sudan non vivono più in condizioni di estrema povertà? Assolutamente no, ma non si possono ridurre solo a questo.

Con l’intelligenza artificiale questo discorso ha fatto un salto di qualità. Le immagini generate dall’AI consentono di produrre fotografie verosimili in pochi secondi, a costo zero e senza coinvolgere artisti ed esperti locali. Nel 2023, per esempio, l'Oms ha pubblicato una campagna antitabacco generata dall’intelligenza artificiale (qui sotto) che raffigurava un bambino sofferente e affamato, presumibilmente di origine africana, con abiti impolverati e la didascalia “Quando fumi, io muoio di fame”.

L’immagine è stata creata per disincentivare i fumatori a spendere soldi nel tabacco e spronarli a usarli per scopi più etici. Ma l’effetto è stato innescare un ragionamento sull’uso dell’intelligenza artificiale in questo “poverty porn 2.0”.

I difensori dello strumento dicono che, grazie all’AI, i soggetti non verranno coinvolti in prima persona, sostituiti da avatar fittizi. Ma se tecnicamente questa soluzione “protegge” le persone, dall’altra crea una povertà astratta, “un’estetica della miseria” che sfrutta storie e comunità reali, appiattisce realtà complesse, bypassa il consenso e si vende bene sugli aggregatori di immagini stock come Adobe (qui una carrellata di: bambino presumibilmente africano accovacciato a bere da una pozzanghera sporca, bambino coperto di fango, donna bianca che aiuta bambini neri) o Freepik.

“L’AI generativa riproduce fedelmente la vecchia ‘grammatica visiva’ della povertà – stereotipi razziali, scene decontestualizzate, sofferenza messa in scena – esattamente ciò da cui il settore ha cercato di allontanarsi. Questo non solo rappresenta male le persone, ma mina la fiducia del pubblico confondendo fatti e finzione”, ha commentato su Rsi Noah Arnold, responsabile per l’Impatto sociale per Fairpicture, una piattaforma che garantisce contenuti fotografici in collaborazione con artisti locali, utilizzata da organizzazioni come Fairtrade e Oxfam international.

Arnold sottolinea che il problema non è tanto l’AI, quanto “il razzismo radicato e la mentalità coloniale che hanno plasmato l’aiuto umanitario e la salute globale fin dalle origini”. Molto prima della diffusione dell’intelligenza artificiale “molte organizzazioni diffondevano immagini stereotipate e dannose, spesso costruite ad arte da fotografi del Nord globale per soddisfare le aspettative dei finanziatori. […] L’intelligenza artificiale non ha creato questo impulso, ma lo rende più visibile e può accelerarlo”, sostituendo i corpi reali con i loro cliché.

Una possibile alternativa, secondo The Lancet, è etichettare le immagini generate dall’AI, e allo stesso tempo sostenere i fotografi locali, impegnati in una rappresentazione autentica della realtà. Ma da qui a credere che possa succedere ce ne passa.