Les enfants affamés générés par l'IA présentent un avantage sur les vrais : ils ne nécessitent pas de consentement, ne coûtent pas de billets d'avion et ne posent pas de problèmes éthiques. Du moins, selon les organisations qui les utilisent pour des campagnes caritatives. Arsenii Alenitchev Il a collecté plus de 100 de ces images de synthèse, publiées sur LinkedIn, X et dans les supports promotionnels d'ONG internationales. Des enfants squelettiques avec des bols vides, des réfugiés africains, des sauveteurs blancs bénévoles. La grammaire visuelle est identique à celle de la « pornographie de la pauvreté » que ces mêmes organisations avaient juré d'abandonner. Sauf que maintenant, tout est faux, autoproduit par une IA ou acheté sur des plateformes d'images IA. Et c'est bien ainsi, non ? Ou pas ?
Quand la pauvreté devient un produit de consommation courante
Alenichev, chercheur à l'Institut de médecine tropicale d'Anvers, publié le Le Lancet Santé mondiale Une étude documente un phénomène inquiétant. Entre janvier et juillet 2025, elle a collecté plus de 100 images générées par l'IA, utilisées par des particuliers et des petites organisations, souvent basées dans des pays à revenu faible ou intermédiaire. Ces images reproduisent l'intensité émotionnelle et la grammaire visuelle de la « pornographie de la pauvreté » traditionnelle : des enfants émaciés avec des bols vides, des décombres, des scènes stéréotypées qui réduisent des populations entières à des corps souffrants.
Mais ce ne sont pas que des réalités mineures. Plan International, une organisation britannique, a utilisé des vidéos générées par l'IA de filles adolescentes enceintes et maltraitées dans une campagne contre le mariage des enfants. La vidéo a été vue plus de 300 000 fois. L'Organisation mondiale de la santé a publié en 2023 une campagne anti-tabac mettant en scène l'image d'un enfant africain souffrant, entièrement générée par intelligence artificielle. Même le Nations unies, tel que rapporté par The Guardian, aurait utilisé des « reconstructions » d’agressions sexuelles par l’IA.
« Il est assez clair que diverses organisations commencent à envisager des images synthétiques au lieu de vraies photographies, car c'est bon marché et vous n'avez pas à vous soucier du consentement et de tout ça », a déclaré Alenichev The Guardian. Ici aussi, les images reproduisent la grammaire visuelle de la pauvreté.
La charité à la demande : le supermarché des stéréotypes
Une recherche rapide sur Freepik o Adobe Stock Il renvoie des dizaines, voire des centaines d'images d'IA intitulées « enfant surréaliste dans un camp de réfugiés », « enfants asiatiques nageant dans une rivière remplie d'ordures » et « volontaire blanc prodiguant des soins médicaux à des enfants noirs dans un village africain ». Cette dernière, vendue sur Adobe Stock, coûte environ 60 £. Selon PetaPixelEn trois ans, 300 millions d'images d'IA ont été téléchargées sur Adobe Stock, soit la même quantité que celle qu'il a fallu vingt ans à de vrais photographes pour créer.
Joaquin AbelaLe PDG de Freepik a imputé toute la responsabilité aux utilisateurs. La plateforme, a-t-il expliqué, héberge du contenu créé par une communauté mondiale qui peut percevoir des royalties lorsque les clients achètent leurs photos. Cette position ignore totalement le problème : Ces images sont manifestement racistes et perpétuent les pires stéréotypes sur l’Afrique, l’Inde et d’autres pays. Alenichev les définit sans détour : « Ces photos sont manifestement racistes et ne devraient pas être publiées car elles représentent les pires stéréotypes. »

Pornographie de la pauvreté 2.0
Le terme « pornographie de la pauvreté » a été inventé en 2007 pour décrire des images voyeuristes de personnes pauvres ou opprimées, destinées à choquer les spectateurs des pays développés et à les inciter à faire un don. L'idée était simple : montrer des souffrances extrêmes pour alimenter l'illusion qu'un don pourrait résoudre le problème. Après des années de critiques, de nombreuses ONG ont adopté des règles éthiques pour éviter ce type de communication.
L'intelligence artificielle a aujourd'hui fait marche arrière. Alenichev qualifie ce phénomène de « pornographie de la pauvreté 2.0 » : les sujets des images sont également devenus fantastiques, évitant même les coûts financiers et éthiques de la documentation de souffrances réelles. Plus besoin de photographe sur place, d'autorisations, ni de parler à de vraies personnes. Un message clair et quelques secondes de montage suffisent.
Le problème ne concerne pas seulement la charité traditionnelle. Tel que documenté par FanpageDes dizaines d'images d'enfants atteints de cancer, générées par l'IA, circulent sur Facebook. Elles sont utilisées pour collecter des likes : des publications demandant des vœux, des mentions « J'aime » et des partages pour « aider » des enfants qui n'existent pas. Une fois un certain niveau d'engagement atteint, ces pages sont revendues ou utilisées pour diffuser des arnaques et de la désinformation.
Une IA formée à nos préjugés
Le problème va au-delà de l’utilisation opportuniste des images de synthèse. Comme nous l'avons rapporté sur Futuro ProssimoLes modèles d'IA sont entraînés sur des milliards d'images de notre passé et de notre présent, absorbant tous nos biais et préjugés. Résultat ? Lorsqu'on demande à Midjourney de générer des « médecins africains soignant des enfants blancs souffrants », le système produit presque systématiquement des enfants noirs. Dans 22 cas sur 350, les médecins se sont avérés être blancs, malgré des instructions explicites.
Malik AfegbuaUn cinéaste nigérian a tenté de créer des images d'Africains âgés et élégants sur les podiums. « J'ai obtenu des gens à l'air dépenaillé et misérables », a-t-il déclaré. L'IA reproduit mécaniquement les stéréotypes visuels accumulés au fil des décennies de communication coloniale.
La charité de l'IA : une question de confiance
Kate Kardol, consultant en communication pour les ONG, a déclaré The Guardian: « Cela m'attriste que la lutte pour une représentation plus éthique des personnes vivant dans la pauvreté s'étende désormais à l'irréel. » Un porte-parole de Plan International Il a précisé que l’organisation « déconseille actuellement l’utilisation de l’IA pour représenter les enfants ».
Le fait est que nous sommes déjà en retard. Les images de synthèse circulent, sont partagées et utilisées pour former la prochaine génération de modèles d'IA. Cela signifie que le problème s'auto-alimente : plus nous produisons d'images stéréotypées, plus l'intelligence artificielle apprendra à les reproduire. Alenichev et ses collègues proposent la transparence : déclarer l'utilisation de l'IA et rendre publiques les informations utilisées. Mais il faudra aller plus loin. Nous devrons remettre en question l'idée que la souffrance est un produit à acheter sur une photo d'archive.
Et comprenez que les enfants affamés, s’ils doivent vraiment être exhibés dans nos campagnes, devraient au moins exister réellement.
