DERRIÈRE CHATGPT, DES HUMAINS BRISÉS : CE QUE L’INTELLIGENCE ARTIFICIELLE NE MONTRE JAMAIS

Derrière l’intelligence artificielle que le grand public croit automatique et neutre se cache une réalité bien plus sombre.

Lémission A Bon Entendeur de la RTS révèle les coulisses humaines de l’IA et met en lumière une exploitation silencieuse qui alimente les plus grandes plateformes technologiques du monde.

Une armée invisible au cœur de l’IA

ChatGPT, Meta, TikTok ou encore Google reposent sur le travail de milliers de personnes chargées d’annoter, trier et corriger les données utilisées pour entraîner les algorithmes. Ces travailleurs, souvent basés dans des pays à faibles revenus comme le Kenya, constituent la base humaine de systèmes présentés comme autonomes.

Filtrer l’horreur pour protéger les utilisateurs

Une grande partie de ce travail consiste à modérer des contenus extrêmes afin d’empêcher l’IA de reproduire la violence humaine. Les modérateurs sont exposés quotidiennement à des images de tortures, d’exécutions, de violences sexuelles et de discours de haine.

Cette exposition répétée entraîne des traumatismes psychologiques lourds, souvent sans accompagnement médical ni soutien psychologique.

Témoignages : des vies marquées à jamais

Michael Geoffrey, ancien modérateur de contenu au Kenya, explique que certaines images ne disparaissent jamais de sa mémoire.

“Ces images me hantent encore”

« Vous cliquez, vous étiquetez, vous passez à la suivante. Mais le soir, quand vous fermez les yeux, l’image revient. Elle reste gravée dans votre cerveau. Nous ne sommes pas des machines, pourtant on nous traite comme telles. »

Ethan (nom d’emprunt), payé à peine quelques dollars par jour, raconte avoir développé des crises d’angoisse sévères après des mois passés à filtrer des contenus violents.

« On nous demande de rendre l’IA sûre pour les enfants en Europe, mais qui se soucie de notre sécurité mentale ? Le prix de votre IA, c’est notre santé. »

Mophat dénonce quant à lui un système qu’il qualifie de « colonialisme numérique », où les géants de la tech délocalisent la souffrance humaine vers des pays où la main-d’œuvre est moins protégée.

« Les multinationales exportent leur traumatisme là où la main-d’œuvre est bon marché et les lois du travail faibles. C’est du colonialisme numérique. »

Salaires dérisoires et absence de protection

Le reportage dénonce un système de sous-traitance opaque, permettant aux géants de la tech de se dédouaner de toute responsabilité sociale.

Les constats sont alarmants :

  • rémunérations très faibles,
  • absence de suivi psychologique,
  • contrats précaires,
  • pression extrême sur la productivité.

Certains avocats et experts interrogés parlent même de formes modernes d’exploitation humaine, voire de traite déguisée.

Le mythe de l’IA autonome

L’enquête rappelle que l’intelligence artificielle n’est pas intelligente par nature. Elle repose sur le RLHF (Reinforcement Learning from Human Feedback), un processus où des humains corrigent et encadrent les réponses des algorithmes afin d’éviter les dérives.

Sans cette intervention humaine massive, aucune IA actuelle ne pourrait fonctionner de manière sûre.

Une réalité qui touche aussi l’Europe

Contrairement aux idées reçues, ce phénomène ne concerne pas uniquement les pays du Sud. En Suisse également, des travailleurs participent à l’entraînement de l’IA dans des conditions parfois précaires, avec une protection sociale limitée.

Un enjeu éthique pour les entreprises

À l’heure où la responsabilité sociétale des entreprises devient centrale, l’usage de l’IA soulève des questions majeures :Peut-on parler d’innovation responsable lorsque son fonctionnement repose sur la souffrance humaine invisible ?

Le vrai prix de l’intelligence artificielle

L’IA représente un progrès technologique majeur, mais son coût humain reste largement ignoré. Derrière chaque algorithme performant se cachent des hommes et des femmes confrontés au pire de l’humanité afin de rendre la technologie acceptable pour les autres.

Publicité

Share

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Aller au contenu principal