L’intelligence artificielle et les travailleuses et travailleurs du clic

OpenAI. (2025). Image générée par IA illustrant les travailleurs invisibles de l’intelligence artificielle. ChatGPT. Générée le 3 mars 2025.

Par Sophie Toupin et Hiba Harchaoui

3 mars 2025

En janvier 2023, tout juste deux mois suivant la mise en ligne publique de ChatGPT, agent conversationnel qui a vite connu une popularité fulgurante, le journaliste d’investigation Billy Perrigo du Time publie un article qui révèle que des travailleurs et travailleuses sont sous-payé·es (moins de deux dollars de l’heure) pour en filtrer les contenus. Perrigo, qui couvre l’actualité de l’industrie technologique depuis son bureau de Londres, lève le voile sur les revers de l’IA générative. Il nous apprend que des milliers de travailleur·euses basé·es à Nairobi, pour la plupart d’origine kenyane ou sud-africaine, retirent le matériel nocif ou inapproprié des résultats de nos interactions avec ChatGPT et ce pour un salaire dérisoire.

Faisons un retour en arrière pour mieux comprendre. En 2021, OpenAI a sous-traité SamaSource, une entreprise basée à San Francisco qui employait des travailleuses et travailleurs du clic pour étiqueter et annoter les données et catégoriser les contenus illicites ou problématiques durant la période d’entraînement de ChatGPT précédant son lancement. OpenAI voulait à tout prix éviter de répéter les fiascos ayant marqué d’autres agents conversationnels fonctionnant à intelligence artificielle. L’exemple le plus parlant est Microsoft qui, en 2016, a rendu public sur Twitter un bot du nom de Tay. Moins de 24 heures après son lancement, il a commencé à publier des tweets offensants, ayant appris des discours haineux et racistes et autres contenus antisociaux qui pullulent sur la plateforme et qui récoltent des vagues d’émojis qui pleurent de rire. En faisant appel à SamaSource, OpenAI s’en remettait au discours officiel de la compagnie se vantant de faire de l’« IA éthique », de générer des emplois pour les Africaines et d’aider ainsi des milliers de personnes à sortir de la pauvreté.

Leila Janah, ancienne employée de la Banque mondiale et diplômée en développement international de l’Université Harvard – maintenant décédée –, a fondé SamaSource en 2008. D’abord un organisme à but non lucratif, puis converti en entreprise en 2019, sa vision reposait sur la supposée « externalisation socialement responsable » (ou impact sourcing en anglais) des activités humaines nécessaires au fonctionnement de l’AI.  À l’image du « micro-crédit », le micro-travail (aussi appelé « travail à la pièce ») sert à préparer les données qui alimentent les IA. Il prétend être un vecteur d’inclusion sociale et économique au bénéfice des plus pauvres et démunis du monde majoritaire[1].  Un peu comme le « microcrédit », le travail à la pièce ou micro-travail servant à préparer les données qui allaient alimenter les IA était perçu comme un facteur d’inclusion sociale et économique par le biais de ces plateformes dans le monde majoritaire, comme en témoigne, par exemple, le recrutement dans des camps de réfugié·es au Kenya (Jones, 2021).  

Cependant, l’« externalisation socialement responsable » n’est qu’en fait qu’un terme de gestion dont le vernis vertueux masque les pratiques déshumanisantes que subissent les travailleurs et travailleuses du clic qui, lors de chaque quart de travail, sont exposé·es à des contenus violents et traumatisants. SamaSource (maintenant renommée Sama) fait actuellement l’objet d’un procès au Kenya en raison des conditions de travail indignes et dommageables pour la santé mentale. D’ailleurs, des employé·es licencié·es ont créé un syndicat : une première pour ce secteur de travail. Depuis, ceux et celles qui ont initié le processus de syndicalisation ont été mis à pied. Une pratique entrepreneuriale qui jette un doute supplémentaire sur la responsabilité sociale affichée.  

 Travailleurs et travailleuses de l’IA

Des études récentes estiment que les travailleurs et travailleuses de l’IA seraient de 45 à 90 millions à travers le monde.  Le nouveau documentaire d’Henri Poulain (2024), Les Sacrifiés de l’IA (In the Belly of AI), suggère qu’il pourrait y en avoir jusqu’à 430 millions. Il s’agit d’un phénomène en pleine croissance. Alors que font les travailleurs et travailleuses de l’IA?  Dans un article de Tubaro, Casilli et Coville (2020), trois types de travail effectués par les petites mains de l’IA sont identifiés : 1) la préparation de l’IA par les données, 2) la  vérification de l’IA, et 3) : l’usurpation de l’identité de l’IA. [2]

Les grandes entreprises de la tech, notamment celles basées dans la Silicon Valley, en Californie, ou en France, sous-traitent les tâches d’entraînement de leurs modèles d’IA à des compagnies ou plateformes de micro-travail. Parmi celles-ci l’on retrouve : SamaSource, Clickworker, Fiverr, Appen, UHRS (Microsoft), Amazon Mechanical Turk, TaskRabbit, Upwork, Taskcn et Crowdsource, entre autres. Les travailleur·euses exécutent pour ces compagnies des micro-tâches incluant l’annotation de données pour les algorithmes d’intelligence artificielle, l’annotation et la validation d’images, de vidéos et de données de capteurs pour les algorithmes d’apprentissage automatique. Les usages peuvent être aussi variés que les secteurs de l’agriculture, de l’automobile ou du commerce électronique, pour n’en citer que quelques-uns.  Jones (2021) a même pu étudier le cas de réfugié·es vivant dans des camps qui entraînent des voitures dites autonomes roulant sur les rues de San Francisco.

Le travail de préparation et de vérification des données qui sert à entraîner les IA et qui parfois les imitent – il peut arriver que des travailleur·euses aient comme tâche de répondre et d’interagir à la façon d’agents conversationnels (Preston, 2023)– est en général externalisé dans les pays du monde majoritaire comme l’Afrique, l’Asie du Sud-Est et l’Amérique du Sud. L’octroi des contrats de sous-traitance suivent les liens ainsi que les ensembles linguistiques hérités de la colonisation : les compagnies françaises donnent des contrats aux pays africains francophones comme le Madagascar ou le Maroc (Poulain, 2021),  et les compagnies américaines, quant à elles, sous-traitent aux Philippines et à Nairobi, au Kenya, l’un des nouveaux centres de la tech et de l’IA en Afrique. Les jeunes diplômé·es issu·es de différents programmes d’étude de baccalauréat, de maîtrise ou même de doctorat n’ont souvent pour seule option que de se faire embaucher par une entreprise technologique américaine, française ou autre. Leur travail n’est pas valorisé, ni reconnu comme essentiel à la fabrication de l’IA,  et loin d’être payé décemment. C’est d’ailleurs pourquoi certain·es chercheur·euses les appellent les « petites mains » de l’IA (Crawford, 2023) : un terme associé à un travail où les femmes sont surreprésentées, en plus d’être invisibilisées et sous-payées.

Afin de décrocher un contrat offert par une grande compagnie technologique, les plateformes de micro-travail vantent le fait que ce sont des femmes qui occupent ces emplois. Au lieu d’une forme de responsabilité sociale des entreprises, ne s’agit-il pas plutôt d’un discours marketing cachant la réalité des conditions de travail de ces travailleuses de l’IA ? En fait, en ne considérant pas les travailleuses de l’IA comme des salariées ayant des droits en vertu des normes du travail, les compagnies peuvent maintenir les salaires très bas et ne pas offrir de garanties de protection sociale à leur personnel (assurances, recours en cas de cessation d’emploi injustifiée, ainsi que du soutien psychologique).

Le Turc mécanique d’Amazon

En 2001, Amazon met en place la plateforme « Turc mécanique », qui vise à offrir des tâches contre une rémunération, bien que celle-ci soit souvent faible. Elle vise également à créer toute une nouvelle industrie du travail à la pièce effectué plus efficacement  par des humains que des machines. Dans le brevet déposé en 2001 par le directeur général d’Amazon, Venky Harinarayan, celui-ci explique pourquoi il utilise l’assistance humaine      :

Il existe de nombreuses tâches qu’un processeur informatique a du mal à accomplir, même si de nombreux processeurs informatiques sont combinés dans un réseau informatique distribué ou dans une autre architecture informatique. Ces tâches comprennent, entre autres, la conversion de la parole en texte, la reconnaissance vocale, la comparaison d’images et la comparaison musicale. Alors qu’     il peut être facile pour un être humain de décrire les différences et les similitudes entre deux images, par exemple, l’automatisation de la même tâche sur un ordinateur est excessivement complexe et peut sembler insurmontable. [traduction libre] (Harinarayan, 2001).

C’est Amazon qui invente le terme d’intelligence artificielle artificielle (artificial artificial intelligence) pour nommer les processus qui externalisent certaines tâches informatiques à des humains. En 2006, le Turc mécanique d’Amazon commence à être utilisé pour l’IA. C’est à partir d’un laboratoire en informatique à l’Université Stanford, dirigé par la professeure Fei-Fei Li, maintenant directrice de l’IA à Amazon, qu’est  née l’idée de faire étiqueter ou annoter des images par des personnes (Crawford, 2023). En utilisant  des personnes étudiantes pour annoter des images pour un salaire de 10 dollars de l’heure, l’équipe de Li a rapidement compris le défi titanesque en temps et en ressources qui l’attendait (Crawford, 2023). Il fallait donc engager des milliers de travailleuses et travailleurs sous-payés pour être en mesure d’annoter toutes les images. Aucune préoccupation éthique au sujet de cette pratique n’a été soulevée.

À quoi le nom de ce service fait-il référence ?  À la fin du XVIIIe  siècle, le « Turc mécanique »  est une invention qui met en scène une figure enturbannée et stéréotypée d’un prestidigitateur ottoman. Il s’agissait d’un automate capable de jouer aux échecs et présentant une intelligence stupéfiante.  Or, en réalité, un humain se dissimulait à l’intérieur de cette machine. Ce n’avait jamais été un automate, mais une pure mystification.  De la même manière que le Turc mécanique, l’intelligence artificielle artificielle  donne l’illusion qu’une machine fonctionne par elle-même. On oublie qu’elle est propulsée par des humains puisque ceux-ci demeurent invisibles.  Si Amazon a créé le Turc mécanique, c’est bien car l’automatisation de nombreuses tâches sont compliquées voire impossibles à réaliser sans qu’une intelligence humaine ne soit impliquée (Crawford, 2023).

Le chercheur Antonio Casilli (2019) parle d’un « bluff technologique »[3] dans son livre En attendant les robots pour désigner l’illusion dans laquelle les grandes et petites compagnies de la tech, incluant les startups, nous maintiennent. Ce bluff est largement repris par les médias de masse pour chanter les louanges de l’IA. En invisibilisant les travailleur·euses de l’IA, les compagnies de la tech, les gouvernements et les médias ne nous permettent pas de comprendre comment fonctionne réellement l’IA. Le vrai coût humain derrière cette technologie est passé sous silence et s’inscrit dans une tradition d’exploitation et des travailleur·euses les plus vulnérables. En levant ce voile, nous constatons que les programmeur·euses et leurs interactions avec les machines par le biais du code informatique ne sont pas les seul·es concerné·es dans le fonctionnement de l’IA. Les travailleurs et les travailleuses du clic et de l’IA sont nécessaires à celui-ci.  

L’écrivaine et réalisatrice canado-américaine Astra Taylor parle de « fauxtomation ». Ce néologisme, qui fusionne les mots « faux » et « automation » indique clairement que l’IA n’est pas purement un processus technique d’automatisation, malgré ce que l’on veut nous faire croire. Loin d’éliminer le travail, l’IA repose plutôt sur d’énormes quantités de petites mains qui l’alimentent donnant l’illusion de l’automatisation. Au lieu d’un progrès vers l’avant, Kate Crawford (2023) parle de retour en arrière. Plutôt qu’un changement radical par rapport aux formes de travail existantes, l’empiétement de l’IA sur le lieu de travail devrait être envisagé comme « un retour aux pratiques anciennes d’exploitation industrielle de la main-d’œuvre bien ancrée dans les années 1890 et début du 20e » (2023, p.73). Des tâches réalisées à la pièce par des travailleuses et travailleurs sans protection, pour des salaires misérables et sans normes à respecter sur le maximum d’heures par journée de travail.

L’exploitation silencieuse : le cas du Venezuela et du Kenya

Prenons deux exemples concrets d’exploitation de travailleurs et travailleuses d’IA : celui du Venezuela et du Kenya. Ces pays ont en commun  une situation économique délicate qui rend vulnérables les travailleurs et travailleuses et en fait des proies faciles pour les géants de la tech.

Dans les dernières années, le Venezuela a été traversé par une crise économique et politique majeure, marquée par une hyperinflation qui a été aggravée par la pandémie de Covid-19, et qui a plongé une partie encore plus importante de la population  dans la précarité. Selon une étude de Julian Posada (2022), la population vénézuélienne s’est trouvée contrainte d’adopter une mentalité de survie et de chercher d’autres sources de revenus pour subvenir à ses besoins fondamentaux.      

Ce sont ainsi les entreprises qui offrent un travail du clic et de l’IA qui en profitent grassement, d’autant plus que le droit vénézuélien prévoit peu de protections contre les abus au travail. Posada (2022) estime que le salaire va de 30 cents à quelques dollars par tâche, selon la plateforme, la complexité du travail et la localisation. Les tâches effectuées vont de la saisie de données à la transcription de textes, en passant par la classification d’images 2D/3D et la vérification algorithmique (Posada, 2022).

En plus d’être exposé·es pendant de longues heures à des contenus au caractère violent et offensant – une forme de torture, les travailleur·euses sont surveillé·es de façon constante par les algorithmes : une erreur peut entraîner un bannissement temporaire ou définitif, souvent sans explication, ajoute Posada (2022). Il peut arriver qu’une journée de travail dépasse huit heures, qu’il n’y ait pas de rémunération garantie, sans compter le risque que le compte servant à effectuer les tâches soit supprimé du jour au lendemain (Posada, 2022).  Or, parfois les membres d’une même famille partagent un compte et se relaient pour y travailler. Leur dépendance aux maigres revenus offerts, qui constituent leur stratégie de survie, les force à se plier à des conditions exécrables (Posada, 2022).

Dans le cas du Kenya, le travail du clic et de l’IA consiste en majorité à modérer les publications manuellement sur les réseaux sociaux et à supprimer les contenus nocifs. Comme l’expliquent Cant, Muldoon et Graham (2024) dans leur livre Feeding the Machine ces personnes chargées de la modération évaluent les vidéos signalées par les utilisateurs et utilisatrices et vérifient si elles respectent les directives strictes interdisant les contenus violents et explicites. L’exposition répétée à des contenus toxiques peut mener à une certaine banalisation de leur caractère offensant puisque les images se suivent les unes après les autres. Les travailleur·euses doivent suivre une cadence intense, comprenant l’obligation de traiter un contenu toutes les 15 secondes pour atteindre leurs objectifs (Cant, Muldoon et Graham, 2024). Les entreprises sous-traitantes accordent plus d’importance aux quotas qu’au bien-être des employé·es, ce qui peut mener à de graves conséquences psychologiques.

Si d’aucuns pensent qu’il ne s’agit que d’un travail derrière un écran, la réalité est bien plus complexe. Les modérateur·trices doivent avoir une concentration sans faille, pendant tout leur quart de travail, afin d’attribuer les bons tags aux vidéos signalées, et de respecter à la lettre les politiques de modération des entreprises qui les embauchent (Cant et al., 2024).

Que ce soit au Venezuela, au Kenya ou ailleurs, ces travailleur·euses restent invisibles pour les utilisateur·trices au bout de la ligne et encore plus pour les grandes entreprises technologiques qui profitent de leur labeur (Le Ludec, Cornet, & Casilli, 2023). Cette invisibilité est en elle-même problématique : elle empêche la reconnaissance de leur contribution et affecte leur perception de la valeur de leur métier, ainsi que de leur propre valeur (Le Ludec, Cornet, & Casilli, 2023).

Conclusion

Cette fiche a mis en évidence que les travailleurs et travailleuses de l’IA sont un maillon essentiel du développement de l’intelligence artificielle, mais que leur rôle n’est jamais mis en lumière par les géants de la tech, qui génèrent des milliards de dollars grâce à leur travail. Aujourd’hui, il est essentiel de dévoiler cette réalité et de reconnaître l’apport de ces millions d’individus qui, dans l’ombre, façonnent l’avenir de l’IA. Le travail du clic dans le monde majoritaire est un bond en arrière dangereux. Il ne contribue pas à un partage plus équitable des bénéfices économiques des nouvelles technologies numériques.  Dans son livre Afrotopia, le Sénégalais Felwine Sarr demande d’ailleurs à l’Occident d’« arrêter de nous mettre dans une position de subalternité » et de plutôt laisser place aux solutions endogènes. Selon lui, les économies extractives, incluant celles basées sur l’IA, ne valorisent ni ne favorisent davantage d’humanité et de dignité. 

Références :

Crawford, Kate. 2023. Le Contre Atlas de l’intelligence artificielle. Zulma Essais. 

Harinarayan, Venky, Rajaraman, Anand et Ranganathan, Anand. 2001. Hybrid machine/human computing arrangement. US7197459B1. https://patents.google.com/patent/US7197459

Jones, Phil. 2021. Refugees help power machine learning advances at Microsoft, Facebook, and Amazon. 22 s     eptembre. Rest of World. https://restofworld.org/2021/refugees-machine-learning-big-tech/

Le Ludec, C., Cornet, M., & Casilli, A. A. (2023). The problem with annotation: Human labour and outsourcing between France and Madagascar. Big Data & Society, 10(2), 1–13. https://doi.org/10.1177/20539517231188723

Miceli, Milagros, Tubaro, Paola, Casilli, Antonio,  Le Bonniec, Thomas, et Wagner, Camilla Salim. 2024. Who Trains the Data for European Artificial Intelligence?. European Parliament; The Left., pp.1-40. https://hal.science/hal-04662589v1/file/Report_EnCOre-final.pdf

Muldoon, J., Graham, M., & Cant, C. (2024). Feeding the machine: the hidden human labor powering A.I.. New York, Bloomsbury Publishing.

Perrigo, Billy. 2023. OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. Times Magazine. https://time.com/6247678/openai-chatgpt-kenya-workers/

Preston, Laura. 2023. Human Fallback. N+1, N° 44. https://www.nplusonemag.com/issue-44/essays/human_fallback/

Poulain, Henri. 2020. Les invisibles : Les travailleurs du clic.  (#2 Micro-travailler plus pour micro-gagner moins) https://www.casilli.fr/tag/documentaire/

Poulain, Henri. 2024, Les Sacrifiés de l’IA. https://www.france.tv/documentaires/documentaires-societe/6888928-les-sacrifies-de-l-ia.html

Posada, Julian. 2022. Embedded reproduction in platform data work. Information, Communication & Society, 25(6), 816–834. https://doi.org/10.1080/1369118X.2022.2049849

Preston, Laura. 2023. Human Fallback. N+1, Issue 44. https://www.nplusonemag.com/issue-44/essays/human_fallback/

Sarr, Felwine. 2016. Afrotopia. Philippe Rey.

Tubaro, P., Casilli, A. A., & Coville, M. (2020). The trainer, the verifier, the imitator: Three ways in which human platform workers support artificial intelligence. Big Data & Society, 7(1). https://doi.org/10.1177/2053951720919776


[1] Nous utilisons ce terme, plutôt que Sud global ou pays en développement, pour désigner et souligner le fait que la majeure partie de la population mondiale vive dans ces parties du monde. Ce terme permet également de combattre activement les connotations négatives et marginalisantes d’un terme comme « pays en développement » utilisé dans le discours dominant.

[2] Le micro-travail  « désigne les emplois peu rémunérés, tels que l’enregistrement de la voix, la traduction de courts textes et la classification du contenu d’une image ou d’une page web. Ces tâches sont des fonctions essentielles dans le développement de l’apprentissage automatique et de l’IA car elles préparent et corrigent les solutions algorithmiques » (Miceli et al., 2024, p. 3).

[3] Le bluff technologique fait référence au livre de Jacques Ellul qui porte le même nom.