Voix, visage, gestes, vie quotidienne : ils vendent leur humanité pour entraîner des IA
De plus en plus de personnes vendent leur identité, leur voix, leur image ou leur quotidien pour entraîner des IA, en échange d'une poignée de dollars. Une nouvelle forme de commerce qui pose de nombreuses questions.
L'intelligence artificielle a progressivement fait son nid dans notre quotidien, au point où nous l'utilisons sans nous en rendre compte. Mais si ces assistants virtuels sont extrêmement pratiques, ils sont de véritables machines à siphonner les données. Car oui, l'IA et la confidentialité, c'est une histoire d'amour qui ne fonctionne pas. ChatGPT, Gemini, Claude, Meta AI, Grok et consorts, toutes s'emparent voracement de tonnes d'informations personnelles collectées auprès de leurs utilisateurs et qui représentent de véritables mines d'or, puisque les entreprises peuvent ensuite s'en servir pour entraîner leurs modèles de langage. Et ce, sans que les utilisateurs aient leur mot à dire ou ne puissent véritablement s'y opposer. Comme dit l'adage, "si c'est gratuit, c'est vous le produit !"
Mais les entreprises font face à un problème pour le moins inattendu : le manque de données. Après avoir largement exploité les contenus publics accessibles sur Internet, les informations en ligne ne répondent plus aux besoins actuels. Les principales sources d'entraînement, comme C4, RefinedWeb et Dolma, refusent désormais que les entreprises d'IA générative se servent de leurs données pour développer leurs modèles. Or, ces dernières en ont toujours plus besoin.
Aussi, une pratique commence à émerger : payer des personnes pour pouvoir les enregistrer et ensuite les exploiter. Alors, sur le papier, cela peut être tentant : quitte à se faire exploiter, autant y gagner quelque chose. Sauf que ce fonctionnement soulève de sérieuses questions au niveau de la confidentialité.
Vente de données pour l'IA : un nouveau commerce
C'est exactement ce que proposent des sociétés comme Kled AI, Silencio ou encore Neon Mobile. Résultat : des milliers de personnes acceptent désormais de vendre des fragments de leur vie – leur voix, leur visage, leurs gestes ou même leur quotidien – pour alimenter les systèmes d'intelligence artificielle, comme le rapporte le Guardian. En plus, cela leur évite d'éventuels litiges en matière de droits d'auteur, puisque les sujets sont pleinement consentants et reçoivent une contrepartie financière.
Concrètement, ces contributions prennent des formes variées. Certaines plateformes demandent à des volontaires d'enregistrer leur voix en lisant des phrases, afin de créer des banques vocales capables d'imiter des intonations naturelles. D'autres proposent de filmer des expressions du visage, des émotions ou des gestes du quotidien. Il existe aussi des missions plus immersives, où des participants acceptent de porter des caméras ou de documenter leur vie quotidienne. Tout ce travail est bien évidemment rémunéré.
D'autres entreprises ont adopté des approches similaires. Ainsi, Luel AI propose des conversations multilingues pour environ 0,15 dollar la minute, tandis qu'ElevenLabs permet de cloner numériquement sa voix et de la partager avec d'autres personnes pour un forfait de 0,02 dollar la minute.
Pour Bouke Klein Teeselink, professeur d'économie au King's College de Londres, la formation en intelligence artificielle à la tâche est une nouvelle catégorie de travail émergente qui va croître considérablement. Mais si ce type de travail est rémunéré, les montants restent toutefois faibles.
Les participants reçoivent la plupart du temps quelques dollars ou dizaines de dollars pour des tâches répétitives. Cette rémunération pour le moins modeste attire néanmoins un public varié, notamment des personnes en recherche de revenus complémentaires ou curieuses de participer à des projets technologiques innovants. Elle a également beaucoup de succès dans les pays en développement, où elle relève souvent de la nécessité. Mais même dans les pays plus riches, la hausse du coût de la vie ne laisse parfois pas d'autres choix.
Vente de données pour l'IA : la porte ouverte aux dérives en tous genres
Cette évolution peut donner l'impression d'un échange plus transparent, mais elle soulève aussi de nouvelles interrogations sur la valeur réelle de ces données et les risques associés à cette monétisation de l'image et de la voix. En effet, si le participant touche une somme dérisoire au moment de céder son enregistrement, ce dernier alimente un système d'IA pendant des années, sans que son auteur ne touche un centime supplémentaire. Et une fois ces données captées, elles peuvent être réutilisées dans des contextes imprévus. Par exemple, des visages ou des voix peuvent tout à fait être intégrés dans des contenus générés automatiquement, comme des publicités ou des vidéos.
C'est bien simple, les termes de ces accords permettent aux plateformes, ainsi qu'à leurs clients, de faire "presque n'importe quoi avec ce contenu, indéfiniment, sans paiement supplémentaire et sans possibilité réaliste pour le contributeur de retirer son consentement ou de renégocier de manière significative", explique Enrico Bonadio, professeur de droit à City St George's, Université de Londres. Les risques de deepfakes, d'usurpation ou d'exploitation commerciale échappent complètement aux contributeurs !
Un acteur, Adam Coy, a ainsi découvert des vidéos de lui qu'il n'avait jamais tournées sur Instagram, dans lesquelles il se prétendait "spécialiste du vagin" et faisait la promotion de compléments alimentaires non éprouvés pour les femmes enceintes et les jeunes mamans. Pourtant, son contrat pour un logiciel de montage vidéo basé sur l'IA garantissait que son identité ne serait utilisée à aucune fin politique ni pour la vente d'alcool, de tabac ou de pornographie.
Les participants interrogés par The Guardian témoignent d'un sentiment ambivalent à l'encontre de leur travail. D'un côté, ils voient dans ces activités une opportunité simple de gagner un peu d'argent ou de participer à une innovation technologique. De l'autre, ils prennent parfois conscience, après coup, de la difficulté à maîtriser l'usage de leurs données une fois qu'elles ont été cédées, d'autant plus que les contrats proposés sont souvent complexes ou peu explicites.
Et c'est sans compter les problèmes de confidentialité des données ! En septembre dernier, Neon Mobile a été obligé de fermer ses portes suite à la découverte par TechCrunch d'une faille de sécurité permettant à n'importe qui d'accéder aux numéros de téléphone, aux enregistrements et aux transcriptions des appels des utilisateurs, alors que les données étaient censées être totalement anonymisées.
En échange de quelques dollars, les personnes qui cèdent leur image à ces entreprises alimentent une industrie qui risque à terme de rendre leurs compétences obsolètes, tout en les exposant à un avenir marqué par les deepfakes, l'usurpation d'identité et l'exploitation numérique, des phénomènes qu'ils commencent à peine à appréhender. Et, le monde actuel étant ce qu'il est, elles n'ont parfois pas d'autres choix pour survivre...

