Le rapport, publié le 27 février, met en lumière le travail humain caché derrière la poussée de Meta vers l'intelligence artificielle portable, et soulève de nouvelles questionsLe rapport, publié le 27 février, met en lumière le travail humain caché derrière la poussée de Meta vers l'intelligence artificielle portable, et soulève de nouvelles questions

Les travailleurs kényans qui entraînent les lunettes d'IA de Meta disent qu'ils voient les moments les plus intimes des utilisateurs

2026/03/04 17:01
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

Une enquête menée par les journaux suédois Svenska Dagbladet et Göteborgs-Posten a révélé que des travailleurs contractuels au Kenya embauchés par Sama—une entreprise kényane d'externalisation qui fournit des services d'annotation de données—pour aider à entraîner les systèmes d'IA de Meta Platforms sont fortement exposés à des images et vidéos personnelles capturées par les utilisateurs des lunettes connectées Ray-Ban de l'entreprise.

Le rapport, publié le 27 février, met en lumière le travail humain caché derrière la poussée de Meta dans l'intelligence artificielle portable, et soulève de nouvelles questions sur la protection des données, les transferts de données transfrontaliers et l'impact psychologique sur les modérateurs de contenu travaillant pour Sama à Nairobi.

Les lunettes connectées Ray-Ban de Meta, développées en partenariat avec EssilorLuxottica, sont commercialisées comme un assistant piloté par l'IA capable de traduire des langues, décrire l'environnement, capturer des photos et vidéos en mains libres, et répondre aux questions sur ce qu'un utilisateur voit.

Cependant, au-delà du discours futuriste, des entretiens avec des employés actuels et anciens de Sama et Meta par Svenska Dagbladet ont révélé que les images enregistrées via les lunettes se retrouvent à des milliers de kilomètres au Kenya, où des annotateurs de données les examinent et les étiquettent pour améliorer les performances du système.

Vie privée, discrètement violée

Plusieurs travailleurs kényans ont déclaré au journal suédois qu'ils rencontrent régulièrement du matériel sensible dans le cadre de leur travail, incluant des scènes domestiques ordinaires jusqu'à des moments intimes que les utilisateurs n'ont peut-être pas réalisé qu'ils étaient en train de capturer.

Dans certains cas, ont déclaré les travailleurs, les images incluent des informations financières telles que des cartes bancaires visibles dans le cadre, ou des enregistrements réalisés dans des espaces privés comme des chambres à coucher et des salles de bains.

« Dans certaines vidéos, on peut voir quelqu'un aller aux toilettes ou se déshabiller », a déclaré un travailleur de Sama aux journalistes. « Je ne pense pas qu'ils le sachent, car s'ils le savaient, ils n'enregistreraient pas. »

Un autre contractuel a affirmé avoir examiné des images montrant le porteur des lunettes les posant sur une table de chevet, pour que sa femme entre ensuite dans la pièce et se déshabille, vraisemblablement sans savoir qu'elle était observée. D'autres images auraient montré le porteur regardant de la pornographie ou même s'enregistrant en train d'avoir des relations sexuelles

Selon l'enquête, il y avait peu de transparence pour les appareils portables. Les détaillants en Europe auraient donné des informations incohérentes sur la question de savoir si les données capturées par les lunettes restent sur l'appareil ou sont transmises aux serveurs de Meta. Des tests indépendants cités dans le rapport ont indiqué que de nombreuses fonctionnalités d'IA des lunettes nécessitent une connectivité cloud, ce qui signifie que les images et les entrées vocales peuvent être traitées à distance plutôt que localement sur l'appareil.

La connexion Sama

Sama, anciennement Samasource, fournit des services d'annotation de données à de grandes entreprises technologiques comme Meta et OpenAI. L'entreprise a été accusée par le passé de violations du droit du travail dans certains de ses contrats, notamment avec OpenAI.

Sama exige des accords de confidentialité stricts qui limitent ce que les employés peuvent divulguer publiquement. Mais les témoignages publiés par les journaux suédois suggèrent que la promesse d'une IA sans friction est alimentée par un système de travail dans lequel des examinateurs humains trient de grands volumes de données brutes et non filtrées afin que les algorithmes puissent apprendre à reconnaître des objets, des environnements et des contextes.

Meta indique dans ses politiques de confidentialité que le contenu des utilisateurs peut être soumis à un examen humain pour améliorer les produits et garantir la sécurité. Pour les utilisateurs européens, la filiale irlandaise de l'entreprise est responsable de la conformité au Règlement général sur la protection des données (RGPD) de l'UE.

Cependant, l'enquête soulève des questions sur la manière dont les données collectées en Europe ou aux États-Unis sont transférées et traitées dans des pays comme le Kenya, qui ne disposent pas d'une décision d'adéquation de l'UE reconnaissant leurs régimes de protection des données comme équivalents au RGPD.

Alors que l'annotation de données, la modération de contenu et la formation en IA sont devenus essentiels aux ambitions technologiques de Nairobi, ces emplois—principalement pour des étudiants et de jeunes diplômés—s'accompagnent de faibles salaires, de charges de travail élevées et d'une exposition à du matériel perturbant.

Meta a défendu ses pratiques dans des déclarations publiques antérieures, affirmant qu'elle investit dans des garanties de confidentialité et minimise la quantité de données utilisées pour la formation. Néanmoins, les témoignages publiés par les journaux suédois suggèrent que la frontière entre l'intelligence automatisée et la supervision humaine est plus floue que ne le supposent de nombreux consommateurs.

Opportunité de marché
Logo de CROSS
Cours CROSS(CROSS)
$0.0996
$0.0996$0.0996
-2.23%
USD
Graphique du prix de CROSS (CROSS) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.