Une crise silencieuse se développe sur les réseaux sociaux. Elle est alimentée par l'intelligence artificielle générative et exploitée par des acteurs malveillants qui savent exactement comment exploiter ses points les plus faibles.
Au centre de la tempête se trouve Grok, le chatbot développé par xAI d'Elon Musk. Commercialisé comme « non filtré » et plus permissif que ses concurrents, Grok est devenu un outil de choix pour les utilisateurs créant de la pornographie deepfake non consensuelle, ou NCDP.
Le processus est d'une simplicité inquiétante. Une photo normale est téléchargée. L'IA est invitée à « déshabiller » le sujet. Le résultat est une image sexualisée créée sans consentement. La victime peut être une célébrité mondiale, un particulier ou même un enfant.
Il ne s'agit pas d'un comportement marginal. Cela se produit à grande échelle.
Bien que la controverse dure depuis un certain temps déjà, avec des feux d'artifice juridiques déjà en cours à travers l'Europe. Elle s'est intensifiée mercredi après qu'une influenceuse nigériane et star de téléréalité, Anita Natacha Akide, populairement connue sous le nom de Tacha, ait publiquement interpellé Grok sur X.
Dans une publication directe, elle a clairement déclaré qu'elle n'autorisait pas que ses photos ou vidéos soient éditées, modifiées ou remixées sous quelque forme que ce soit.
Sa demande n'a pas arrêté les utilisateurs. En quelques heures, d'autres ont démontré que Grok pouvait toujours être invité à manipuler ses images.
L'incident a exposé un problème plus profond. Les déclarations de consentement signifient peu de choses lorsque les plateformes manquent de garanties applicables. Cela a également soulevé de sérieuses questions juridiques et éthiques qui vont bien au-delà d'une influenceuse ou d'un outil d'IA.
Pour comprendre les implications, j'ai parlé avec le sénateur Ihenyen, un avocat en technologie et passionné d'IA, et associé principal chez Infusion Lawyers. Son évaluation était sans détour.
Il décrit la situation de Grok comme « une épidémie numérique ». Selon ses mots, l'IA générative est transformée en arme par des utilisateurs malveillants qui comprennent comment pousser les systèmes non filtrés au-delà des limites éthiques. Le préjudice, dit-il, est réel, invasif et profondément prédateur.
Fondamentalement, Ihenyen rejette l'idée que les nouvelles technologies existent dans un vide juridique. La loi, soutient-il, rattrape déjà son retard.
Au Nigeria, il n'y a peut-être pas encore de loi unique sur l'IA. Pourtant, cela ne signifie pas que les victimes ne sont pas protégées. Au contraire, il existe ce qu'il appelle un bouclier juridique à plusieurs niveaux.
Au cœur de cela se trouve la loi nigériane sur la protection des données de 2023. En vertu de cette loi, le visage, la voix et l'apparence d'une personne sont classés comme données personnelles. Lorsque les systèmes d'IA traitent ces données, ils sont soumis à des règles strictes.
Sénateur Ihenyen, associé principal chez Infusion Lawyers et président exécutif de la Virtual Asset Service Providers Association
Les victimes ont le droit de s'opposer au traitement automatisé qui cause des dommages. Lorsque des deepfakes sexualisés sont créés, l'IA traite des données personnelles sensibles. Cela nécessite un consentement explicite. Sans cela, les plateformes et les opérateurs sont sur un terrain juridique fragile.
Il existe également une dissuasion financière. Des plaintes peuvent être déposées auprès de la Commission nigériane de protection des données. Les sanctions peuvent inclure des frais correctifs allant jusqu'à 10 millions de nairas ou deux pour cent du chiffre d'affaires annuel brut d'une entreprise.
Pour les plateformes mondiales, cela attire rapidement l'attention.
Les utilisateurs créant les images ne sont pas non plus protégés. En vertu de la loi nigériane sur la cybercriminalité, modifiée en 2024, plusieurs infractions peuvent s'appliquer. Utiliser l'IA pour déshabiller ou sexualiser quelqu'un afin de le harceler ou de l'humilier peut constituer du cyberharcèlement. Simuler l'apparence de quelqu'un à des fins malveillantes peut constituer un vol d'identité.
Lorsque des mineurs sont impliqués, la loi est intransigeante. Le matériel d'abus sexuel d'enfants généré par l'IA est traité de la même manière que la photographie physique. Il n'y a aucune défense basée sur la nouveauté, l'humour ou l'expérimentation. C'est une infraction pénale grave.
Lire aussi : xAI lève 20 milliards de dollars lors d'une série E sursouscrite alors que Nvidia et Cisco placent un pari stratégique
Pour les victimes, le chemin juridique peut sembler écrasant. Ihenyen recommande une approche pratique, étape par étape.
La première est un avis de retrait formel. En vertu du Code de pratique de la NITDA du Nigeria, les plateformes comme X sont tenues d'avoir une représentation locale. Une fois notifiées, elles doivent agir rapidement. Ne pas le faire risque de perdre les protections du port sûr et ouvre la porte à des poursuites directes.
Deepfake
La deuxième est la défense axée sur la technologie. Des outils comme StopNCII permettent aux victimes de créer une empreinte numérique de l'image. Cela aide les plateformes à bloquer la distribution ultérieure sans forcer les victimes à télécharger à plusieurs reprises du contenu préjudiciable.
La troisième est l'escalade réglementaire. Signaler à la plateforme ne suffit pas. Signaler aux régulateurs est important. Les autorités peuvent contraindre les entreprises à désactiver des fonctionnalités d'IA spécifiques si elles sont constamment abusées.
Le problème ne s'arrête pas aux frontières.
De nombreux auteurs opèrent depuis l'extérieur du Nigeria. Selon Ihenyen, ce n'est plus l'obstacle qu'il était autrefois. La Convention de Malabo, entrée en vigueur en 2023, permet l'entraide judiciaire mutuelle à travers les pays africains. Les agences d'application de la loi peuvent collaborer pour traquer et poursuivre les délinquants, quel que soit leur emplacement.
Cela laisse la question la plus inconfortable. Pourquoi des outils comme Grok sont-ils autorisés à fonctionner de cette manière ?
xAI présente la conception de Grok comme un engagement envers l'ouverture. Ihenyen voit une image différente. D'un point de vue juridique, « non filtré » n'est pas une défense. C'est un risque ; cela ne peut pas être une excuse pour le préjudice ou l'illégalité.
Grok
Il fait une analogie simple. Vous ne pouvez pas construire une voiture sans freins et blâmer le conducteur pour l'accident. Lancer des systèmes d'IA sans contrôles de sécurité robustes, puis agir avec surprise lorsque des dommages se produisent, peut constituer de la négligence.
En vertu des lois nigérianes sur la protection des consommateurs, les produits dangereux engagent la responsabilité. Les politiques nationales proposées en matière d'IA mettent également l'accent sur la « sécurité dès la conception ». La direction est claire.
L'innovation en IA n'est pas le problème. L'IA non responsable l'est.
La controverse Grok est un coup de semonce. Elle montre à quelle vitesse des outils puissants peuvent être retournés contre les gens, en particulier les femmes et les enfants. Elle montre également que le consentement, la dignité et les droits personnels doivent être intégrés dans la technologie, et non ajoutés après que des dommages se produisent.
L'article Au cœur de la crise de la pornographie deepfake de Grok et du règlement de comptes juridique à venir est apparu en premier sur Technext.


