Le chatbot IA Gemini de Google est devenu la cible d'un vol d'informations à grande échelle, les attaquants bombardant le système de questions pour copier son fonctionnement. Une seule opération a envoyé plus de 100 000 requêtes au chatbot, tentant d'extraire les schémas secrets qui le rendent intelligent.
L'entreprise a rapporté jeudi que ces « attaques par distillation » s'aggravent. Les acteurs malveillants envoient vague après vague de questions pour comprendre la logique derrière les réponses de Gemini. Leur objectif est simple : voler la technologie de Google pour construire ou améliorer leurs propres systèmes d'IA sans dépenser des milliards en développement.
Google estime que la plupart des attaquants sont des entreprises privées ou des chercheurs cherchant à prendre de l'avance sans faire le travail difficile. Les attaques provenaient du monde entier, selon le rapport de l'entreprise. John Hultquist, qui dirige le Threat Intelligence Group de Google, a déclaré que les petites entreprises utilisant des outils d'IA personnalisés seront probablement confrontées à des attaques similaires prochainement.
Les entreprises technologiques ont investi des milliards de dollars dans la construction de leurs chatbots IA. Les rouages internes de ces systèmes sont traités comme des joyaux de la couronne. Même avec des défenses en place pour détecter ces attaques, les principaux systèmes d'IA restent des cibles faciles car toute personne ayant un accès Internet peut leur parler.
L'année dernière, OpenAI a pointé du doigt l'entreprise chinoise DeepSeek, affirmant qu'elle utilisait la distillation pour améliorer ses modèles. Cryptopolitan a rapporté le 30 janvier que l'Italie et l'Irlande ont interdit DeepSeek après qu'OpenAI a accusé l'entreprise chinoise d'utiliser la distillation pour voler ses modèles d'IA. La technique permet aux entreprises de copier une technologie coûteuse pour une fraction du coût.
L'économie est brutale. Construire un modèle d'IA de pointe coûte des centaines de millions, voire des milliards de dollars. DeepSeek aurait construit son modèle R1 pour environ six millions de dollars en utilisant la distillation, tandis que le développement de ChatGPT-5 a dépassé deux milliards de dollars, selon les rapports de l'industrie. Voler la logique d'un modèle réduit cet investissement massif à presque rien.
De nombreuses attaques contre Gemini ciblaient les algorithmes qui l'aident à « raisonner » ou à traiter les informations, a déclaré Google. Les entreprises qui entraînent leurs propres systèmes d'IA sur des données sensibles – comme 100 ans de stratégies de trading ou d'informations clients – font maintenant face à la même menace.
« Disons que votre LLM a été formé sur 100 ans de réflexion secrète sur votre façon de trader. Théoriquement, vous pourriez distiller une partie de cela », a expliqué Hultquist.
Le problème va au-delà des entreprises avides d'argent. APT31, un groupe de piratage du gouvernement chinois frappé par des sanctions américaines en mars 2024, a utilisé Gemini fin de l'année dernière pour planifier de véritables cyberattaques contre des organisations américaines.
Le groupe a associé Gemini à Hexstrike, un outil de piratage open-source pouvant exécuter plus de 150 programmes de sécurité. Ils ont analysé les failles d'exécution de code à distance, les moyens de contourner la sécurité web et les attaques par injection SQL – toutes visant des cibles américaines spécifiques, selon le rapport de Google.
Cryptopolitan a déjà couvert des préoccupations similaires concernant la sécurité de l'IA, avertissant que les hackers exploitaient les vulnérabilités de l'IA. Le cas APT31 montre que ces avertissements étaient justes.
Hultquist a souligné deux préoccupations majeures. Les adversaires opérant sur l'ensemble des intrusions avec une aide humaine minimale, et l'automatisation du développement d'outils d'attaque. « Ce sont deux façons dont les adversaires peuvent obtenir des avantages majeurs et se déplacer dans le cycle d'intrusion avec une interférence humaine minimale », a-t-il déclaré.
La fenêtre entre la découverte d'une faiblesse logicielle et la mise en place d'un correctif, appelée l'écart de patch, pourrait s'élargir considérablement. Les organisations prennent souvent des semaines pour déployer des défenses. Avec les agents d'IA trouvant et testant automatiquement les vulnérabilités, les attaquants pourraient agir beaucoup plus rapidement.
« Nous allons devoir tirer parti des avantages de l'IA et retirer de plus en plus les humains de la boucle, afin que nous puissions répondre à la vitesse des machines », a déclaré Hultquist au Register.
Les enjeux financiers sont énormes. Le rapport 2024 d'IBM sur les violations de données a révélé que le vol de propriété intellectuelle coûte désormais aux organisations 173 $ par enregistrement, les violations axées sur la propriété intellectuelle ayant augmenté de 27 % d'une année sur l'autre. Les poids des modèles d'IA représentent les cibles de la plus haute valeur dans cette économie souterraine – un seul modèle de pointe volé pourrait rapporter des centaines de millions sur le marché noir.
Google a fermé les comptes liés à ces campagnes, mais les attaques continuent de provenir « du monde entier », a déclaré Hultquist. Alors que l'IA devient plus puissante et que davantage d'entreprises comptent sur elle, attendez-vous à ce que cette ruée vers l'or numérique s'intensifie. La question n'est pas de savoir si d'autres attaques viendront, mais si les défenseurs peuvent suivre le rythme.
Affinez votre stratégie avec du mentorat + des idées quotidiennes - 30 jours d'accès gratuit à notre programme de trading

