L'article "L'IA facilite la cybercriminalité pour les criminels peu sophistiqués" est apparu sur BitcoinEthereumNews.com. Le logo de l'application Claude d'Anthropic apparaît sur l'écran d'un smartphone à Reno, États-Unis, le 21 novembre 2024. (Photo de Jaque Silva/NurPhoto via Getty Images) NurPhoto via Getty Images Depuis un certain temps, le modèle économique des quelques génies de la cybercriminalité qui créent des logiciels malveillants sophistiqués comme les rançongiciels consistait à proposer leurs logiciels et services à des cybercriminels moins sophistiqués sur le Dark Web, fournissant parfois même les systèmes de livraison en échange généralement d'un pourcentage de la rançon reçue. Cependant, l'IA a rapidement changé ce modèle, car même les criminels moins sophistiqués peuvent désormais exploiter l'intelligence artificielle pour perpétrer diverses escroqueries. Les outils d'IA peuvent collecter d'énormes quantités de données des médias sociaux et de sources publiques pour permettre aux cybercriminels de créer des emails de phishing ciblés appelés spear phishing, plus susceptibles d'être considérés comme fiables par leurs victimes ciblées, les incitant souvent à fournir des informations personnelles pouvant conduire au vol d'identité ou à effectuer un paiement sous un prétexte quelconque. Les technologies de deepfake vidéo et de clonage vocal facilement accessibles ont permis aux cybercriminels de perpétrer diverses escroqueries, notamment l'arnaque des grands-parents ou l'arnaque d'urgence familiale, ainsi que l'escroquerie par compromission d'email professionnel qui, par le passé, reposait principalement sur des tactiques d'ingénierie sociale par email, où l'escroc se faisait passer pour un dirigeant d'entreprise et convainquait des employés de niveau inférieur d'autoriser un paiement sous un prétexte quelconque. Cette escroquerie, qui a largement commencé en 2018, a entraîné des pertes mondiales de plus de 55 milliards de dollars entre octobre 2023 et décembre 2023 selon le FBI. Maintenant, avec l'avènement de l'IA et l'utilisation des technologies de deepfake et de clonage vocal, les escrocs ont augmenté les enjeux. En 2024, la société d'ingénierie Arup a perdu 25 millions de dollars face à des cybercriminels qui se sont fait passer pour...L'article "L'IA facilite la cybercriminalité pour les criminels peu sophistiqués" est apparu sur BitcoinEthereumNews.com. Le logo de l'application Claude d'Anthropic apparaît sur l'écran d'un smartphone à Reno, États-Unis, le 21 novembre 2024. (Photo de Jaque Silva/NurPhoto via Getty Images) NurPhoto via Getty Images Depuis un certain temps, le modèle économique des quelques génies de la cybercriminalité qui créent des logiciels malveillants sophistiqués comme les rançongiciels consistait à proposer leurs logiciels et services à des cybercriminels moins sophistiqués sur le Dark Web, fournissant parfois même les systèmes de livraison en échange généralement d'un pourcentage de la rançon reçue. Cependant, l'IA a rapidement changé ce modèle, car même les criminels moins sophistiqués peuvent désormais exploiter l'intelligence artificielle pour perpétrer diverses escroqueries. Les outils d'IA peuvent collecter d'énormes quantités de données des médias sociaux et de sources publiques pour permettre aux cybercriminels de créer des emails de phishing ciblés appelés spear phishing, plus susceptibles d'être considérés comme fiables par leurs victimes ciblées, les incitant souvent à fournir des informations personnelles pouvant conduire au vol d'identité ou à effectuer un paiement sous un prétexte quelconque. Les technologies de deepfake vidéo et de clonage vocal facilement accessibles ont permis aux cybercriminels de perpétrer diverses escroqueries, notamment l'arnaque des grands-parents ou l'arnaque d'urgence familiale, ainsi que l'escroquerie par compromission d'email professionnel qui, par le passé, reposait principalement sur des tactiques d'ingénierie sociale par email, où l'escroc se faisait passer pour un dirigeant d'entreprise et convainquait des employés de niveau inférieur d'autoriser un paiement sous un prétexte quelconque. Cette escroquerie, qui a largement commencé en 2018, a entraîné des pertes mondiales de plus de 55 milliards de dollars entre octobre 2023 et décembre 2023 selon le FBI. Maintenant, avec l'avènement de l'IA et l'utilisation des technologies de deepfake et de clonage vocal, les escrocs ont augmenté les enjeux. En 2024, la société d'ingénierie Arup a perdu 25 millions de dollars face à des cybercriminels qui se sont fait passer pour...

L'IA facilite la cybercriminalité pour les criminels peu sophistiqués

Le logo de l'application Claude by Anthropic apparaît sur l'écran d'un smartphone à Reno, États-Unis, le 21 novembre 2024. (Photo de Jaque Silva/NurPhoto via Getty Images)

NurPhoto via Getty Images

Depuis un certain temps, le modèle économique des quelques génies cybercriminels qui créent des logiciels malveillants sophistiqués comme les rançongiciels a consisté à proposer leurs logiciels et services à des cybercriminels moins sophistiqués sur le Dark Web, fournissant parfois même les systèmes de livraison en échange généralement d'un pourcentage de la rançon reçue. Cependant, l'IA a rapidement changé ce modèle, car même les criminels moins sophistiqués sont désormais capables d'utiliser l'intelligence artificielle pour perpétrer diverses escroqueries.

Les outils d'IA peuvent collecter d'énormes quantités de données provenant des médias sociaux et de sources publiques pour permettre aux cybercriminels de créer des emails de phishing ciblés, appelés emails de harponnage, qui ont plus de chances d'être considérés comme fiables par leurs victimes ciblées, les incitant souvent à fournir des informations personnelles pouvant conduire au vol d'identité ou à effectuer un paiement sous un prétexte quelconque.

Les technologies facilement accessibles de deepfake vidéo et de clonage vocal ont permis aux cybercriminels de perpétrer diverses escroqueries, notamment l'arnaque des grands-parents ou l'arnaque d'urgence familiale, ainsi que l'escroquerie par compromission d'email professionnel qui, par le passé, reposait principalement sur des tactiques d'ingénierie sociale réalisées par email, où l'escroc se faisait passer pour un dirigeant d'entreprise et convainquait des employés de niveau inférieur d'autoriser un paiement selon ses instructions sous un prétexte quelconque. Cette escroquerie, qui a largement commencé en 2018, a entraîné des pertes mondiales de plus de 55 milliards de dollars entre octobre 2023 et décembre 2023 selon le FBI.

Maintenant, avec l'avènement de l'IA et l'utilisation des technologies de deepfake et de clonage vocal, les escrocs ont augmenté les enjeux. En 2024, le cabinet d'ingénierie Arup a perdu 25 millions de dollars au profit de cybercriminels qui se sont fait passer pour le directeur financier de l'entreprise lors d'appels vidéo truqués et ont persuadé un employé de l'entreprise de transférer l'argent.

Mais les choses ne sont pas aussi mauvaises que vous le pensez. Elles sont bien pires.

Anthropic, l'entreprise qui a développé le chatbot Claude, a récemment publié un rapport détaillant comment son chatbot avait été utilisé pour développer et mettre en œuvre des cybercrimes sophistiqués. Le rapport décrit l'évolution de l'utilisation de l'IA par les cybercriminels, qui ne se contentent plus d'utiliser l'IA comme outil pour développer des logiciels malveillants, mais l'utilisent comme opérateur actif d'une cyberattaque, ce qu'ils appellent "Vibe-hacking". Le rapport donne l'exemple d'un cybercriminel basé au Royaume-Uni, désigné comme GTG-5004, qui a utilisé Claude pour trouver des entreprises vulnérables à une attaque par rançongiciel en analysant des milliers de points de terminaison VPN pour identifier des systèmes vulnérables, déterminer la meilleure façon de pénétrer les réseaux des entreprises, créer des logiciels malveillants avec des capacités d'évasion pour voler des données sensibles, livrer les logiciels malveillants, voler les données et les passer au crible pour déterminer quelles données pourraient être le mieux utilisées pour faire chanter l'entreprise piratée, et même utiliser la psychologie pour rédiger des emails avec leurs demandes de rançon. Claude a également été utilisé pour voler les registres financiers de l'entreprise ciblée afin de déterminer le montant de Bitcoin à exiger en échange de la non-publication du matériel volé.

En un mois, GTG-5004 a utilisé Claude pour attaquer 17 organisations impliquées dans le gouvernement, les soins de santé, les services d'urgence et les institutions religieuses, formulant des demandes allant de 75 000 à plus de 500 000 dollars.

GTG-5004 a ensuite commencé à vendre des services de rançongiciel à la demande à d'autres cybercriminels sur le Dark Web avec différents niveaux de forfaits comprenant des capacités de chiffrement et des méthodes conçues pour aider les pirates à éviter la détection. Il est important de noter que le rapport indiquait que, contrairement au passé où des criminels technologiquement sophistiqués vendaient ou louaient sur le Dark Web les logiciels malveillants qu'ils avaient personnellement créés, le rapport indiquait que "Cet opérateur ne semble pas capable de mettre en œuvre des algorithmes de chiffrement, des techniques anti-analyse ou des manipulations internes de Windows sans l'assistance de Claude."

Le résultat est qu'un seul cybercriminel peut désormais faire ce qui aurait auparavant nécessité toute une équipe qualifiée en cryptographie, en fonctionnement interne de Windows et en techniques d'évasion pour créer un rançongiciel et prendre automatiquement des décisions stratégiques et tactiques concernant le ciblage, l'exploitation et la monétisation, ainsi que s'adapter aux mesures défensives rencontrées. Tout cela abaisse la barre pour les criminels cherchant à commettre des cybercrimes.

Le rapport détaille également comment ses capacités d'IA étaient détournées par des agents nord-coréens qui l'utilisaient pour obtenir des emplois à distance dans des entreprises technologiques. Selon le rapport, "Les opérations traditionnelles des travailleurs informatiques nord-coréens reposaient sur des individus hautement qualifiés recrutés et formés dès leur plus jeune âge en Corée du Nord. Notre enquête révèle un changement fondamental : l'IA est devenue le principal facilitateur permettant à des opérateurs aux compétences techniques limitées de s'infiltrer avec succès et de maintenir des positions dans les entreprises technologiques occidentales."

Le rapport décrit comment, en utilisant l'IA, des opérateurs coréens qui ne pouvaient pas écrire de code basique par eux-mêmes ou communiquer en anglais sont désormais capables de réussir des entretiens et d'obtenir des emplois dans des entreprises technologiques, gagnant des centaines de millions de dollars annuellement qui financent les programmes d'armement de la Corée du Nord. Pire encore, grâce à l'IA, chaque opérateur peut occuper plusieurs postes dans des entreprises technologiques américaines, ce qui aurait été impossible sans l'utilisation de l'IA.

Anthropic a répondu aux menaces identifiées en bannissant les comptes associés à ces opérations et en développant un classificateur sur mesure pour identifier spécifiquement ce type d'activité et instituer des mesures de détection dans ses systèmes d'application de la sécurité déjà existants. De plus, Anthropic a partagé ses découvertes avec d'autres entreprises ainsi qu'avec la communauté de la sécurité pour les aider à reconnaître et à se défendre contre les menaces posées par les criminels utilisant des plateformes d'IA. Cependant, la menace de l'utilisation de l'IA pour les cybercrimes plane toujours.

Le rapport d'Anthropic est véritablement un signal d'alarme pour l'ensemble de l'industrie de l'IA.

Source: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/

Opportunité de marché
Logo de Seed.Photo
Cours Seed.Photo(PHOTO)
$0.29827
$0.29827$0.29827
+0.46%
USD
Graphique du prix de Seed.Photo (PHOTO) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.