Het Claude by Anthropic app-logo verschijnt op het scherm van een smartphone in Reno, Verenigde Staten, op 21 november 2024. (Foto door Jaque Silva/NurPhoto via Getty Images)
NurPhoto via Getty Images
Al enige tijd is het bedrijfsmodel van de relatief weinige cybercriminele genieën die geavanceerde malware zoals ransomware creëren, gebaseerd op het aanbieden van hun malware en diensten aan minder geavanceerde cybercriminelen op het Dark Web, soms zelfs met leveringssystemen in ruil voor doorgaans een percentage van het ontvangen losgeld. AI heeft dit model echter snel veranderd, aangezien zelfs minder geavanceerde criminelen kunstmatige intelligentie kunnen gebruiken om verschillende soorten oplichting te plegen.
AI-tools kunnen enorme hoeveelheden gegevens verzamelen van sociale media en openbaar beschikbare bronnen, waardoor cybercriminelen specifiek gerichte phishing-e-mails kunnen maken, zogenaamde spear phishing-e-mails, die waarschijnlijker vertrouwd worden door hun beoogde slachtoffers, en hen vaak verleiden om persoonlijke informatie te verstrekken die kan leiden tot identiteitsdiefstal of het doen van een betaling onder een of ander voorwendsel.
Gemakkelijk beschikbare deepfake-video en stemkloontechnologie heeft cybercriminelen in staat gesteld verschillende oplichterijen te plegen, waaronder de grootouderoplichting of familienoodoplichting en de Business Email Compromise-oplichting, die in het verleden vertrouwde op social engineering-tactieken die voornamelijk werden uitgevoerd via e-mails waarin de oplichter zich voordeed als een bedrijfsleider en werknemers op lager niveau overtuigde om een betaling te autoriseren zoals opgedragen door de oplichter onder een of ander voorwendsel. Deze oplichting, die grotendeels begon in 2018, was volgens de FBI verantwoordelijk voor wereldwijde verliezen van meer dan $55 miljard tussen oktober 2023 en december 2023.
Nu met de komst van AI en het gebruik van deepfake-technologie en stemkloontechnologie hebben oplichters de inzet verhoogd. In 2024 verloor het ingenieursbureau Arup $25 miljoen aan cybercriminelen die zich voordeden als de CFO van het bedrijf in gedeepfakete videogesprekken en een medewerker van het bedrijf overtuigden om het geld over te maken.
Maar de situatie is niet zo slecht als je denkt. Het is veel erger.
Anthropic, het bedrijf dat de Claude-chatbot ontwikkelde, heeft onlangs een rapport uitgebracht waarin het gedetailleerd beschrijft hoe zijn chatbot is gebruikt om geavanceerde cybermisdaden te ontwikkelen en uit te voeren. Het rapport beschreef de evolutie van het gebruik van AI door cybercriminelen, niet alleen als hulpmiddel om malware te ontwikkelen, maar ook als actieve operator van een cyberaanval, wat zij "Vibe-hacking" noemden. Het rapport gaf het voorbeeld van een cybercrimineel uit het VK, beschreven als GTG-5004, die Claude gebruikte om bedrijven te vinden die kwetsbaar zouden zijn voor een ransomware-aanval door duizenden VPN-eindpunten te scannen om kwetsbare systemen te vinden, te bepalen hoe bedrijfsnetwerken het best kunnen worden gepenetreerd, malware te creëren met ontwijkingsmogelijkheden om gevoelige gegevens te stelen, de malware te leveren, de gegevens te stelen en door de gegevens te ziften om te bepalen welke gegevens het best kunnen worden gebruikt om het gehackte bedrijf af te persen en zelfs psychologie te gebruiken om e-mails op te stellen met hun losgeldverzoeken. Claude werd ook gebruikt om financiële gegevens van het doelwit te stelen om het bedrag aan Bitcoin te bepalen dat zou worden geëist in ruil voor het niet publiceren van het gestolen materiaal.
In één maand gebruikte GTG-5004 Claude om 17 organisaties aan te vallen die betrokken waren bij overheid, gezondheidszorg, hulpdiensten en religieuze instellingen, met eisen tussen $75.000 en meer dan $500.000
GTG-5004 begon vervolgens ransomware-on-demand diensten te verkopen aan andere cybercriminelen op het Dark Web met verschillende niveaus van pakketten, waaronder encryptiemogelijkheden en methoden ontworpen om hackers te helpen detectie te vermijden. Het is belangrijk op te merken dat het rapport aangaf dat, in tegenstelling tot het verleden toen technologisch geavanceerde criminelen op het Dark Web de malware verkochten of verhuurden die ze persoonlijk hadden gemaakt, het rapport aangaf dat "Deze operator niet in staat lijkt om encryptie-algoritmen, anti-analysetechnieken of Windows-interne manipulatie te implementeren zonder Claude's hulp."
Het resultaat is dat een enkele cybercrimineel nu kan doen wat voorheen een heel team zou vereisen dat bedreven is in cryptografie, Windows-interne werking en ontwijkingstechnieken om ransomware te creëren en automatisch zowel strategische als tactische beslissingen te nemen met betrekking tot targeting, exploitatie en monetisatie, evenals aanpassing aan verdedigingsmaatregelen die worden aangetroffen. Dit alles verlaagt de drempel voor criminelen die cybermisdaden willen plegen.
Het rapport beschreef ook hoe de AI-mogelijkheden werden misbruikt door Noord-Koreaanse operatives die het gebruikten om banen op afstand te verkrijgen bij technologiebedrijven. Volgens het rapport: "Traditionele Noord-Koreaanse IT-werkersoperaties vertrouwden op hooggeschoolde individuen die van jongs af aan binnen Noord-Korea werden gerekruteerd en opgeleid. Ons onderzoek onthult een fundamentele verschuiving: AI is de primaire facilitator geworden die operators met beperkte technische vaardigheden in staat stelt om met succes te infiltreren en posities te behouden bij westerse technologiebedrijven."
Het rapport beschreef hoe met behulp van AI, Koreaanse operators die zelf geen basiscode konden schrijven of in het Engels konden communiceren, nu met succes interviews kunnen doorstaan en banen kunnen krijgen bij technologiebedrijven, waarmee ze jaarlijks honderden miljoenen dollars verdienen die Noord-Korea's wapenprogramma's financieren. Wat de zaak nog erger maakt, is dat via AI elke operator meerdere functies kan behouden in Amerikaanse technologiebedrijven, wat zonder het gebruik van AI onmogelijk zou zijn geweest
Anthropic heeft gereageerd op de geïdentificeerde bedreigingen door de accounts die aan deze operaties zijn gekoppeld te verbieden en een op maat gemaakte classifier te ontwikkelen om specifiek dit soort activiteiten te identificeren en detectiemaatregelen in te voeren in zijn reeds bestaande veiligheidshandhavingssystemen. Daarnaast heeft Anthropic zijn bevindingen gedeeld met andere bedrijven en met de beveiligings- en veiligheidsgemeenschap om hen te helpen de bedreigingen te herkennen en zich te verdedigen tegen de bedreigingen die worden veroorzaakt door criminelen die AI-platforms gebruiken. De dreiging van het gebruik van AI voor cybermisdaden is echter groot.
Het Anthropic-rapport is inderdaad een wake-up call voor de hele AI-industrie.
Bron: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/








