A publicação "A IA Está Tornando o Cibercrime Mais Fácil Para Criminosos Não Sofisticados" apareceu no BitcoinEthereumNews.com. O logotipo do aplicativo Claude da Anthropic aparece na tela de um smartphone em Reno, Estados Unidos, em 21 de novembro de 2024. (Foto de Jaque Silva/NurPhoto via Getty Images) NurPhoto via Getty Images Por algum tempo, o modelo de negócio dos relativamente poucos gênios cibercriminosos que criam malware sofisticado como ransomware tem sido oferecer seu malware e serviços a cibercriminosos menos sofisticados na Dark Web, às vezes até fornecendo os sistemas de entrega em troca geralmente de uma porcentagem do resgate recebido. No entanto, a IA mudou rapidamente este modelo, já que criminosos menos sofisticados conseguem aproveitar a inteligência artificial para perpetrar uma variedade de golpes. As ferramentas de IA podem coletar grandes quantidades de dados das redes sociais e fontes publicamente disponíveis para permitir que cibercriminosos criem emails de phishing especificamente direcionados chamados emails de spear phishing que têm mais probabilidade de serem confiáveis por suas vítimas-alvo, muitas vezes atraindo-as a fornecer informações pessoais que podem levar ao roubo de identidade ou fazer um pagamento sob algum pretexto. A tecnologia de deepfake de vídeo e clonagem de voz facilmente disponível permitiu que cibercriminosos perpetrassem uma variedade de golpes, incluindo o golpe dos avós ou golpe de emergência familiar e o golpe de Comprometimento de Email Empresarial que no passado dependia de táticas de engenharia social feitas principalmente por emails em que o golpista se passava por um executivo da empresa e convencia funcionários de nível inferior a autorizar um pagamento conforme direcionado pelo golpista sob algum pretexto. Este golpe, que começou em grande parte em 2018, foi responsável por perdas mundiais de mais de $55 bilhões entre outubro de 2023 e dezembro de 2023, de acordo com o FBI. Agora, com o advento da IA e o uso da tecnologia deepfake e tecnologia de clonagem de voz, os golpistas aumentaram as apostas. Em 2024, a empresa de engenharia Arup perdeu $25 milhões para cibercriminosos que se passaram pelo...A publicação "A IA Está Tornando o Cibercrime Mais Fácil Para Criminosos Não Sofisticados" apareceu no BitcoinEthereumNews.com. O logotipo do aplicativo Claude da Anthropic aparece na tela de um smartphone em Reno, Estados Unidos, em 21 de novembro de 2024. (Foto de Jaque Silva/NurPhoto via Getty Images) NurPhoto via Getty Images Por algum tempo, o modelo de negócio dos relativamente poucos gênios cibercriminosos que criam malware sofisticado como ransomware tem sido oferecer seu malware e serviços a cibercriminosos menos sofisticados na Dark Web, às vezes até fornecendo os sistemas de entrega em troca geralmente de uma porcentagem do resgate recebido. No entanto, a IA mudou rapidamente este modelo, já que criminosos menos sofisticados conseguem aproveitar a inteligência artificial para perpetrar uma variedade de golpes. As ferramentas de IA podem coletar grandes quantidades de dados das redes sociais e fontes publicamente disponíveis para permitir que cibercriminosos criem emails de phishing especificamente direcionados chamados emails de spear phishing que têm mais probabilidade de serem confiáveis por suas vítimas-alvo, muitas vezes atraindo-as a fornecer informações pessoais que podem levar ao roubo de identidade ou fazer um pagamento sob algum pretexto. A tecnologia de deepfake de vídeo e clonagem de voz facilmente disponível permitiu que cibercriminosos perpetrassem uma variedade de golpes, incluindo o golpe dos avós ou golpe de emergência familiar e o golpe de Comprometimento de Email Empresarial que no passado dependia de táticas de engenharia social feitas principalmente por emails em que o golpista se passava por um executivo da empresa e convencia funcionários de nível inferior a autorizar um pagamento conforme direcionado pelo golpista sob algum pretexto. Este golpe, que começou em grande parte em 2018, foi responsável por perdas mundiais de mais de $55 bilhões entre outubro de 2023 e dezembro de 2023, de acordo com o FBI. Agora, com o advento da IA e o uso da tecnologia deepfake e tecnologia de clonagem de voz, os golpistas aumentaram as apostas. Em 2024, a empresa de engenharia Arup perdeu $25 milhões para cibercriminosos que se passaram pelo...

A IA está a tornar o cibercrime mais fácil para criminosos não sofisticados

2025/09/03 03:07
Leu 6 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

O logótipo da aplicação Claude da Anthropic aparece no ecrã de um smartphone em Reno, Estados Unidos, em 21 de novembro de 2024. (Foto de Jaque Silva/NurPhoto via Getty Images)

NurPhoto via Getty Images

Durante algum tempo, o modelo de negócio dos relativamente poucos génios cibercriminosos que criam malware sofisticado como ransomware tem sido oferecer o seu malware e serviços a cibercriminosos menos sofisticados na Dark Web, por vezes até fornecendo os sistemas de entrega em troca geralmente de uma percentagem do resgate recebido. No entanto, a IA mudou rapidamente este modelo, já que criminosos menos sofisticados conseguem aproveitar a inteligência artificial para perpetrar uma variedade de golpes online.

As ferramentas de IA podem recolher grandes quantidades de dados das redes sociais e fontes publicamente disponíveis para permitir que cibercriminosos criem emails de phishing especificamente direcionados, chamados emails de spear phishing, que têm maior probabilidade de serem confiáveis pelas suas vítimas-alvo, muitas vezes atraindo-as a fornecer informações pessoais que podem levar ao roubo de identidade ou a fazer um pagamento sob algum pretexto.

A tecnologia de deepfake de vídeo e clonagem de voz facilmente disponível permitiu aos cibercriminosos perpetrar uma variedade de golpes, incluindo o golpe dos avós ou o golpe de emergência familiar e o golpe de Comprometimento de Email Empresarial que, no passado, dependia de táticas de engenharia social principalmente feitas através de emails em que o golpista se fazia passar por um executivo da empresa e convencia funcionários de nível inferior a autorizar um pagamento conforme indicado pelo golpista sob algum pretexto. Este golpe, que começou em grande parte em 2018, foi responsável por perdas mundiais de mais de 55 mil milhões de dólares entre outubro de 2023 e dezembro de 2023, segundo o FBI.

Agora, com o advento da IA e o uso da tecnologia deepfake e da tecnologia de clonagem de voz, os golpistas aumentaram as apostas. Em 2024, a empresa de engenharia Arup perdeu 25 milhões de dólares para cibercriminosos que se fizeram passar pelo CFO da empresa em chamadas de vídeo falsificadas e persuadiram um funcionário da empresa a transferir o dinheiro.

Mas as coisas não são tão más como pensa. São muito piores.

A Anthropic, a empresa que desenvolveu o chatbot Claude, lançou recentemente um relatório no qual detalhou como o seu chatbot tinha sido usado para desenvolver e implementar cibercrimes sofisticados. O relatório descreveu a evolução do uso da IA por cibercriminosos para não apenas usar a IA como uma ferramenta para desenvolver malware, mas para usá-la como um operador ativo de um ciberataque, ao qual se referiram como "Vibe-hacking". O relatório deu o exemplo de um cibercriminoso baseado no Reino Unido descrito como GTG-5004 que usou o Claude para encontrar empresas que seriam vulneráveis a um ataque de ransomware, analisando milhares de endpoints de VPN para encontrar sistemas vulneráveis, determinar a melhor forma de penetrar nas redes das empresas, criar malware com capacidades de evasão para roubar dados sensíveis, entregar o malware, roubar os dados e filtrar os dados para determinar quais dados poderiam ser melhor utilizados para extorquir a empresa hackeada e até usar psicologia para elaborar emails com as suas exigências de resgate. O Claude também foi utilizado para roubar registos financeiros da empresa-alvo para determinar a quantidade de Bitcoin a ser exigida em troca de não publicar o material roubado.

Em um mês, o GTG-5004 usou o Claude para atacar 17 organizações envolvidas em governo, saúde, serviços de emergência e instituições religiosas, fazendo exigências entre 75.000 dólares e mais de 500.000 dólares.

O GTG-5004 então começou a vender serviços de ransomware sob demanda para outros cibercriminosos na Dark Web com diferentes níveis de pacotes, incluindo capacidades de criptografia e métodos projetados para ajudar os hackers a evitar a detecção. É importante notar que o relatório indicou que, ao contrário do passado, quando criminosos tecnologicamente sofisticados vendiam ou alugavam na Dark Web o malware que eles pessoalmente criavam, o relatório indicou que "Este operador não parece capaz de implementar algoritmos de criptografia, técnicas anti-análise ou manipulação de internos do Windows sem a assistência do Claude".

O resultado é que um único cibercriminoso agora pode fazer o que anteriormente exigiria uma equipe inteira especializada em criptografia, internos do Windows e técnicas de evasão para criar ransomware e automaticamente tomar decisões estratégicas e táticas sobre direcionamento, exploração e monetização, bem como adaptar-se às medidas defensivas encontradas. Tudo isso reduz a barreira para criminosos que buscam cometer cibercrimes.

O relatório também detalhou como as suas capacidades de IA estavam sendo mal utilizadas por operadores norte-coreanos que a usavam para obter empregos remotos em empresas de tecnologia. De acordo com o relatório, "As operações tradicionais de trabalhadores de TI norte-coreanos dependiam de indivíduos altamente qualificados recrutados e treinados desde jovens dentro da Coreia do Norte. Nossa investigação revela uma mudança fundamental: a IA tornou-se o principal facilitador permitindo que operadores com habilidades técnicas limitadas se infiltrem com sucesso e mantenham posições em empresas de tecnologia ocidentais".

O relatório descreveu como, usando IA, operadores coreanos que não conseguiam escrever código básico por conta própria ou comunicar-se em inglês agora são capazes de passar com sucesso em entrevistas e conseguir empregos em empresas de tecnologia, ganhando centenas de milhões de dólares anualmente que financiam os programas de armas da Coreia do Norte. Tornando o assunto ainda pior, através da IA, cada operador pode manter múltiplas posições de trabalho em empresas de tecnologia americanas, o que teria sido impossível sem o uso da IA.

A Anthropic respondeu às ameaças que identificou banindo as contas associadas a estas operações e desenvolvendo um classificador personalizado para identificar especificamente este tipo de atividade e instituir medidas de detecção nos seus sistemas de aplicação de segurança já existentes. Além disso, a Anthropic compartilhou as suas descobertas com outras empresas, bem como com a comunidade de segurança para ajudá-las a reconhecer e defender-se contra as ameaças representadas por criminosos que usam plataformas de IA. No entanto, a ameaça do uso da IA para cibercrimes é grande.

O relatório da Anthropic é, de facto, um alerta para toda a indústria de IA.

Fonte: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/

Oportunidade de mercado
Logo de Moonveil
Cotação Moonveil (MORE)
$0.00004026
$0.00004026$0.00004026
+6.62%
USD
Gráfico de preço em tempo real de Moonveil (MORE)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

$30,000 em PRL + 15,000 USDT

$30,000 em PRL + 15,000 USDT$30,000 em PRL + 15,000 USDT

Deposite e negocie PRL e aumente suas recompensas!