Tóm tắt
- Các nhà nghiên cứu từ Cambridge, Edinburgh và Strathclyde đã phân tích 97,895 chủ đề diễn đàn tội phạm mạng được đăng sau khi ChatGPT ra mắt.
- Các công cụ "Dark AI" như WormGPT tạo ra nhiều tiếng vang nhưng hầu như không tạo ra được phần mềm độc hại hoạt động được, trong khi các chatbot bị jailbreak ngày càng khó duy trì hoạt động hơn vài ngày.
- Tội phạm Hỗ trợ bởi AI lớn nhất có thể đo lường được không phải là hacking. Đó là spam SEO sản xuất hàng loạt, lừa đảo tình cảm và ảnh nude do AI tạo ra được bán với giá một đô la mỗi tấm.
Trong ba năm qua, các công ty an ninh mạng, chính phủ và các phòng thí nghiệm AI đã cảnh báo rằng AI tạo sinh sẽ tạo ra một thế hệ hacker mới được trang bị siêu mạnh. Tuy nhiên, theo một bài báo học thuật mới thực sự đi sâu vào nghiên cứu, những hacker được trang bị siêu mạnh đó chủ yếu đang dùng ChatGPT để viết spam và tạo ảnh nude cho vui.
Nghiên cứu, có tựa đề Stand-Alone Complex or Vibercrime?, được đăng trên arXiv bởi các nhà nghiên cứu từ Cambridge và các trường đại học khác, nhằm mục đích tìm hiểu cách thế giới ngầm tội phạm mạng thực sự đang áp dụng AI, chứ không phải theo cách mà các nhà cung cấp an ninh mạng mô tả.
"Chúng tôi trình bày ở đây một trong những nỗ lực đầu tiên trong nghiên cứu thực nghiệm đa phương pháp về các mô hình áp dụng GenAI sơ khai trong thế giới ngầm tội phạm mạng," các nhà nghiên cứu viết.
Nhóm nghiên cứu đã phân tích 97,895 chủ đề diễn đàn được đăng sau khi ChatGPT ra mắt vào tháng 11/2022, lấy từ bộ dữ liệu CrimeBB của Trung tâm Tội phạm Mạng Cambridge về các diễn đàn ngầm và dark web. Họ chạy các mô hình chủ đề, đọc thủ công hơn 3,200 chủ đề và tự đắm mình vào môi trường đó theo phương pháp dân tộc học.
Kết luận không mấy tâng bốc cho cộng đồng lo ngại AI tận thế: 97,3% các chủ đề trong mẫu được phân loại là "khác," nghĩa là hoàn toàn không liên quan đến việc sử dụng AI cho tội phạm. Chỉ 1,9% liên quan đến người dùng sử dụng các công cụ vibe coding.
'Không gì khác ngoài một ChatGPT không bị hạn chế'
Bạn có nhớ WormGPT, FraudGPT và làn sóng các chatbot được cho là độc hại tràn ngập các tít báo năm 2023 không? Dữ liệu từ các diễn đàn kể một câu chuyện khác.
Các nhà nghiên cứu phát hiện rằng hầu hết các bài đăng về sản phẩm "Dark AI" đều là người dùng xin truy cập miễn phí, suy đoán vô căn cứ và phàn nàn rằng các công cụ này không thực sự hoạt động. Một nhà phát triển của dịch vụ Dark AI phổ biến cuối cùng đã thừa nhận với các thành viên diễn đàn rằng sản phẩm chỉ là một bài tập marketing.
"Xét cho cùng, [CybercrimeAI] không gì khác ngoài một ChatGPT không bị hạn chế," nhà phát triển viết trước khi dự án đóng cửa. "Bất kỳ ai trên Internet đều có thể dùng một kỹ thuật jailbreak phổ biến và đạt được kết quả tương tự, nếu không muốn nói là tốt hơn."
Đến cuối năm 2024, các nhà nghiên cứu cho biết, các jailbreak dành cho các mô hình phổ biến đã trở nên sử dụng một lần rồi bỏ. Hầu hết ngừng hoạt động trong vòng một tuần hoặc ít hơn. Các mô hình mã nguồn mở có thể bị jailbreak vô thời hạn, nhưng chúng chậm, tốn nhiều tài nguyên và bị đóng băng trong thời gian.
"Các biện pháp bảo vệ cho hệ thống AI đang chứng tỏ sự hữu ích và hiệu quả," các tác giả kết luận, trong điều mà chính họ gọi là một phát hiện phản trực giác đối với một bài báo phê bình.
Vibe coding là thật. Còn vibe hacking, phần lớn, là không
Bài báo đề cập trực tiếp đến báo cáo tháng 8/2025 được đưa tin rộng rãi của Anthropic, trong đó tuyên bố rằng Claude Code đã được sử dụng để thực hiện chiến dịch tống tiền "vibe hacking" nhắm vào 17 tổ chức. Dữ liệu của nhóm Cambridge đơn giản là không cho thấy mô hình đó trong thế giới ngầm rộng lớn hơn.
Trong các diễn đàn họ nghiên cứu, các trợ lý lập trình AI đang được sử dụng theo cách tương tự như các nhà phát triển Game phổ thông sử dụng: như tính năng tự động hoàn thành và thay thế Stack Overflow cho những lập trình viên đã có kỹ năng. Những người ít kỹ năng vẫn bám vào các script có sẵn, vì script có sẵn thì hoạt động được.
Các nhà nghiên cứu phát hiện rằng ngay cả các hacker cũng không tin tưởng các công cụ hacking được tạo bằng vibe coding. "Lập trình Hỗ trợ bởi AI là con dao hai lưỡi. Nó sẽ tăng tốc quá trình phát triển nhưng cũng khuếch đại các rủi ro như code không an toàn và lỗ hổng chuỗi cung ứng," một người dùng nói trong một diễn đàn được các nhà nghiên cứu theo dõi.
Một người khác cảnh báo về sự suy giảm kỹ năng lâu dài: "Bây giờ đã rõ ràng rằng việc sử dụng AI để viết code gây ra sự suy giảm kỹ năng rất nhanh," một hacker viết trên diễn đàn, "Nếu mục tiêu của bạn chỉ là tạo ra các trò lừa đảo SaaS và bạn không quan tâm đến chất lượng/bảo mật/hiệu suất của code thì vibe code có thể khả thi. (Có vẻ cũng khả thi cho Giả mạo)."
Điều này trái ngược hoàn toàn với các dự báo đáng lo ngại từ Europol, cơ quan đã cảnh báo vào năm 2025 rằng AI hoàn toàn tự trị có thể một ngày nào đó kiểm soát các mạng lưới tội phạm.
Nơi AI thực sự đang giúp đỡ tội phạm
Sự gián đoạn, khi xuất hiện, nằm ở tầng đáy của chuỗi thức ăn.
Những kẻ lừa đảo SEO đang sử dụng LLM để sản xuất hàng loạt blog spam nhằm kiếm doanh thu quảng cáo đang sụt giảm. Những kẻ Lừa đảo qua mạng tình cảm và các nhà điều hành eWhoring đang tích hợp thêm nhân bản giọng nói và tạo hình ảnh. Những kẻ kiếm tiền nhanh đang liên tục cho ra các eBook do AI viết để bán với giá 20 đô la mỗi cuốn.
Thị trường đáng lo ngại nhất mà các nhà nghiên cứu tìm thấy liên quan đến các dịch vụ tạo ảnh nude. Một nhà điều hành quảng cáo: "Tôi có thể làm cho bất kỳ cô gái nào nude bằng AI… 1 Ảnh = $1, 10 Ảnh = $8, 50 Ảnh = $40, 90 Ảnh $75."
Không có gì trong số này là tội phạm mạng tinh vi. Đó là cùng một trò kiếm tiền biên lợi nhuận thấp, khối lượng cao đã thúc đẩy ngành spam trong hai thập kỷ, giờ đây chạy trên các công cụ tốt hơn một chút.
Nhận xét kết thúc của các nhà nghiên cứu là nhận xét sắc bén nhất. Cách lớn nhất mà AI cuối cùng gây gián đoạn cho hệ sinh thái tội phạm mạng, họ gợi ý, có thể không phải là bằng cách làm cho tội phạm có năng lực hơn. Mà có thể là bằng cách đẩy các nhà phát triển bị sa thải từ ngành công nghệ hợp pháp vào thế giới ngầm để tìm kiếm việc làm.
"Trong những tháng gần đây, lo ngại về sự gián đoạn thị trường lao động từ các công cụ này đang tăng lên nhanh chóng," bài báo viết. "Đây có thể là cách quan trọng nhất mà các công cụ AI tạo sinh gây gián đoạn cho hệ sinh thái tội phạm mạng—sa thải hàng loạt, suy thoái kinh tế và thị trường việc làm lạnh giá đẩy các nhà phát triển hợp pháp, có kỹ năng cao hơn vào các cộng đồng ngầm gồm các kế hoạch làm giàu nhanh chóng, gian lận và tội phạm mạng."
Bản tin Daily Debrief
Bắt đầu mỗi ngày với các tin tức hàng đầu ngay bây giờ, cùng với các bài viết đặc sắc, podcast, video và nhiều hơn nữa.
Source: https://decrypt.co/366855/cybercrime-hacking-ai-study





