สรุปโดยย่อ
- นักวิจัยจากมหาวิทยาลัย Cambridge, Edinburgh และ Strathclyde วิเคราะห์กระทู้ในฟอรัมอาชญากรรมไซเบอร์จำนวน 97,895 กระทู้ที่โพสต์หลังจาก ChatGPT เปิดตัว
- เครื่องมือ "Dark AI" อย่าง WormGPT สร้างกระแสฮือฮาในแวดวงวัฒนธรรม แต่แทบไม่ผลิตมัลแวร์ที่ใช้งานได้จริงเลย ขณะที่แชทบอตที่ถูกเจลเบรกก็ยิ่งยากขึ้นเรื่อยๆ ที่จะให้ทำงานได้นานกว่าสองสามวัน
- อาชญากรรมที่ขับเคลื่อนด้วย AI ที่วัดผลได้มากที่สุดไม่ใช่การแฮก แต่เป็นสแปม SEO ที่ผลิตจำนวนมาก การหลอกลวงทางความรัก และภาพนู้ดที่สร้างโดย AI ซึ่งขายในราคาหนึ่งดอลลาร์ต่อภาพ
ตลอดสามปีที่ผ่านมา บริษัทด้านความปลอดภัยไซเบอร์ รัฐบาล และห้องแล็บ AI ต่างเตือนว่า AI เชิงสร้างสรรค์จะปลดปล่อยแฮกเกอร์รุ่นใหม่ที่มีพลังเพิ่มขึ้น แต่จากบทความวิชาการชิ้นใหม่ที่ลงมือศึกษาจริงๆ พบว่า แฮกเกอร์ที่มีพลังเพิ่มขึ้นเหล่านั้นส่วนใหญ่ใช้ ChatGPT เพื่อเขียนสแปมและสร้างภาพนู้ดเพื่อความสนุกสนาน
งานวิจัยชื่อว่า Stand-Alone Complex or Vibercrime? ถูกเผยแพร่บน arXiv โดยนักวิจัยจากมหาวิทยาลัย Cambridge และมหาวิทยาลัยอื่นๆ โดยมีเป้าหมายเพื่อทำความเข้าใจว่าแวดวงใต้ดินของอาชญากรรมไซเบอร์กำลังนำ AI มาใช้จริงๆ อย่างไร ไม่ใช่อย่างที่ผู้จำหน่ายด้านความปลอดภัยไซเบอร์บอก
"เราขอนำเสนอหนึ่งในความพยายามแรกๆ ในการศึกษาเชิงประจักษ์แบบผสมวิธีเกี่ยวกับรูปแบบช่วงต้นของการนำ GenAI มาใช้ในแวดวงใต้ดินของอาชญากรรมไซเบอร์" นักวิจัยเขียน
ทีมงานวิเคราะห์กระทู้ฟอรัม 97,895 กระทู้ที่โพสต์หลังจาก ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 ซึ่งดึงมาจากชุดข้อมูล CrimeBB ของ Cambridge Cybercrime Centre ที่รวบรวมฟอรัมใต้ดินและดาร์กเว็บ พวกเขาใช้โมเดลหัวข้อ อ่านกระทู้มากกว่า 3,200 กระทู้ด้วยตนเอง และศึกษาแบบชาติพันธุ์วรรณนาจนคุ้นเคยกับแวดวงนี้
บทสรุปไม่เป็นคุณต่อกลุ่มที่หวาดกลัว AI: 97.3% ของกระทู้ในตัวอย่างถูกจัดเป็น "อื่นๆ" ซึ่งหมายความว่าไม่ได้เกี่ยวกับการใช้ AI เพื่ออาชญากรรมเลย มีเพียง 1.9% ที่เกี่ยวข้องกับการใช้เครื่องมือ vibe coding
'ไม่ต่างอะไรกับ ChatGPT ที่ไม่มีข้อจำกัด'
จำ WormGPT, FraudGPT และคลื่นของแชทบอตที่ถูกกล่าวหาว่าเป็นอันตรายซึ่งท่วมหน้าข่าวในปี 2023 ได้ไหม? ข้อมูลฟอรัมบอกเล่าเรื่องราวที่แตกต่างออกไป
นักวิจัยพบว่าโพสต์ส่วนใหญ่เกี่ยวกับผลิตภัณฑ์ "Dark AI" เป็นคนที่ขอการเข้าถึงฟรี การคาดเดาอย่างไม่มีจุดหมาย และการบ่นว่าเครื่องมือเหล่านั้นไม่ได้ผลจริงๆ นักพัฒนารายหนึ่งของบริการ Dark AI ยอดนิยมยอมรับกับสมาชิกฟอรัมในที่สุดว่าผลิตภัณฑ์ดังกล่าวเป็นแค่แคมเปญการตลาด
"ท้ายที่สุดแล้ว [CybercrimeAI] ไม่ต่างอะไรกับ ChatGPT ที่ไม่มีข้อจำกัด" นักพัฒนาเขียน ก่อนที่โครงการจะปิดตัวลง "ใครก็ตามบนอินเทอร์เน็ตสามารถใช้เทคนิคเจลเบรกที่เป็นที่รู้จักกันดีและบรรลุผลลัพธ์ที่เหมือนกัน หากไม่ดีกว่านั้น"
นักวิจัยกล่าวว่า เมื่อปลายปี 2024 การเจลเบรกสำหรับโมเดลกระแสหลักกลายเป็นสิ่งที่ใช้แล้วทิ้ง ส่วนใหญ่หยุดทำงานภายในหนึ่งสัปดาห์หรือน้อยกว่านั้น โมเดลโอเพนซอร์สสามารถเจลเบรกได้ไม่จำกัด แต่ช้า ใช้ทรัพยากรมาก และหยุดนิ่งอยู่กับที่
"ระบบป้องกันสำหรับ AI กำลังพิสูจน์ให้เห็นว่าทั้งมีประโยชน์และมีประสิทธิภาพ" ผู้เขียนสรุป ในสิ่งที่พวกเขาเองเรียกว่าเป็นผลการค้นพบที่ขัดกับสัญชาตญาณสำหรับบทความวิจารณ์
Vibe coding มีจริง แต่ Vibe hacking ส่วนใหญ่ไม่ใช่
บทความนี้ตอบสนองโดยตรงต่อรายงานเดือนสิงหาคม 2025 ของ Anthropic ที่ได้รับการรายงานข่าวอย่างกว้างขวาง ซึ่งอ้างว่า Claude Code ถูกใช้เพื่อดำเนินการแคมเปญกรรโชกทรัพย์แบบ "vibe hacking" กับ 17 องค์กร แต่ข้อมูลของทีม Cambridge ไม่แสดงรูปแบบนั้นในวงกว้างของแวดวงใต้ดิน
ในฟอรัมที่พวกเขาศึกษา ผู้ช่วยเขียนโค้ด AI ถูกใช้ในลักษณะเดียวกับที่นักพัฒนากระแสหลักใช้: เป็นเครื่องมือเติมโค้ดอัตโนมัติและทดแทน Stack Overflow สำหรับนักเขียนโค้ดที่มีทักษะอยู่แล้ว ส่วนผู้ที่มีทักษะต่ำยังคงใช้สคริปต์สำเร็จรูป เพราะสคริปต์สำเร็จรูปทำงานได้
นักวิจัยพบว่าแม้แต่แฮกเกอร์ก็ไม่เชื่อใจเครื่องมือแฮกที่เขียนด้วย vibe coding "การเขียนโค้ดด้วยความช่วยเหลือของ AI เป็นดาบสองคม มันจะเร่งการพัฒนา แต่ยังขยายความเสี่ยงเช่นโค้ดที่ไม่ปลอดภัยและช่องโหว่ในห่วงโซ่อุปทาน" ผู้ใช้รายหนึ่งกล่าวในฟอรัมที่นักวิจัยติดตามอยู่
อีกรายหนึ่งเตือนเกี่ยวกับการสูญเสียทักษะในระยะยาว: "ตอนนี้ชัดเจนแล้วว่าการใช้ AI สำหรับโค้ดทำให้ทักษะของคุณเสื่อมถอยในแง่ลบอย่างรวดเร็วมาก" แฮกเกอร์คนหนึ่งเขียนในฟอรัม "ถ้าเป้าหมายของคุณคือแค่ทำการหลอกลวง SaaS และคุณไม่สนใจคุณภาพโค้ด/ความปลอดภัย/ประสิทธิภาพ การเขียนโค้ดแบบ vibe อาจเป็นทางเลือกที่เหมาะสม (ดูเหมือนจะเหมาะสมสำหรับการฟิชชิ่งด้วย)"
สิ่งนี้ขัดแย้งอย่างสิ้นเชิงกับการคาดการณ์ที่สร้างความตื่นตระหนกของ Europol ซึ่งเตือนในปี 2025 ว่า AI ที่ทำงานได้อย่างอิสระอย่างสมบูรณ์อาจควบคุมเครือข่ายอาชญากรรมได้ในสักวันหนึ่ง
AI ช่วยอาชญากรได้จริงในส่วนไหน
การรบกวน เมื่อปรากฏขึ้น อยู่ที่ระดับล่างสุดของห่วงโซ่อาหาร
นักต้มตุ๋น SEO กำลังใช้ LLM เพื่อผลิตสแปมบล็อกจำนวนมากเพื่อไล่ตามรายได้จากโฆษณาที่ลดลง นักต้มตุ๋นความรักและผู้ดำเนินการ eWhoring กำลังเพิ่มการโคลนเสียงและการสร้างภาพ นักต้มตุ๋นรวยเร็วกำลังผลิต eBooks ที่เขียนโดย AI เพื่อขายในราคา 20 ดอลลาร์ต่อเล่ม
ตลาดที่น่าวิตกกังวลที่สุดที่นักวิจัยพบเกี่ยวข้องกับบริการสร้างภาพนู้ด ผู้ดำเนินการรายหนึ่งโฆษณาว่า: "ฉันสามารถทำให้ผู้หญิงคนไหนก็ได้เป็นภาพนู้ดด้วย AI… 1 ภาพ = $1, 10 ภาพ = $8, 50 ภาพ = $40, 90 ภาพ $75"
ไม่มีสิ่งใดเหล่านี้ที่เป็นอาชญากรรมไซเบอร์ที่ซับซ้อน มันคือการหาเงินแบบมาร์จิ้นต่ำ ปริมาณสูงแบบเดิมที่ขับเคลื่อนอุตสาหกรรมสแปมมาสองทศวรรษ บัดนี้ทำงานด้วยเครื่องมือที่ดีขึ้นเล็กน้อย
ข้อสังเกตปิดท้ายของนักวิจัยเป็นสิ่งที่ตรงประเด็นที่สุด พวกเขาชี้ให้เห็นว่าวิธีที่ใหญ่ที่สุดที่ AI จะรบกวนระบบนิเวศของอาชญากรรมไซเบอร์ อาจไม่ใช่การทำให้อาชญากรมีความสามารถมากขึ้น แต่อาจเป็นการผลักดันนักพัฒนาที่ถูกเลิกจ้างจากบริษัทเทคโนโลยีที่ถูกกฎหมายเข้าสู่แวดวงใต้ดินเพื่อหางานทำ
"ในช่วงเดือนที่ผ่านมา ความวิตกกังวลเกี่ยวกับการรบกวนตลาดแรงงานจากเครื่องมือเหล่านี้กำลังเพิ่มขึ้นอย่างรวดเร็ว" บทความระบุ "สิ่งนี้อาจกลายเป็นวิธีที่สำคัญที่สุดที่เครื่องมือ AI เชิงสร้างสรรค์รบกวนระบบนิเวศของอาชญากรรมไซเบอร์ นั่นคือการเลิกจ้างจำนวนมาก ภาวะเศรษฐกิจถดถอย และตลาดงานที่เย็นชา ผลักดันนักพัฒนาที่มีทักษะสูงกว่าจากงานที่ถูกกฎหมายเข้าสู่ชุมชนใต้ดินของแผนรวยเร็ว การฉ้อโกง และอาชญากรรมไซเบอร์"
จดหมายข่าว Daily Debrief
เริ่มต้นทุกวันด้วยข่าวเด่นในขณะนี้ พร้อมบทความพิเศษ พอดแคสต์ วิดีโอ และอื่นๆ อีกมากมาย
Source: https://decrypt.co/366855/cybercrime-hacking-ai-study








