愛丁堡大學、劍橋大學與 Strathclyde 大學聯合研究,分析 ChatGPT 問世以來、橫跨 2022 至 2025 年底共 97,895 條地下論壇對話,發現 AI 並未顯著降低駭客技術門檻,也未對既有犯罪商業模式造成重大衝擊。
(前情提要:摩斯密碼騙過 Grok,BankrBot 秒轉帳:駭客劫走 17 萬美元 DRB,AI 代理錢包首次失守)
(背景補充:川普要 AI 模型先審查後發布:Mythos 嚇壞白宮、五角大廈將主導安全測試)
本文目錄
- 論壇裡的聲望戰爭,AI 是攪局者
- 97,895 條對話,推翻了「AI 降低駭客門檻」的恐慌
- AI slop 是全球社群的共同敵人
一份橫跨三年、近十萬條地下論壇對話的研究,得出了一個讓資安業界意外的結論:最憎恨 AI 生成內容的人,可能正是你最不會同情的那群人。
駭客論壇的日常不是教你突破防線,而是在罵人用 AI 偷懶寫文。這個反直覺的畫面,來自愛丁堡大學資安研究員 Ben Collier 帶領、聯合劍橋大學與 Strathclyde 大學的跨機構研究。他們系統性地分析 2022 年至 2025 年底的地下論壇對話,樣本規模達 97,895 條,試圖回答一個業界懸而未決的問題:AI 到底讓駭客變強了多少?
論壇裡的聲望戰爭,AI 是攪局者
要理解駭客為何這麼恨 AI 灌水,得先理解他們的社群結構。地下論壇並不只是交易贓資料的黑市,它更是一個「聲望經濟」— 意指成員的地位、信任度與影響力,都建立在被同儕認可的技術能力上。
論壇有積分系統、有徵文比賽、有互酸文化,核心邏輯和 Stack Overflow 或 GitHub 其實沒有本質差異:你得展示你真的懂。
AI slop(指大量低品質、由 AI 批次生成的文字內容)在這個生態裡製造的破壞,和它在合法平台上如出一轍。Hack Forums 某位使用者寫道:「我看到很多人用 AI 寫文,這讓我很火,他們連兩句話都懶得自己寫。」另一位網友說:「如果我想跟 AI 聊天,網路上多的是,我來這裡是為了跟真人互動的。」
Ben Collier 的觀察點出了結構性矛盾:「他們對 AI 其實有點矛盾,因為 AI 動搖了他們宣稱自己是技術高手的基礎。」一旦任何新手都能貼出看似專業的滲透測試教學,原本靠稀缺知識換來的聲望就被稀釋了。
97,895 條對話,推翻了「AI 降低駭客門檻」的恐慌
這份研究最核心的發現,是對主流資安論述的一次降溫。研究結論明確指出:
換句話說,真正被 AI 改變的,是那些本來就不需要高技術的場景。情感詐騙犯用 AI 翻譯訊息、讓社工攻擊更流暢;SEO 農場用 AI 批次產文;社群機器人用 AI 生成更自然的回覆,這些改變發生在低門檻的批次操作層,而真正定義駭客能力上限的滲透測試手法、漏洞挖掘邏輯、0-day 研究 — AI 在這些領域幾乎沒有留下可量測的痕跡。
駭客社群對 Anthropic 旗下最新前沿模型 Claude Mythos Preview 的廣泛討論,曾讓部分資安業界人士感到緊張。但 Collier 的研究暗示,恐慌的比例或許超過實際威脅的比例。
AI slop 是全球社群的共同敵人
駭客論壇與 Reddit、技術討論板面臨的困境高度相似:AI 灌水破壞討論品質、稀釋專業訊號、讓真人使用者流失。研究甚至記錄到,由於 Google AI 搜尋摘要直接吸走流量,部分論壇的訪客數正在下降。
這不是犯罪社群獨有的問題,而是整個網路生態的結構性壓力。
部分駭客也並非全面排斥 AI,他們願意接受 AI 協助修正文法或調整結構,但對「AI 全部代寫」深感不屑。這種態度,與許多技術寫作社群的主流立場幾乎一致。
📍相關報導📍
Vibe Coding 正在殺死初階工程師,Bloomberg:恐摧毀整個開發人才培育鏈
AI 出包有救》Corgi 推出「AI 失誤責任險」涵蓋演算法偏見、內容幻覺、訓練爭議等六大風險
林上倫律師專文》沒被AI打敗的SaaS
巴菲特警告股市變賭場「從未見如此強的賭性」、波克夏手提3800億現金創新高







