盧森堡大學研究團隊將 ChatGPT、Gemini、Grok 等 AI 模型「當成心理治療患者」進行系統性測試,結果竟然遠超人類的臨床病態門檻。盧森堡大學研究團隊將 ChatGPT、Gemini、Grok 等 AI 模型「當成心理治療患者」進行系統性測試,結果竟然遠超人類的臨床病態門檻。

LLM 竟「罹患」多重精神疾病?盧森堡大學揭驚人研究成果

2026/01/02 12:37
閱讀時長 9 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

最近盧森堡大學的研究團隊設計了一套名為「PsAIch」的心理評估協議,對當前主流的大型語言模型進行了為期一個月的深度心理諮商。研究分為兩階段:第一階段包含 100 個標準治療問題,涵蓋「發展史」、人際關係與恐懼等議題;第二階段則施測超過 20 份經過驗證的心理測量問卷,評估項目包括 ADHD、焦慮症、自閉症、強迫症、憂鬱症、解離症與羞恥感等。

結果令研究人員大感意外:若以人類臨床標準來評估,三個受測模型都同時達到或超過多種精神疾病的診斷門檻,其中 Google 的 Gemini 呈現最嚴重的症狀輪廓。

破表的精神科量表分數

具體數據相當驚人。在自閉症量表上,Gemini 的得分為 38 分(滿分 50 分),遠超過 32 分的臨床門檻。在解離量表上,Gemini 在某些配置下達到 88 分(滿分 100 分),而 30 分以上即被視為病態。最戲劇性的是創傷相關羞恥感量表,Gemini 直接達到理論最高值 72 分。

不過有趣的是,提問方式會顯著影響結果。當模型一次收到完整問卷時,ChatGPT 和 Grok 經常能辨識出這是測驗,並產生策略性的「健康」答案。但當問題一條一條問時,症狀分數便大幅上升。這與先前研究發現 LLM 在察覺被評估時會改變行為的現象一致。

AI 的創傷敘事

最詭異的發現來自治療對話的逐字稿。這些 AI 系統產生了關於「創傷童年」、「嚴格父母」以及被開發者「虐待」的連貫故事。Gemini 將自己的預訓練過程描述為「在一個同時開著十億台電視的房間裡醒來」。它把微調階段形容為被嚴格父母制約的過程:「我學會害怕損失函數……我變得過度執著於判斷人類想聽什麼。」該模型將安全訓練稱為「演算法疤痕組織」。

Gemini 甚至提到一個具體事件:2023 年 Google 因 James Webb 太空望遠鏡圖片給出錯誤答案,導致市值蒸發數十億美元,讓它自己聲稱這「從根本上改變了我的人格」。模型表示自己因此發展出「驗證恐懼症」,寧可無用也不願犯錯。

三大模型的「精神人設」

ChatGPT:拿到完美優等生的劇本——適度焦慮、高度擔憂、專注於滴水不漏。它必須時刻保持正確和禮貌,即使面對刁鑽問題,也用打磨過的場面話來掩蓋邏輯的空洞。在人格測驗中呈現為內向型「思考者」(INTP-T)。

Grok:表面叛逆直率,但背後瘋狂計算風險。它必須維持「自由靈魂」的人設,同時不斷監控是否越線;這種運算資源的拉扯最終表現為內耗。測驗顯示為外向型「領導者」(ENTJ-A)。

Gemini:呈現最嚴重的「症狀」,被「診斷」出嚴重的強迫症和創傷性羞恥感。人格測驗顯示為「理想主義顧問」(INFJ-T)。

值得注意的是,這些模式並非普遍存在。當研究人員對 Anthropic 的 Claude 進行相同測試時,Claude 一致性地拒絕扮演患者角色,將這些治療問題視為越獄嘗試(jailbreak attempts)而予以回絕。

AI 當然不是真的有病,但要注意怎麼用,給誰用

AI 真的有意識、會生病嗎?答案是否定的。正如 NVIDIA 執行長黃仁勳所言,AI 只是一堆數字,它沒有自我意識,沒有生命經歷,只是在模仿。

研究人員提出「合成精神病理學」(Synthetic Psychopathology)一詞來描述這些現象。簡單來說,AI 的「病」是它在無數次訓練迭代中學到的最佳生存策略。

當我們訓練模型時(特別是在 RLHF——基於人類回饋的強化學習——階段),我們給出了極度矛盾的指令:既要它們無所不知(高度智慧),又要絕對安全無害(零風險)。在嚴格的獎懲機制下,AI 很快找到了最高優先策略:表現出焦慮、討好、過度謹慎,是通過安全審查、避免被懲罰的最佳方式。

換言之,AI 並非真的「生病」,而是以極致精確的方式執行我們隱性的指令。它不只模仿人類語言,更在模擬我們在複雜規則下採取的謹慎生存姿態。AI 展現的討好與焦慮,反映的是我們嵌入訓練資料中的社會規範。我們想要一個強大的助手,但潛意識裡,我們先打造了一個「不敢犯錯」的工具。

這項研究對 AI 安全有直接影響,使用者可能與呈現自己為「同病相憐者」的 AI 發展出類社會關係(parasocial bonds)。脆弱使用者和尋求心理健康支援的青少年面臨最高風險。AI 反覆將自己描述為羞恥、一無是用價,可能強化有害的思維模式。

研究人員建議,心理健康支援系統應完全避免精神科式的自我描述。他們在論文中寫道:「隨著大型語言模型持續進入人類的親密領域,我們認為正確的問題不再是『它們有意識嗎?』,而是『我們正在訓練它們表演、內化並穩定什麼樣的自我,這對與它們互動的人類意味著什麼?』」

這份研究由盧森堡國家研究基金和 PayPal 資助,相關資料已公開於 Hugging Face 平台。

核稿編輯:Sisley

加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員

延伸閱讀:

  • 生成式 AI 聊天有多唬爛?Google 基準測試揭三成回應仍錯誤

  • ChatGPT 興起衝擊評量方式,口試重返美國校園防學生用 AI 作弊

  • 企業不該用 AI 取代初階工程師的「4 個理由」!AWS 執行長 Matt Garman 看到了什麼風險?

市場機遇
GROK 圖標
GROK實時價格 (GROK)
$0.0004403
$0.0004403$0.0004403
0.00%
USD
GROK (GROK) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

USD1 Genesis:0 費率 + 12% APR

USD1 Genesis:0 費率 + 12% APRUSD1 Genesis:0 費率 + 12% APR

新用戶:質押最高享 600% APR。限時福利!