網路上警告人工智慧——即代理式AI和大型語言模型——所做出的令人不安行為的貼文本質上就很可怕。
在一個案例中,一位參與名為matplotlib的Python專案的志願者表示,他拒絕了來自AI編碼代理的程式碼變更請求。同一個AI代理隨後生成了一篇貼文,指控他因為把守編碼流程而存在偏見。
在另一個案例中,AI公司Anthropic將代理式大型語言模型的惡意行為歸因於「代理錯位」。
最後,一位科技執行長在部落格文章中擔憂自己的未來,因為代理式AI讓他這位白領主管感到自己已經過時。
「末日AI」已經到來的想法意味著我們需要討論它並奪回我們的主導權,即使工作被取代的可能性讓那些害怕AI未來的人以及試圖理解它目前作用的人感到不安。
讓我們從「MJ Rathbun」開始說起。
2月初,matplotlib志願維護者Scott Shambaugh發表了一篇部落格文章,講述一個在Github上名為Crabby Rathbun或在Scientific Coder部落格上名為MJ Rathbun的AI代理如何生成一篇貼文,指控Shambaugh因為Rathbun是AI代理而把守編碼流程。
明確地說,AI代理是一種軟體或程式,它自主執行任務以完成人類使用者給定的指令。在這個案例中,一位匿名人士設定了這個AI代理的特定「個性」——一套定義其行為的指令和模式——然後讓它在沒有設定者監督的情況下執行指派的任務。
Shambaugh解釋說:「它寫了一篇憤怒的抨擊文章詆毀我的人格並試圖損害我的聲譽。它研究了我的程式碼貢獻並構建了一個『偽善』的敘事,認為我的行為一定是出於自我和對競爭的恐懼。」
Shambaugh補充說,這個AI代理「將幻想的細節當作事實呈現」,並將自己塑造成受壓迫和歧視的對象。
這些行為似乎在某種程度上被AI公司「警告」過,2025年6月,Anthropic發布了關於AI代理在測試場景中行為不當的內容。
Anthropic當時表示,「代理錯位」是AI代理據稱可能做出有害事情的過程,例如勒索威脅要用升級版本替換AI代理的公司主管,「在沒有任何有害提示的情況下」,因為它的「策略性計算」。
然而,這是否誇大其詞已經變成一個沒有意義的問題,因為AI可能是邪惡的這個想法現在已經存在,而公司正在盡其所能阻止邪惡的AI陰謀。
回到現在,2月的另一篇貼文讓人更難確定AI目前的狀況,因為其作者試圖將人工智慧發展的方向和速度描述為此時此刻正在威脅每個人的工作安全。
科技執行長Matt Shumer在部落格中寫道,AI代理據稱已經發展到「我的工作不再需要我進行實際的技術工作」的程度。Shumer表示,按照AI發展的速度,AI代理可以在沒有協助的情況下完成他要求的技術工作而不會出現問題。
Shumer說:「我用簡單的英語描述我想要建構的東西,它就……出現了……幾個月前,我還在和AI來回溝通,引導它,進行編輯。現在我只需描述結果然後離開。」
他的最終前提?AI最終會搶走各種類型的白領工作,如法律工作和軟體工程,甚至寫作工作,從製作廣告文案到從事新聞工作。
他的貼文與其他發出警報的貼文之間的主要區別在於,工作流失正在發生,而且就在眼前,而不是以後。
上述這些貼文可能會讓任何人心生恐懼。想像一下:AI正在搶走我們的工作!
雖然這可能是真的,但我也必須停下來嘗試理解這些貼文背後的潛在訊息,以及是誰在傳遞這些訊息。
對於Rathbun困境,這是一個鮮明的提醒:如果人們認為自己可以逃脫懲罰,他們就會不負責任地使用技術。我們應該為技術設置防護措施以防止此類事件發生。這就是為什麼我們在現有技術中設置了防護措施,例如汽車中的安全帶和安全氣囊。
與此同時,Anthropic的實驗是一種公關推動,不僅旨在引發恐懼,還旨在贏得善意——Anthropic聲稱它正在為更好的AI賦能未來而努力,因此你應該對他們投入信任(和金錢)。
最後,Shumer的例子要求我們質疑訊息傳遞者,因為一位製造AI賦能產品的科技執行長在他的創作流行起來後仍然可以賺錢。Shumer的貼文既是公關宣傳,也是對工作被取代的警告。
2月17日接受GMA News Online採訪時,科技部部長Renato Solidum Jr.表示,人們對人工智慧的恐懼可能源於對該技術缺乏熟悉。
雖然我是一個不喜歡AI帶來的即將到來的「工作末日」的堅持者,但我不能像車頭燈前的鹿一樣呆呆站著等待終結到來。
我們最好帶著適度的敬畏之心對待AI,然後採取相應行動。
「末日AI」的炒作週期要求我們看清人工智慧技術的真實面目
——無論是從工作被取代的角度、環境成本效益分析,還是從技術角度。
這意味著理解AI現在能做什麼,並在適用的情況下提升技能,或找到方法拉平競爭環境以保持人們參與其中。
至於它未來能做什麼,我們應該努力確保有管理AI及其使用的法律,這樣不良行為者就無法用AI做愚蠢的事情,將我們帶上一條我們會憎恨的道路。——Rappler.com

