關於人工智慧的討論已經達到了一個可預見的僵局。用戶表示他們不信任 AI。公司承諾...關於人工智慧的討論已經達到了一個可預見的僵局。用戶表示他們不信任 AI。公司承諾...

AI 沒有信任問題;它有翻譯問題

2025/12/09 01:46

人工智慧的討論已經達到了可預見的僵局。使用者表示他們不信任人工智慧。企業承諾透明度。監管機構威脅要介入。然而核心問題依然存在:人們無法信任他們不理解的事物,而大多數人工智慧系統仍以使用者感到陌生的方式進行溝通。 

信任危機與其說是關於信任本身,不如說是關於翻譯。當貸款申請被拒絕、求職者被篩選掉,或學生的目的陳述被標記為人工智慧抄襲時,系統很少以人類能夠理解的方式解釋其推理過程。使用者只能猜測,感到沮喪和懷疑。

這項技術功能強大,但它不展示其工作原理;缺乏可解釋性。 

這種翻譯差距帶來經濟和社會後果。2023年KPMG全球研究發現,61%的人對信任人工智慧系統持謹慎態度,只有一半人認為其益處大於風險。這種不信任使企業因延遲採用人工智慧而損失數十億美元的未實現生產力。

但問題不僅限於商業結果。在許多領域,人工智慧系統現在塑造著對個人有重大影響的決策。當這些系統無法解釋自己時,它們就成為不負責任的把關者。

人工智慧:我們的入門級工作真的處於滅絕邊緣嗎? 

教育是一個明顯的例子。演算法評估從學術表現、財務能力、地點到職業目標的數千個數據點,並產生影響學生未來的建議。

類似:「人工智慧法官」能否成為奈及利亞司法系統問題的解決方案?

然而學生很少知道為什麼會出現某些選項,或系統如何解釋他們的資訊。類似的不透明性也出現在醫療保健、招聘、金融和公共服務領域。

認為人工智慧「太複雜無法解釋」的論點忽略了重點。複雜性不是障礙;溝通才是。其他領域每天都在為非專業人士翻譯複雜資訊。挑戰不是使底層系統更簡單;而是以使用者能夠理解的方式表達其邏輯。

雖然技術可解釋性研究持續進步,它提供了追蹤模型行為的方法。然而,如果解釋需要核心領域知識背景,這些方法意義不大。解決翻譯問題需要的不僅是揭示內部邏輯;還需要產生易於理解、相關且可用的解釋。

解決翻譯差距將實現更快速、更自信的採用。人們使用他們理解的工具。當使用者理解系統為何以某種方式運作時,他們更有可能接受並有效使用其建議。

展望未來,開發者不僅要問「這有用嗎?」還要問「使用者能理解它為什麼有用嗎?」部署人工智慧的組織應該在技術優化的同時投資於溝通設計。

人工智慧101:解釋你需要知道的基本人工智慧概念圖片來源:Unsplash

監管機構應要求針對使用者的解釋,而不僅僅是為審計員提供文檔。清晰的解釋支持更好的決策、更多的參與和更公平的結果。 

翻譯必須成為人工智慧系統的核心功能。這意味著設計能以淺顯語言溝通的工具,用真實使用者測試解釋,並暫緩部署無法清晰表達其推理的系統。影響人們生活的技術必須能夠解釋自己。任何不足之處都不是信任問題;而是翻譯失敗。

關於作者

Mathilda Oladimeji是路易斯安那州立大學資訊系統的博士研究員,她研究人工智慧可解釋性和使用者信任。

她之前曾擔任Intake Education在非洲的區域行銷經理,管理超過100所大學的數位行銷活動。​​​​​

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。