人工智慧的討論已經達到了可預見的僵局。使用者表示他們不信任人工智慧。企業承諾透明度。監管機構威脅要介入。然而核心問題依然存在:人們無法信任他們不理解的事物,而大多數人工智慧系統仍以使用者感到陌生的方式進行溝通。
信任危機與其說是關於信任本身,不如說是關於翻譯。當貸款申請被拒絕、求職者被篩選掉,或學生的目的陳述被標記為人工智慧抄襲時,系統很少以人類能夠理解的方式解釋其推理過程。使用者只能猜測,感到沮喪和懷疑。
這項技術功能強大,但它不展示其工作原理;缺乏可解釋性。
這種翻譯差距帶來經濟和社會後果。2023年KPMG全球研究發現,61%的人對信任人工智慧系統持謹慎態度,只有一半人認為其益處大於風險。這種不信任使企業因延遲採用人工智慧而損失數十億美元的未實現生產力。
但問題不僅限於商業結果。在許多領域,人工智慧系統現在塑造著對個人有重大影響的決策。當這些系統無法解釋自己時,它們就成為不負責任的把關者。
教育是一個明顯的例子。演算法評估從學術表現、財務能力、地點到職業目標的數千個數據點,並產生影響學生未來的建議。
類似:「人工智慧法官」能否成為奈及利亞司法系統問題的解決方案?
然而學生很少知道為什麼會出現某些選項,或系統如何解釋他們的資訊。類似的不透明性也出現在醫療保健、招聘、金融和公共服務領域。
認為人工智慧「太複雜無法解釋」的論點忽略了重點。複雜性不是障礙;溝通才是。其他領域每天都在為非專業人士翻譯複雜資訊。挑戰不是使底層系統更簡單;而是以使用者能夠理解的方式表達其邏輯。
雖然技術可解釋性研究持續進步,它提供了追蹤模型行為的方法。然而,如果解釋需要核心領域知識背景,這些方法意義不大。解決翻譯問題需要的不僅是揭示內部邏輯;還需要產生易於理解、相關且可用的解釋。
解決翻譯差距將實現更快速、更自信的採用。人們使用他們理解的工具。當使用者理解系統為何以某種方式運作時,他們更有可能接受並有效使用其建議。
展望未來,開發者不僅要問「這有用嗎?」還要問「使用者能理解它為什麼有用嗎?」部署人工智慧的組織應該在技術優化的同時投資於溝通設計。
圖片來源:Unsplash
監管機構應要求針對使用者的解釋,而不僅僅是為審計員提供文檔。清晰的解釋支持更好的決策、更多的參與和更公平的結果。
翻譯必須成為人工智慧系統的核心功能。這意味著設計能以淺顯語言溝通的工具,用真實使用者測試解釋,並暫緩部署無法清晰表達其推理的系統。影響人們生活的技術必須能夠解釋自己。任何不足之處都不是信任問題;而是翻譯失敗。
Mathilda Oladimeji是路易斯安那州立大學資訊系統的博士研究員,她研究人工智慧可解釋性和使用者信任。
她之前曾擔任Intake Education在非洲的區域行銷經理,管理超過100所大學的數位行銷活動。
![[好生意] PADS 適應性龍舟隊:克服困難的勝利故事](https://www.rappler.com/tachyon/2025/11/Business-education-as-a-global-force-for-good-2.jpg?resize=75%2C75&crop=413px%2C0px%2C1080px%2C1080px)

