BitcoinWorld
每個人都點頭稱是的AI術語:實用詞彙表
人工智慧正在重塑各行各業,但它也催生了一套密集的新詞彙,即使是資深技術人員也難以跟上。LLM、RAG、RLHF、擴散(Diffusion)等術語不斷出現在新聞標題、產品公告和董事會討論中——但其確切含義往往仍不清晰。這份詞彙表由我們的編輯團隊精心整理並定期更新,旨在為最重要的AI術語提供清晰、準確的定義。它被設計為一份動態參考資料,隨著所描述的技術不斷演進。
AGI(通用人工智慧)依然是該領域爭議最大的術語之一。雖然定義各有不同,但它通常指在廣泛任務上達到或超越人類能力的AI系統。OpenAI的章程將其描述為「在大多數具有經濟價值的工作上超越人類的高度自主系統」,而Google DeepMind則將其定義為「在大多數認知任務上至少與人類同等能力的AI」。缺乏統一公認的定義,凸顯了這一概念即使在頂尖研究人員之間仍具有高度推測性和願景性。
推論(Inference)是運行已訓練AI模型以生成預測或輸出的過程。它有別於訓練,訓練是模型從資料中學習模式的計算密集型階段。推論可在各種硬體上進行,從智慧型手機處理器到基於雲端的GPU叢集,但推論的速度和成本因模型大小和基礎設施而差異顯著。
Token(詞元)是人類與大型語言模型(LLM)之間溝通的基本單位。它們代表模型所處理的文字離散片段——通常是單詞的一部分。Tokenization(詞元化)彌合了自然語言與AI系統執行的數值運算之間的差距。在企業環境中,Token數量也決定了費用,因為大多數AI公司按Token數計費。
訓練(Training)是指將大量資料輸入機器學習模型,使其識別模式並改善輸出。這一過程成本高昂且資源密集,需要專用硬體和大型資料集。微調(Fine-tuning)是在預訓練模型的基礎上,進一步以更窄、針對特定任務的資料集進行訓練,使企業能夠在不從頭開始的情況下,將通用模型適配至專業應用。
強化學習(Reinforcement Learning)是一種訓練範式,模型通過試錯方式學習,對正確行為給予獎勵。這種方法在提升LLM推理能力方面尤為有效,特別是通過基於人類反饋的強化學習(RLHF)等技術,使模型輸出與人類對有用性和安全性的偏好保持一致。
蒸餾(Distillation)是一種技術,讓較小的「學生」模型學習模仿較大「教師」模型的行為。這可以在性能損失極小的情況下產生更高效、更快速的模型。OpenAI很可能使用了蒸餾技術來創建GPT-4 Turbo,即GPT-4的更快版本。但是,對競爭對手的模型使用蒸餾技術通常違反服務條款。
神經網路(Neural Networks)是支撐深度學習的多層演算法結構。受人腦互聯通路的啟發,這些網路隨著現代GPU的出現變得更加強大,GPU能夠並行執行數千次計算。並行化(Parallelization)——即同時執行大量計算——是訓練和推論的基礎,也是GPU成為AI產業硬體支柱的主要原因。
算力(Compute)是訓練和運行AI模型所需計算能力的簡稱。它涵蓋硬體——GPU、CPU、TPU——以及支撐整個產業的基礎設施。該術語常出現在有關成本、可擴展性和AI環境影響的討論中。
記憶體快取(Memory Cache)(特指Transformer模型中的KV快取)是一種優化技術,通過儲存先前計算的結果來提升推論效率,從而減少每次新查詢時重新計算的需求。這加快了響應時間並降低了運營成本。
AI代理(AI Agents)代表了從簡單聊天機器人到自主系統的轉變,這些系統可以代表用戶執行多步驟任務,例如預訂旅行、報銷費用或撰寫程式碼。程式碼代理(Coding Agents)是其中一個專業子集,能夠自主編寫、測試和除錯程式碼,以極少的人工監督處理迭代開發工作。代理的基礎設施仍在建設中,業界對其定義也各有不同。
擴散(Diffusion)是許多圖像、音樂和文字生成模型背後的技術。受物理學啟發,擴散系統學習逆轉向資料添加雜訊的過程,從而能夠從隨機雜訊中生成新的、逼真的輸出。GAN(生成對抗網路)採用不同的方法,讓兩個神經網路相互對抗——一個生成器和一個判別器——以產生越來越逼真的輸出,尤其應用於深偽(Deepfakes)和合成媒體。
RAMageddon是一個非正式術語,描述AI產業對資料中心記憶體的無盡需求所引發的RAM晶片嚴重短缺。這一短缺已推高了消費電子產品、遊戲主機和企業計算的價格,且短期內難以緩解。
對於科技、商業和政策領域的專業人士而言,了解這些術語已不再是選項。隨著AI深度嵌入產品、服務和決策過程,共同的詞彙能夠促進更清晰的溝通、更具深度的討論,以及更好的策略決策。隨著該領域的演進,這份詞彙表將定期更新,反映業界描述自身工作的新進展與細化。
Q1:訓練與推論有何區別?
訓練是將資料輸入模型使其學習模式的過程,計算密集且成本高昂。推論是運行已訓練模型以生成輸出或預測的過程,可在更廣泛的硬體上進行,通常更快且更便宜。
Q2:在AI模型的語境下,「開源」是什麼意思?
開源AI模型(如Meta的Llama系列)將其底層程式碼有時也包括權重公開,供檢查、修改和重複使用。閉源模型(如OpenAI的GPT系列)則保持程式碼私有。這一區別是AI開發中有關透明度、安全性和存取權討論的核心議題。
Q3:為何「幻覺」在AI中是個問題?
幻覺是指AI模型生成不正確或捏造的資訊。它源於訓練資料的缺口,可能導致誤導性甚至危險的輸出,尤其是在醫療或金融等高風險領域。這正在推動人們對更專業、針對特定領域AI模型的興趣,這類模型較不容易出現知識缺口。
This post AI Terms Everyone Nods Along To: A Practical Glossary first appeared on BitcoinWorld.


