BitcoinWorld
คำศัพท์ AI ที่ทุกคนพยักหน้าตาม: อภิธานศัพท์ฉบับปฏิบัติ
ปัญญาประดิษฐ์กำลังปรับเปลี่ยนอุตสาหกรรมต่าง ๆ แต่ก็ได้สร้างคำศัพท์ใหม่ที่หนาแน่นจนแม้แต่นักเทคโนโลยีที่มากประสบการณ์ยังตามทันได้ยาก คำอย่าง LLM, RAG, RLHF และ diffusion ปรากฏอยู่ในพาดหัวข่าว ประกาศผลิตภัณฑ์ และการประชุมระดับบริหารอยู่ตลอดเวลา แต่ความหมายที่แท้จริงมักยังคลุมเครือ อภิธานศัพท์นี้ จัดทำและอัปเดตเป็นประจำโดยทีมบรรณาธิการของเรา มุ่งให้คำนิยามที่ชัดเจนและเป็นข้อเท็จจริงสำหรับคำศัพท์ AI ที่สำคัญที่สุด ออกแบบมาเป็นข้อมูลอ้างอิงที่มีชีวิต พัฒนาไปพร้อมกับเทคโนโลยีที่อธิบาย
AGI (ปัญญาประดิษฐ์ทั่วไป) ยังคงเป็นหนึ่งในคำที่ถกเถียงกันมากที่สุดในวงการ แม้นิยามจะแตกต่างกันไป แต่โดยทั่วไปหมายถึงระบบ AI ที่มีความสามารถเทียบเท่าหรือเกินกว่ามนุษย์ในงานหลากหลายประเภท กฎบัตรของ OpenAI อธิบายว่าเป็น "ระบบอัตโนมัติระดับสูงที่ทำงานได้ดีกว่ามนุษย์ในงานที่มีคุณค่าทางเศรษฐกิจส่วนใหญ่" ขณะที่ Google DeepMind นิยามว่า "AI ที่มีความสามารถอย่างน้อยเทียบเท่ามนุษย์ในงานด้านการรับรู้ส่วนใหญ่" การขาดนิยามที่เป็นเอกฉันท์สะท้อนให้เห็นว่าแนวคิดนี้ยังคงเป็นการคาดการณ์และความปรารถนา แม้แต่ในหมู่นักวิจัยชั้นนำ
Inference คือกระบวนการรันโมเดล AI ที่ผ่านการฝึกแล้วเพื่อสร้างการคาดการณ์หรือผลลัพธ์ แตกต่างจาก Training ซึ่งเป็นขั้นตอนที่ต้องใช้การคำนวณสูงในการเรียนรู้รูปแบบจากข้อมูล Inference สามารถเกิดขึ้นบนฮาร์ดแวร์หลากหลายประเภท ตั้งแต่โปรเซสเซอร์สมาร์ตโฟนไปจนถึงคลัสเตอร์ GPU บนคลาวด์ แต่ความเร็วและต้นทุนของ Inference จะแตกต่างกันอย่างมากขึ้นอยู่กับขนาดโมเดลและโครงสร้างพื้นฐาน
Tokens คือหน่วยพื้นฐานของการสื่อสารระหว่างมนุษย์กับโมเดลภาษาขนาดใหญ่ (LLMs) แทนส่วนย่อยของข้อความ ซึ่งมักเป็นส่วนหนึ่งของคำ ที่โมเดลประมวลผล การแบ่ง Tokenization เชื่อมช่องว่างระหว่างภาษาธรรมชาติกับการดำเนินการทางตัวเลขที่ระบบ AI ทำงาน ในสภาพแวดล้อมองค์กร จำนวน Token ยังกำหนดต้นทุนด้วย เนื่องจากบริษัท AI ส่วนใหญ่คิดค่าบริการตาม Token
Training คือการป้อนข้อมูลจำนวนมากให้โมเดล Machine Learning เพื่อระบุรูปแบบและปรับปรุงผลลัพธ์ กระบวนการนี้มีค่าใช้จ่ายสูงและต้องการทรัพยากรมาก จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะทางและชุดข้อมูลขนาดใหญ่ Fine-tuning นำโมเดลที่ผ่านการ Pre-train มาแล้วมาฝึกต่อด้วยชุดข้อมูลเฉพาะงานที่แคบลง ช่วยให้บริษัทปรับโมเดลอเนกประสงค์สำหรับการใช้งานเฉพาะทางโดยไม่ต้องเริ่มต้นใหม่
Reinforcement learning คือกระบวนทัศน์การฝึกที่โมเดลเรียนรู้ผ่านการลองผิดลองถูก โดยได้รับรางวัลสำหรับการกระทำที่ถูกต้อง แนวทางนี้พิสูจน์แล้วว่ามีประสิทธิภาพโดยเฉพาะในการปรับปรุงการให้เหตุผลใน LLMs โดยเฉพาะผ่านเทคนิคอย่าง Reinforcement learning from human feedback (RLHF) ที่ปรับผลลัพธ์ของโมเดลให้สอดคล้องกับความชอบของมนุษย์ในด้านความเป็นประโยชน์และความปลอดภัย
Distillation เป็นเทคนิคที่โมเดล "นักเรียน" ขนาดเล็กกว่าได้รับการฝึกให้เลียนแบบพฤติกรรมของโมเดล "ครู" ที่ใหญ่กว่า สิ่งนี้สามารถผลิตโมเดลที่มีประสิทธิภาพสูงขึ้นและเร็วขึ้นโดยสูญเสียประสิทธิภาพน้อยที่สุด OpenAI น่าจะใช้ Distillation ในการสร้าง GPT-4 Turbo ซึ่งเป็นเวอร์ชันที่เร็วกว่าของ GPT-4 อย่างไรก็ตาม การใช้ Distillation กับโมเดลของคู่แข่งมักละเมิดข้อกำหนดการให้บริการ
Neural networks คือโครงสร้างอัลกอริทึมหลายชั้นที่รองรับ Deep learning ได้รับแรงบันดาลใจจากเส้นทางที่เชื่อมต่อกันของสมองมนุษย์ เครือข่ายเหล่านี้มีพลังงานมากขึ้นอย่างมากด้วยการมาถึงของ GPU สมัยใหม่ที่สามารถทำการคำนวณนับพันครั้งพร้อมกัน Parallelization ซึ่งทำการคำนวณหลายอย่างพร้อมกัน เป็นพื้นฐานทั้งสำหรับ Training และ Inference และเป็นเหตุผลสำคัญที่ GPU กลายเป็นแกนหลักของฮาร์ดแวร์ในอุตสาหกรรม AI
Compute เป็นคำย่อสำหรับพลังการประมวลผลที่จำเป็นในการฝึกและรันโมเดล AI ครอบคลุมฮาร์ดแวร์ทั้ง GPU, CPU, TPU และโครงสร้างพื้นฐานที่ขับเคลื่อนอุตสาหกรรม คำนี้มักปรากฏในการอภิปรายเกี่ยวกับต้นทุน ความสามารถในการขยายตัว และผลกระทบต่อสิ่งแวดล้อมของ AI
Memory cache (โดยเฉพาะ KV caching ในโมเดล Transformer) เป็นเทคนิคการเพิ่มประสิทธิภาพที่ช่วยเพิ่มประสิทธิภาพ Inference โดยการจัดเก็บการคำนวณที่ทำไว้ก่อนหน้า ลดความจำเป็นในการคำนวณซ้ำสำหรับทุกคำถามใหม่ ทำให้เวลาตอบสนองเร็วขึ้นและลดต้นทุนการดำเนินงาน
AI agents แสดงถึงการเปลี่ยนแปลงจาก Chatbot ธรรมดาไปสู่ระบบอัตโนมัติที่สามารถทำงานหลายขั้นตอนแทนผู้ใช้ได้ เช่น การจองการเดินทาง การยื่นค่าใช้จ่าย หรือการเขียนโค้ด Coding agents คือกลุ่มย่อยเฉพาะทางที่สามารถเขียน ทดสอบ และดีบักโค้ดได้อย่างอิสระ จัดการงานพัฒนาแบบวนซ้ำโดยมีการดูแลจากมนุษย์น้อยที่สุด โครงสร้างพื้นฐานสำหรับ Agents ยังอยู่ระหว่างการสร้าง และคำนิยามแตกต่างกันในแต่ละอุตสาหกรรม
Diffusion คือเทคโนโลยีเบื้องหลังโมเดลการสร้างภาพ เพลง และข้อความจำนวนมาก ได้รับแรงบันดาลใจจากฟิสิกส์ ระบบ Diffusion เรียนรู้ที่จะย้อนกระบวนการเพิ่ม Noise ให้กับข้อมูล ช่วยให้สามารถสร้างผลลัพธ์ใหม่ที่สมจริงจาก Noise แบบสุ่ม GANs (Generative Adversarial Networks) ใช้แนวทางที่แตกต่าง โดยให้ Neural network สองตัวแข่งขันกัน ได้แก่ Generator และ Discriminator เพื่อสร้างผลลัพธ์ที่สมจริงมากขึ้น โดยเฉพาะใน Deepfakes และสื่อสังเคราะห์
RAMageddon เป็นคำไม่เป็นทางการที่อธิบายถึงการขาดแคลนชิป RAM อย่างรุนแรงที่เกิดจากความต้องการหน่วยความจำที่ไม่อิ่มตัวของอุตสาหกรรม AI ในศูนย์ข้อมูล การขาดแคลนนี้ทำให้ราคาสูงขึ้นในอุปกรณ์อิเล็กทรอนิกส์สำหรับผู้บริโภค เครื่องเล่นเกม และการประมวลผลระดับองค์กร โดยยังไม่มีการบรรเทาที่ชัดเจนในอนาคตอันใกล้
การทำความเข้าใจคำศัพท์เหล่านี้ไม่ใช่ทางเลือกอีกต่อไปสำหรับผู้เชี่ยวชาญในด้านเทคโนโลยี ธุรกิจ และนโยบาย เมื่อ AI ฝังตัวอยู่ในผลิตภัณฑ์ บริการ และการตัดสินใจ คำศัพท์ร่วมกันช่วยให้การสื่อสารชัดเจนขึ้น การถกเถียงมีความรู้มากขึ้น และการตัดสินใจเชิงกลยุทธ์ดีขึ้น อภิธานศัพท์นี้จะได้รับการอัปเดตเป็นประจำตามที่สาขาพัฒนา สะท้อนการพัฒนาใหม่และการปรับปรุงในวิธีที่อุตสาหกรรมอธิบายงานของตนเอง
Q1: ความแตกต่างระหว่าง Training และ Inference คืออะไร?
Training คือกระบวนการป้อนข้อมูลให้โมเดลเรียนรู้รูปแบบ ซึ่งต้องใช้การคำนวณสูงและมีค่าใช้จ่ายสูง Inference คือกระบวนการรันโมเดลที่ผ่านการฝึกแล้วเพื่อสร้างผลลัพธ์หรือการคาดการณ์ ซึ่งสามารถเกิดขึ้นบนฮาร์ดแวร์ที่หลากหลายกว่าและโดยทั่วไปเร็วกว่าและถูกกว่า
Q2: 'Open source' หมายความว่าอย่างไรในบริบทของโมเดล AI?
โมเดล AI แบบ Open source เช่น ตระกูล Llama ของ Meta มีโค้ดพื้นฐานและบางครั้งน้ำหนักที่เปิดเผยต่อสาธารณะสำหรับการตรวจสอบ แก้ไข และนำกลับมาใช้ใหม่ โมเดลแบบ Closed source เช่น ซีรีส์ GPT ของ OpenAI เก็บโค้ดไว้เป็นความลับ ความแตกต่างนี้เป็นศูนย์กลางของการถกเถียงเกี่ยวกับความโปร่งใส ความปลอดภัย และการเข้าถึงในการพัฒนา AI
Q3: ทำไม 'Hallucination' จึงเป็นปัญหาใน AI?
Hallucination หมายถึงโมเดล AI ที่สร้างข้อมูลที่ไม่ถูกต้องหรือแต่งขึ้น เกิดจากช่องว่างในข้อมูลการฝึกและอาจนำไปสู่ผลลัพธ์ที่ทำให้เข้าใจผิดหรืออันตราย โดยเฉพาะในสาขาที่มีความเสี่ยงสูงอย่างการดูแลสุขภาพหรือการเงิน ซึ่งกำลังกระตุ้นความสนใจในโมเดล AI เฉพาะทางที่มีแนวโน้มเกิดช่องว่างความรู้น้อยกว่า
This post AI Terms Everyone Nods Along To: A Practical Glossary first appeared on BitcoinWorld.


