ยักษ์ใหญ่ด้านชิป NVIDIA กำลังเตรียมเปิดตัวโปรเซสเซอร์ปัญญาประดิษฐ์รุ่นใหม่ที่ทรงพลัง ซึ่งออกแบบมาเพื่อเพิ่มความเร็วในการตอบสนองของแชทบอทและเครื่องมือ AI อื่นๆ ทำให้ระบบปัจจุบันอย่าง ChatGPT อาจดูช้าเมื่อเปรียบเทียบ
แพลตฟอร์มใหม่นี้คาดว่าจะเปิดตัวในงานประชุมนักพัฒนา GTC ประจำปีของ NVIDIA ได้รับการปรับให้เหมาะสมสำหรับการอนุมาน AI ซึ่งเป็นขั้นตอนที่โมเดลที่ได้รับการฝึกฝนแล้วสร้างคำตอบให้กับคำสั่งของผู้ใช้ ต่างจาก GPU แบบดั้งเดิมที่สร้างขึ้นเพื่อรองรับทั้งการฝึกฝนและการอนุมาน โปรเซสเซอร์ที่กำลังจะมาถึงนี้มุ่งเน้นเฉพาะการส่งมอบคำตอบที่เร็วขึ้นและมีประสิทธิภาพมากขึ้น
ผลิตภัณฑ์นี้หากเปิดตัว จะเป็นผลลัพธ์ที่จับต้องได้ครั้งแรกจากข้อตกลงเดือนธันวาคมที่นำผู้ก่อตั้ง Groq เข้ามาร่วมงาน ซึ่งบริษัทของพวกเขาเชี่ยวชาญด้านฮาร์ดแวร์ประมวลผล AI ความเร็วสูง
ปลายปีที่แล้ว NVIDIA มีรายงานว่าใช้เงินประมาณ 20,000 ล้านดอลลาร์เพื่อซื้อลิขสิทธิ์เทคโนโลยีจากสตาร์ทอัพชิป Groq และสรรหาบุคลากรสำคัญรวมถึง CEO ในช่วงเวลาเดียวกัน Jensen Huang CEO ของ NVIDIA บอกกับพนักงานว่า "เราวางแผนที่จะรวมโปรเซสเซอร์ความหน่วงต่ำของ Groq เข้ากับสถาปัตยกรรมโรงงาน AI ของ NVIDIA ขยายแพลตฟอร์มเพื่อรองรับงานการอนุมาน AI และงานเรียลไทม์ที่หลากหลายยิ่งขึ้น"
ขณะนี้ ชิปอนุมานรุ่นใหม่คาดว่าจะจัดการกับคำถาม AI ที่ซับซ้อนด้วยความเร็วสูง โดย OpenAI และลูกค้าชั้นนำรายอื่นๆ น่าจะนำไปใช้ ตามรายงานของ The Wall Street Journal รายงานยังแสดงให้เห็นว่าชิปใหม่อาจจัดการกับภาระงานการอนุมานของ OpenAI ได้เกือบ 10%
ชิปสไตล์ Groq จะใช้ SRAM แหล่งข่าวระบุ
ในการประชุมผลประกอบการครั้งล่าสุด CEO ของ NVIDIA บอกใบ้ว่าผลิตภัณฑ์ใหม่หลายรายการจะเปิดตัวในงาน GTC ที่กำลังจะมาถึง ซึ่งมักถูกอธิบายว่าเป็น "Super Bowl ของ AI" เขากล่าวว่า "ผมมีไอเดียดีๆ ที่อยากแชร์กับคุณในงาน GTC"
นักวิเคราะห์ส่วนใหญ่เห็นตรงกันว่าชิปสไตล์ Groq อาจเป็นส่วนหนึ่งของไลน์อัพ พวกเขายังระบุว่าการออกแบบอาจให้ความกระจ่างว่า NVIDIA มุ่งหมายที่จะแก้ไขข้อจำกัดของหน่วยความจำในการคำนวณการอนุมานอย่างไร แพลตฟอร์มดังกล่าวโดยทั่วไปทำงานบนหน่วยความจำแบนด์วิดท์สูง (HBM) อย่างไรก็ตาม HBM หาได้ยากในช่วงหลังๆ
แหล่งข่าวภายใน อ้างว่าบริษัทวางแผนจะใช้ SRAM ในชิปแทนที่จะเป็น dynamic RAM ที่เกี่ยวข้องกับ HBM ตามหลักการแล้ว SRAM เข้าถึงได้ง่ายกว่าและสามารถปรับปรุงประสิทธิภาพของงานการให้เหตุผล AI
หากชิปเปิดตัว อาจเป็นก้าวสำคัญไปข้างหน้าสำหรับบริษัทชิปและโมเดล AI ที่ได้รับการฝึกฝน อย่างไรก็ตาม เมื่อพูดถึงการเปิดตัวที่เป็นไปได้ Sid Sheth ผู้ก่อตั้งและ CEO ของ d-Matrix ทอดเงาต่อการพัฒนา เขาสังเกตว่าแม้ NVIDIA จะยังคงเป็นผู้นำที่ชัดเจนในการฝึกฝน AI แต่การอนุมานแสดงถึงภูมิทัศน์ที่แตกต่างอย่างมาก เขาแบ่งปัน: "นักพัฒนาสามารถหันไปหาคู่แข่งอื่นนอกจาก NVIDIA เพราะการรันโมเดล AI ที่เสร็จสมบูรณ์ไม่ต้องการการเขียนโปรแกรมแบบเดียวกับการฝึกฝน"
อย่างไรก็ตาม ยักษ์ใหญ่ด้านเทคโนโลยีรายอื่นก็กำลังพัฒนาการคำนวณการอนุมานเช่นกัน Meta สัปดาห์นี้เปิดตัวโปรเซสเซอร์สี่ตัวที่ออกแบบมาสำหรับการอนุมาน กระตุ้นให้นักลงทุนใน Silicon Valley กล่าวว่าอุตสาหกรรมอาจกำลังเข้าสู่ช่วงที่ไม่ใช่ "ครอบงำโดย NVIDIA"
อย่างไรก็ตาม เมื่อเร็วๆ นี้ June Paik หัวหน้าผู้บริหารของ FuriosaAI คู่แข่งของ NVIDIA แสดงความคิดเห็นเกี่ยวกับประโยชน์ของการคำนวณการอนุมานที่ใช้งานได้ง่าย เตือนว่าศูนย์ข้อมูลส่วนใหญ่ไม่สามารถรองรับ GPU ระบายความร้อนด้วยของเหลวรุ่นล่าสุด
อย่างไรก็ตาม แม้จะมีความกังวลของเขา นักวิเคราะห์ Bank of America คาดว่าภาระงานการอนุมานจะคิดเป็น 75% ของค่าใช้จ่ายศูนย์ข้อมูล AI ภายในปี 2030 เมื่อตลาดถึงประมาณ 1.2 ล้านล้านดอลลาร์ เพิ่มขึ้นจากประมาณ 50% ปีที่แล้ว Ben Bajarin นักวิเคราะห์เทคโนโลยีที่ Creative Strategies ยังยืนยันว่าศูนย์ข้อมูลในอนาคตจะไม่สอดคล้องกับโมเดลเดียวที่เหมาะกับทุกคน คาดการณ์ว่าบริษัทต่างๆ จะใช้แนวทางที่แตกต่างกันในการพัฒนาชิปและสิ่งอำนวยความสะดวก
NVIDIA คาดว่าจะเปิดตัวชิป Vera Rubin ในช่วงปลายปี 2026
NVIDIA เพิ่งเปิดตัวชิป AI รุ่นถัดไป ชิป Vera Rubin AI คาดการณ์ว่าการเพิ่มขึ้นของแพลตฟอร์ม AI ให้เหตุผลเช่น DeepSeek จะกระตุ้นความต้องการการคำนวณที่มากขึ้น บริษัทอ้างว่าชิปจะช่วยฝึกฝนโมเดล AI ที่ใหญ่ขึ้นและให้ผลลัพธ์ที่ซับซ้อนมากขึ้นแก่ฐานผู้ใช้ที่กว้างขึ้น
ตาม Huang, Rubin จะเข้าสู่ตลาดในช่วงครึ่งหลังของปี 2026 โดยมีเวอร์ชัน "ultra" ระดับไฮเอนด์ในปี 2027
เขายังอธิบายว่าระบบ Rubin เดี่ยวจะรวม GPU แต่ละตัว 576 ตัวเข้าเป็นชิปเดียว ปัจจุบันชิป Blackwell ของ NVIDIA รวมกลุ่ม GPU 72 ตัวในระบบ NVL72 หมายความว่า Rubin จะมีหน่วยความจำที่ทันสมัยกว่า
แหล่งที่มา: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/


