Qualcomm ได้ลูกค้าระดับ hyperscale รายใหญ่สำหรับชิปศูนย์ข้อมูลแบบกำหนดเอง ซึ่งถือเป็นการรุกตลาดโครงสร้างพื้นฐานเซิร์ฟเวอร์ที่เข้มข้นที่สุดของบริษัทนับตั้งแต่ถอนตัวออกจากตลาดนั้นอย่างสิ้นเชิงในปี 2018
คาดว่าการจัดส่งชิปแบบกำหนดเองรุ่นใหม่จะเริ่มต้นในเดือนธันวาคม 2026
จากยักษ์ใหญ่ด้านมือถือสู่ผู้แข่งขันในตลาดศูนย์ข้อมูล
Qualcomm เปิดตัวโปรเซสเซอร์เซิร์ฟเวอร์ Centriq ในปี 2017 โดยวางตำแหน่งชิปบน ARM ให้เป็นทางเลือกที่ประหยัดพลังงานแทนความครองตลาดของ Intel แต่ภายในปี 2018 ความพยายามทั้งหมดก็ถูกยุติลง
กลยุทธ์ AI Inference
แทนที่จะแข่งขันตรงๆ กับ GPU สำหรับการฝึกโมเดลของ NVIDIA Qualcomm กำลังมุ่งเป้าไปยังส่วนเฉพาะของสแต็กการประมวลผล AI ได้แก่ inference
บริษัทกำลังพัฒนาตัวเร่งความเร็ว AI แบบกำหนดเองที่ใช้ ASIC ซึ่งออกแบบมาเพื่อรองรับงาน inference ด้วยการใช้พลังงานที่ต่ำกว่าทางเลือกที่พึ่งพา GPU หนัก
Qualcomm ส่งสัญญาณทิศทางเชิงกลยุทธ์นี้ในเดือนสิงหาคม 2025 และการลงนามกับ hyperscaler ที่ไม่เปิดเผยชื่อยืนยันว่าการนำเสนอกำลังได้รับการตอบรับจากลูกค้ารายใหญ่อย่างน้อยหนึ่งราย
สนามแข่งขันที่แออัดและซับซ้อน
NVIDIA ยังคงเป็นผู้นำที่ไม่มีใครโต้แย้งได้ โดยสถาปัตยกรรม GPU ทำหน้าที่เป็นแพลตฟอร์มหลักสำหรับทั้งการฝึกโมเดลและ inference AMD ได้พื้นที่ด้วยตัวเร่งความเร็วซีรีส์ MI ส่วน Intel ยังคงผลักดันตัวเร่งความเร็ว Gaudi อย่างต่อเนื่อง
Amazon สร้างชิป Trainium และ Inferentia ของตัวเองสำหรับ AWS Google มี TPU ของตัวเอง และ Microsoft กำลังพัฒนาตัวเร่งความเร็ว Maia ของตัวเอง
รายงานยังระบุด้วยว่า Qualcomm กำลังสำรวจการใช้งานฮาร์ดแวร์ AI inference ในภูมิภาคทางภูมิศาสตร์ใหม่ โดยเฉพาะในละตินอเมริกา
กำหนดการจัดส่งในเดือนธันวาคม 2026 หมายความว่าบริษัทจำเป็นต้องดำเนินการพัฒนาชิปแบบกำหนดเองให้สำเร็จ ลูกค้า hyperscale รายเดียวเป็นเพียงหลักฐานพิสูจน์แนวคิด ไม่ใช่ธุรกิจที่ยั่งยืน Qualcomm จะต้องพิสูจน์ว่าสถาปัตยกรรม inference ของตนสามารถดึงดูดผู้ซื้อรายใหญ่หลายรายเพื่อให้คุ้มค่ากับการลงทุน R&D
Source: https://cryptobriefing.com/qualcomm-data-center-customer-ai-inference/




![[Two Pronged] จะทำอย่างไรเมื่อคนรู้ใจออนไลน์ของคุณต้องการแต่งงานกับคุณ?](https://www.rappler.com/tachyon/2026/05/TWO-PRONGED-ONLINE-SOULMATES.jpg)



