Anthropic, บริษัทที่นำโดย Dario Amodei ได้ลงนามข้อตกลงมูลค่า 1.8 พันล้านดอลลาร์กับ Akamai Technologies เพื่อให้ได้มาซึ่งกำลังการประมวลผลที่มากขึ้นสำหรับโมเดล AI โดยเฉพาะแพลตฟอร์ม Claude
ข้อตกลงนี้มีอายุ 7 ปี และเป็นสัญญาที่ใหญ่ที่สุดในประวัติศาสตร์ของ Akamai พร้อมกันนั้นยังเกิดขึ้นในช่วงที่ความต้องการโครงสร้างพื้นฐาน AI กำลังเติบโตในอัตราที่แม้แต่บริษัทเทคโนโลยีรายใหญ่ก็ยากจะรองรับได้
เบื้องหลังของการดำเนินการดังกล่าวไม่ใช่แค่การเติบโตของ Anthropic เท่านั้น แต่ยังสะท้อนถึงการเปลี่ยนแปลงในวงกว้างของตลาดคลาวด์ทั้งหมด
ในช่วงเดือนที่ผ่านมา ภาคส่วน AI ได้เผยให้เห็นปัญหาเชิงโครงสร้างที่ชัดเจนมากขึ้นเรื่อยๆ
นั่นคือการสร้างโมเดล AI ขั้นสูงต้องใช้ กำลังการประมวลผลจำนวนมหาศาล GPU เฉพาะทาง และโครงสร้างพื้นฐานแบบกระจายที่สามารถรองรับภาระงานต่อเนื่องได้
ไม่ใช่เรื่องบังเอิญที่ในการประชุม Code with Claude ที่ซานฟรานซิสโก Amodei ระบุว่า Anthropic จะเห็นการเติบโต 80% ในรายได้รายปีและการใช้บริการในไตรมาสแรกของปี 2026
การขยายตัวส่วนใหญ่มาจากการใช้ Claude สำหรับการเขียนโค้ด ระบบอัตโนมัติ และการพัฒนาซอฟต์แวร์ด้วยความช่วยเหลือของ AI
และการเติบโตนี้เองที่บังคับให้บริษัท AI ต้องแสวงหาแหล่งกำลังการประมวลผลใหม่ๆ ที่อยู่นอกเหนือจาก hyperscalers แบบดั้งเดิม
Anthropic ไม่ได้จำกัดตัวเองอยู่แค่ข้อตกลงกับ Akamai เท่านั้น ในช่วงเดือนที่ผ่านมายังได้สร้างความร่วมมือกับ Google Cloud, Amazon Web Services, CoreWeave และแม้กระทั่ง SpaceX ของ Elon Musk
ข้อความที่สื่อออกมาจึงชัดเจนมาก: การต่อสู้ที่แท้จริงในแวดวง AI ไม่ได้เกี่ยวกับแค่โมเดลภาษาอีกต่อไป แต่เป็นเรื่องของการเข้าถึงโครงสร้างพื้นฐานที่ทำให้โมเดลเหล่านั้นเป็นไปได้
ในทางกลับกัน สำหรับ Akamai เองแล้ว ข้อตกลงกับ Anthropic ก็มีความหมายมากกว่าแค่ความร่วมมือทางการค้าธรรมดา
ในอดีตบริษัทเป็นที่รู้จักจากบริการส่งมอบเนื้อหาและความปลอดภัยทางไซเบอร์เป็นหลัก แต่การระเบิดตัวของ AI กำลังเปิดโอกาสเชิงกลยุทธ์ใหม่ๆ
ด้วยเครือข่ายทั่วโลกที่ประกอบด้วยจุดเชื่อมต่อมากกว่า 4,000 จุด กระจายอยู่ใน 130 กว่าประเทศ Akamai มีโครงสร้างพื้นฐานแบบกระจายศูนย์ที่สามารถปรับตัวได้ดีกับความต้องการของภาระงาน AI สมัยใหม่
และนี่คือหนึ่งในแง่มุมที่น่าสนใจที่สุดของการดำเนินการนี้ ในช่วงหลายปีที่ผ่านมาตลาดคลาวด์ถูกครอบงำโดย hyperscalers แบบรวมศูนย์เพียงไม่กี่รายอย่าง AWS, Google Cloud และ Microsoft Azure
อย่างไรก็ตาม AI กำลังเพิ่มแรงกดดันต่อทรัพยากรที่มีอยู่อย่างมาก และหลายบริษัทกำลังมองหาโซลูชันที่กระจายและยืดหยุ่นมากขึ้น
ในบริบทนี้ Anthropic ดูเหมือนจะเข้าใจว่าการพึ่งพาผู้ให้บริการดั้งเดิมรายใหญ่เพียงอย่างเดียวอาจไม่เพียงพอในระยะยาว
ไม่น่าแปลกใจที่นักลงทุนตอบรับข่าวนี้อย่างกระตือรือร้น
หลังการประกาศ หุ้นของ Akamai พุ่งขึ้นประมาณ 28% ซึ่งเป็นสัญญาณที่ชัดเจนว่าตลาดมองว่า AI เป็นโอกาสในการเปลี่ยนแปลงขั้นพื้นฐานสำหรับบริษัทเทคโนโลยีหลายแห่ง
ตามการประมาณการของนักวิเคราะห์ สัญญานี้อาจคิดเป็นประมาณ 6% ของรายได้ประจำปีของ Akamai เมื่อเปิดดำเนินการเต็มรูปแบบ โดยคาดว่าจะเห็นผลกระทบทางเศรษฐกิจครั้งแรกภายในสิ้นปี 2026
วิวัฒนาการนี้ยังแสดงให้เห็นว่าภาคส่วน AI กำลังปรับโครงสร้างห่วงโซ่มูลค่าทางเทคโนโลยี ไม่ใช่แค่บริษัทที่พัฒนาโมเดลภาษาเท่านั้นที่ได้รับประโยชน์ แต่รวมถึงผู้เล่นทุกรายที่สามารถจัดหาโครงสร้างพื้นฐาน พลังงาน ดาต้าเซ็นเตอร์ และการเชื่อมต่อ
อย่างไรก็ตาม ปัญหาคือ 'การแข่งขัน' นี้กำลังมีต้นทุนสูงขึ้นเรื่อยๆ การฝึกและดูแลรักษาโมเดล AI ขั้นสูงต้องการการลงทุนอย่างต่อเนื่องในระดับพันล้านดอลลาร์ ทำให้ภาคส่วนนี้กระจุกตัวอยู่ในมือของบริษัทขนาดใหญ่เพียงไม่กี่รายที่มีเงินทุนมหาศาล
ข้อตกลงระหว่าง Anthropic และ Akamai เผยให้เห็นความจริงที่มักถูกประเมินต่ำเกินไปในการถกเถียงสาธารณะเกี่ยวกับ AI: ข้อจำกัดหลักของ AI สมัยใหม่ไม่ใช่แค่เรื่องอัลกอริทึมอีกต่อไป แต่เป็นเรื่องโครงสร้างพื้นฐาน
ในช่วงหลายปีที่ผ่านมา ภาคส่วนนี้มุ่งเน้นหลักในการแข่งขันระหว่างแชตบอต โมเดลภาษา และฟีเจอร์ขั้นสูง
อย่างไรก็ตาม วันนี้กำลังเกิดปัญหาที่สอง ที่มองเห็นได้น้อยกว่าแต่อาจสำคัญกว่า นั่นคือเรื่องการเข้าถึงกำลังการประมวลผล บริษัท AI กำลังใช้พลังงาน GPU และแบนด์วิดท์ข้อมูลจำนวนมหาศาล
โมเดลรุ่นใหม่แต่ละรุ่นต้องการทรัพยากรมากกว่ารุ่นก่อน สร้างวงจรการลงทุนที่เสี่ยงต่อการเอื้อประโยชน์เฉพาะกลุ่มที่มีทรัพยากรทางการเงินสูงเท่านั้น
และ Anthropic ไม่ใช่บริษัทเดียวที่อยู่ในสถานการณ์นี้ OpenAI, Google และ Meta ต่างก็กำลังลงทุนหลายพันล้านเพื่อรักษาชิป ดาต้าเซ็นเตอร์ และโครงสร้างพื้นฐานคลาวด์ที่เพียงพอต่อการรองรับการเติบโตของ generative AI
สถานการณ์นี้ยังตั้งคำถามสำคัญเกี่ยวกับอนาคตของภาคส่วน หาก AI ต้องพึ่งพาการลงทุนโครงสร้างพื้นฐานขนาดยักษ์มากขึ้นเรื่อยๆ ก็มีความเสี่ยงที่ตลาดจะกลายเป็นแบบเปิดน้อยลงและรวมศูนย์มากขึ้น
ยิ่งไปกว่านั้น แรงกดดันต่อทรัพยากรการประมวลผลยังอาจส่งผลต่อต้นทุนพลังงานและความยั่งยืนด้านสิ่งแวดล้อม
การขยายตัวของ AI ต้องการไฟฟ้าจำนวนมหาศาลและระบบระบายความร้อนขั้นสูง ทำให้ดาต้าเซ็นเตอร์กลายเป็นสินทรัพย์เชิงกลยุทธ์ที่สำคัญมากขึ้นเรื่อยๆ


