มีข่าวลือว่า DeepSeek V4 มีประสิทธิภาพเหนือกว่า ChatGPT และ Claude ในการเขียนโค้ดบริบทยาว โดยมุ่งเป้าไปที่งานเขียนโค้ดระดับสูง แหล่งข่าวภายในอ้างว่าวงการ AI ของ Silicon Valley ควรกังวลหากการทดสอบภายในบ่งชี้ถึงประสิทธิภาพที่คาดหวังหลังจากการเปิดตัวในกลางเดือนกุมภาพันธ์
สตาร์ทอัพ AI ของจีนอย่าง DeepSeek มีรายงานว่ากำลังวางแผนที่จะเปิดตัว DeepSeek V4 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ล่าสุดของพวกเขาในวันที่ 17 กุมภาพันธ์ บุคคลที่คุ้นเคยกับเรื่องนี้อ้างว่าโมเดลนี้พร้อมที่จะทำให้โมเดลภาษาขนาดใหญ่ที่มีอยู่เสียเปรียบ เช่น ChatGPT ของ OpenAI และ Claude ของ Anthropic เมื่อจัดการกับคำสั่งโค้ดและงานที่มีบริบทยาว
นักพัฒนาแสดงความคาดหวังอย่างมากต่อการเปิดตัว DeepSeek V4
บริษัทจีนยังไม่ได้เปิดเผยข้อมูลใดๆ เกี่ยวกับการเปิดตัวที่กำลังจะมาถึงหรือยืนยันข่าวลือ ณ เวลาที่เขียนบทความนี้ นักพัฒนาในโซเชียลเน็ตเวิร์กต่างๆ ได้แสดงความคาดหวังอย่างมากต่อการเปิดตัวนี้ Yuchen Jin นักพัฒนา AI และผู้ร่วมก่อตั้ง Hyperbolic Labs เขียนบน X ว่า "มีข่าวลือว่า DeepSeek V4 จะเปิดตัวเร็วๆ นี้ โดยมีความสามารถในการเขียนโค้ดที่แข็งแกร่งกว่า Claude และ GPT"
Subreddit r/DeepSeek ก็ คึกคักขึ้นเช่นกัน โดยมีผู้ใช้คนหนึ่งอธิบายว่าความหมกมุ่นของพวกเขาต่อโมเดล V4 ที่กำลังจะมาถึงของ DeepSeek นั้นไม่ปกติ ผู้ใช้บอกว่าพวกเขา "ตรวจสอบข่าว ข่าวลือที่เป็นไปได้ และฉันยังไปอ่านเอกสารบนเว็บไซต์ DS เพื่อมองหาการเปลี่ยนแปลงหรือสัญญาณใดๆ ที่บ่งบอกถึงการอัปเดต"
การเปิดตัวก่อนหน้านี้ของ DeepSeek ได้สร้างผลกระทบอย่างมีนัยสำคัญต่อตลาดโลก สตาร์ทอัพ AI ของจีน เปิดตัวโมเดลเหตุผล R1 ในเดือนมกราคม 2025 ส่งผลให้เกิดการขายทิ้งมูลค่าหลายล้านล้านดอลลาร์ การเปิดตัวนี้สามารถเทียบเท่ากับโมเดล 01 ของ OpenAI ในด้านคณิตศาสตร์และเกณฑ์มาตรฐานการใช้เหตุผล แม้จะมีต้นทุนที่ต่ำกว่าสตาร์ทอัพ AI ของสหรัฐฯ ที่ใช้ในโมเดล 01 อย่างมาก
บริษัทจีนมีรายงานว่าใช้เงินเพียง 6 ล้านดอลลาร์ในการเปิดตัวโมเดล ในขณะที่คู่แข่งทั่วโลกใช้จ่ายเกือบ 70 เท่าสำหรับผลลัพธ์เดียวกัน โมเดล V3 ของพวกเขายังได้คะแนน 90.2% ใน MATH-500 benchmark เมื่อเทียบกับ 78.3% ของ Claude การอัปเกรด V3 ล่าสุดของ DeepSeek (V3.2 Speciale) ยังปรับปรุงประสิทธิภาพการทำงานเพิ่มเติม
จุดขายของโมเดล V4 ได้พัฒนาจาก V3 ที่เน้นการใช้เหตุผลบริสุทธิ์ การพิสูจน์เชิงรูปแบบ และคณิตศาสตร์เชิงตรรกะ การเปิดตัวใหม่คาดว่าจะเป็นโมเดลผสมผสานที่รวมทั้งงานเหตุผลและงานที่ไม่ใช่เหตุผล โมเดลนี้มีเป้าหมายที่จะครองตลาดนักพัฒนาโดยการเติมเต็มช่องว่างที่มีอยู่ซึ่งต้องการความแม่นยำสูงและการสร้างโค้ดบริบทยาว
Claude Opus 4.5 ปัจจุบันอ้างว่าครองตลาดใน SWE benchmark โดยบรรลุความแม่นยำที่ 80.9% V4 จำเป็นต้องเอาชนะสิ่งนี้เพื่อโค่นล้ม Claude Opus 4.5 จากความสำเร็จก่อนหน้านี้ โมเดลที่กำลังจะมาถึงอาจเกินเกณฑ์นี้และครองตลาดใน benchmark
DeepSeek เป็นผู้บุกเบิก mHC สำหรับการฝึกอบรม LLMs
ความสำเร็จของ DeepSeek ทำให้หลายคนไม่เชื่ออย่างลึกซึ้งในเชิงมืออาชีพ บริษัทเล็กๆ แบบนี้จะบรรลุความสำเร็จดังกล่าวได้อย่างไร? ความลับอาจฝังอยู่ลึกในเอกสารงานวิจัยของพวกเขา ที่เผยแพร่เมื่อวันที่ 1 มกราคม บริษัทได้ระบุวิธีการฝึกอบรมใหม่ที่ช่วยให้นักพัฒนาสามารถขยายโมเดลภาษาขนาดใหญ่ได้อย่างง่ายดาย Liang Wenfeng ผู้ก่อตั้งและ CEO ของ DeepSeek เขียนในงานวิจัยว่าบริษัทกำลังใช้ Manifold-Constrained Hyper-Connections (mHC) เพื่อฝึกอบรมโมเดล AI ของพวกเขา
ผู้บริหารเสนอให้ใช้ mHC เพื่อแก้ไขปัญหาที่พบเมื่อนักพัฒนาฝึกอบรมโมเดลภาษาขนาดใหญ่ ตาม Wenfeng, mHC เป็นการอัปเกรดของ Hyper-Connections (HC) ซึ่งเป็นกรอบที่นักพัฒนา AI อื่นๆ ใช้เพื่อฝึกอบรมโมเดลภาษาขนาดใหญ่ของพวกเขา เขาอธิบายว่า HC และสถาปัตยกรรม AI แบบดั้งเดิมอื่นๆ บังคับให้ข้อมูลทั้งหมดผ่านช่องทางเดียวที่แคบ ในขณะเดียวกัน mHC ขยายเส้นทางนั้นเป็นหลายช่องทาง อำนวยความสะดวกในการถ่ายโอนข้อมูลและสารสนเทศโดยไม่ทำให้เกิดการล่มสลายในการฝึกอบรม
Lian Jye Su นักวิเคราะห์อ��ดมของ Omdia ชื่นชม CEO Wenfeng ที่เผยแพร่งานวิจัยของพวกเขา Su เน้นย้ำว่าการตัดสินใจของ DeepSeek ที่จะเผยแพร่วิธีการฝึกอบรมบ่งบอกถึงความมั่นใจที่ฟื้นคืนในภาคส่วน AI ของจีน DeepSeek ได้ ครองตลาดโลกกำลังพัฒนา Microsoft เผยแพร่รายงานเมื่อวันพฤหัสบดี แสดงให้เห็นว่า DeepSeek ครอง 89% ของตลาด AI ของจีนและกำลังได้รับแรงผลักดันในประเทศกำลังพัฒนา
ต้องการให้โครงการของคุณอยู่ต่อหน้าผู้เชี่ยวชาญด้านคริปโตชั้นนำหรือไม่? นำเสนอในรายงานอุตสาหกรรมฉบับถัดไปของเรา ที่ซึ่งข้อมูลพบกับผลกระทบ
Source: https://www.cryptopolitan.com/deepseek-v4-chatgpt-and-claude/



