Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning
Joerg Hiller 18 มี.ค. 2026 18:27
Together AI เพิ่ม tool calling, reasoning traces และ vision-language fine-tuning ลงในแพลตฟอร์ม พร้อมเพิ่ม throughput ถึง 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์มากกว่า 100B
Together AI เปิดตัวการขยายบริการ fine-tuning อย่างใหญ่โตเมื่อวันที่ 18 มีนาคม โดยเพิ่มการรองรับแบบเนทีฟสำหรับ tool calling, reasoning traces และ vision-language models ซึ่งเป็นความสามารถที่แก้ไขปัญหาที่สำคัญสำหรับทีมที่สร้างระบบ AI สำหรับการใช้งานจริง
การอัปเดตนี้เกิดขึ้นในขณะที่บริษัทรายงานว่ากำลังเจรจารอบการระดมทุนที่จะทำให้มูลค่าอยู่ที่ 7.5 พันล้านดอลลาร์ เพิ่มขึ้นมากกว่าสองเท่าจากมูลค่า 3.3 พันล้านดอลลาร์ในรอบ Series B ของเดือนกุมภาพันธ์ 2025
สิ่งใหม่ที่แท้จริง
แพลตฟอร์มตอนนี้รองรับ fine-tuning สามประเภทที่เคยต้องใช้วิธีแก้ปัญหาแบบกระจัดกระจาย:
Tool calling ได้รับการรองรับแบบครบวงจรโดยใช้ schemas ที่เข้ากันได้กับ OpenAI ระบบตรวจสอบว่าทุก tool call ในข้อมูลการเทรนตรงกับฟังก์ชันที่ประกาศไว้ก่อนการเทรนเริ่มต้น ซึ่งเป็นการป้องกันพารามิเตอร์ที่สร้างขึ้นมาและความไม่ตรงกันของ schema ที่รบกวน agentic workflows
Reasoning fine-tuning ช่วยให้ทีมสามารถเทรนโมเดลบน domain-specific thinking traces โดยใช้ฟิลด์ reasoning_content โดยเฉพาะ นี่สำคัญเพราะรูปแบบ reasoning แตกต่างกันอย่างมากในแต่ละกลุ่มโมเดล ทำให้การเทรนที่สม่ำเสมอเป็นเรื่องยากหากไม่มีมาตรฐาน
Vision-language fine-tuning รองรับชุดข้อมูลผสมที่มีทั้งตัวอย่างรูปภาพ-ข้อความและข้อความเท่านั้น โดยค่าเริ่มต้น vision encoder จะถูกตรึงไว้ในขณะที่ language layers ได้รับการอัปเดต แม้ว่าทีมสามารถเปิดใช้งานการเทรนร่วมกันได้เมื่อการจดจำรูปแบบภาพต้องการการปรับปรุง
การอัปเกรดโครงสร้างพื้นฐาน
นอกเหนือจากความสามารถใหม่ Together AI อ้างว่าได้ผลงานด้านประสิทธิภาพที่สำคัญจากการเพิ่มประสิทธิภาพ training stack สำหรับสถาปัตยกรรม mixture-of-experts บริษัทได้รวม SonicMoE kernels ที่ทับซ้อนการดำเนินการหน่วยความจำกับการคำนวณ รวมถึง CUDA kernels แบบกำหนดเองสำหรับการคำนวณ loss
ผลลัพธ์แตกต่างกันตามขนาดโมเดล: โมเดลขนาดเล็กเห็นการปรับปรุง throughput ประมาณ 2 เท่า ในขณะที่สถาปัตยกรรมขนาดใหญ่เช่น Kimi-K2 เพิ่มขึ้น 6 เท่า แพลตฟอร์มตอนนี้รองรับชุดข้อมูลถึง 100GB และโมเดลที่เกินหนึ่งแสนล้านพารามิเตอร์
โมเดลใหม่ที่พร้อมใช้งานสำหรับ fine-tuning ได้แก่ Qwen 3.5 variants (ถึง 397B พารามิเตอร์), Kimi K2 และ K2.5 และ GLM-4.6 และ 4.7
การเพิ่มเติมที่ใช้งานได้จริง
การอัปเดตรวมถึงการประเมินต้นทุนก่อนการดำเนินงานและการติดตามความคืบหน้าแบบสดด้วยการประมาณการเสร็จสิ้นแบบไดนามิก ซึ่งเป็นฟีเจอร์ที่ฟังดูพื้นฐานแต่ป้องกันความประหลาดใจด้านงบประมาณที่ทำให้การทดลองมีความเสี่ยง
XY.AI Labs ซึ่ง Together AI อ้างถึงเป็นตัวอย่างลูกค้า รายงานว่าเปลี่ยนจากรอบการทำซ้ำรายสัปดาห์เป็นรายวัน ในขณะที่ลดต้นทุน 2-3 เท่าและปรับปรุงความแม่นยำจาก 77% เป็น 87% โดยใช้ fine-tuning และ deployment APIs ของแพลตฟอร์ม
บริบทตลาด
เวลาสอดคล้องกับการเพิ่มขึ้นของการใช้จ่ายด้านโครงสร้างพื้นฐาน AI การระดมทุนสตาร์ทอัพในภาคส่วน AI ถึง 220 พันล้านดอลลาร์ในสองเดือนแรกของปี 2026 ตามรายงานล่าสุด โดยเงินทุนส่วนใหญ่ไหลไปสู่โครงสร้างพื้นฐานการเทรนและ inference
Together AI วางตำแหน่งตัวเองเป็นทางเลือกแทนการสร้างโครงสร้างพื้นฐาน AI ภายในองค์กร โดยเสนอการเข้าถึงโมเดลโอเพนซอร์สกว่า 200 โมเดลผ่านแพลตฟอร์ม ข้อเสนอของบริษัท คือการลดความซับซ้อนของโครงสร้างพื้นฐานเพื่อให้ทีมสามารถมุ่งเน้นไปที่การพัฒนาผลิตภัณฑ์ ตอนนี้ขยายไปสู่ post-training workflows ที่ซับซ้อนมากขึ้น ซึ่งเคยเป็นขอบเขตของห้องปฏิบัติการวิจัยที่มีทรัพยากรมาก
แหล่งที่มาของภาพ: Shutterstock- together ai
- ai infrastructure
- fine-tuning
- machine learning
- enterprise ai



