Together AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติมTogether AI เพิ่มฟีเจอร์การเรียกใช้เครื่องมือ การติดตามเหตุผล และการปรับแต่งแบบวิชัน-ภาษาลงในแพลตฟอร์ม พร้อมเพิ่มประสิทธิภาพ 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์ 100B+ (อ่านเพิ่มเติม

Together AI ยกระดับแพลตฟอร์มการปรับแต่งด้วยการรองรับการมองเห็นและการให้เหตุผล

2026/03/19 02:27
2 นาทีในการอ่าน
หากมีข้อเสนอแนะหรือข้อกังวลเกี่ยวกับเนื้อหานี้ โปรดติดต่อเราได้ที่ crypto.news@mexc.com

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Joerg Hiller 18 มี.ค. 2026 18:27

Together AI เพิ่ม tool calling, reasoning traces และ vision-language fine-tuning ลงในแพลตฟอร์ม พร้อมเพิ่ม throughput ถึง 6 เท่าสำหรับโมเดลที่มีพารามิเตอร์มากกว่า 100B

Together AI อัปเกรดแพลตฟอร์ม Fine-Tuning ด้วยการรองรับ Vision และ Reasoning

Together AI เปิดตัวการขยายบริการ fine-tuning อย่างใหญ่โตเมื่อวันที่ 18 มีนาคม โดยเพิ่มการรองรับแบบเนทีฟสำหรับ tool calling, reasoning traces และ vision-language models ซึ่งเป็นความสามารถที่แก้ไขปัญหาที่สำคัญสำหรับทีมที่สร้างระบบ AI สำหรับการใช้งานจริง

การอัปเดตนี้เกิดขึ้นในขณะที่บริษัทรายงานว่ากำลังเจรจารอบการระดมทุนที่จะทำให้มูลค่าอยู่ที่ 7.5 พันล้านดอลลาร์ เพิ่มขึ้นมากกว่าสองเท่าจากมูลค่า 3.3 พันล้านดอลลาร์ในรอบ Series B ของเดือนกุมภาพันธ์ 2025

สิ่งใหม่ที่แท้จริง

แพลตฟอร์มตอนนี้รองรับ fine-tuning สามประเภทที่เคยต้องใช้วิธีแก้ปัญหาแบบกระจัดกระจาย:

Tool calling ได้รับการรองรับแบบครบวงจรโดยใช้ schemas ที่เข้ากันได้กับ OpenAI ระบบตรวจสอบว่าทุก tool call ในข้อมูลการเทรนตรงกับฟังก์ชันที่ประกาศไว้ก่อนการเทรนเริ่มต้น ซึ่งเป็นการป้องกันพารามิเตอร์ที่สร้างขึ้นมาและความไม่ตรงกันของ schema ที่รบกวน agentic workflows

Reasoning fine-tuning ช่วยให้ทีมสามารถเทรนโมเดลบน domain-specific thinking traces โดยใช้ฟิลด์ reasoning_content โดยเฉพาะ นี่สำคัญเพราะรูปแบบ reasoning แตกต่างกันอย่างมากในแต่ละกลุ่มโมเดล ทำให้การเทรนที่สม่ำเสมอเป็นเรื่องยากหากไม่มีมาตรฐาน

Vision-language fine-tuning รองรับชุดข้อมูลผสมที่มีทั้งตัวอย่างรูปภาพ-ข้อความและข้อความเท่านั้น โดยค่าเริ่มต้น vision encoder จะถูกตรึงไว้ในขณะที่ language layers ได้รับการอัปเดต แม้ว่าทีมสามารถเปิดใช้งานการเทรนร่วมกันได้เมื่อการจดจำรูปแบบภาพต้องการการปรับปรุง

การอัปเกรดโครงสร้างพื้นฐาน

นอกเหนือจากความสามารถใหม่ Together AI อ้างว่าได้ผลงานด้านประสิทธิภาพที่สำคัญจากการเพิ่มประสิทธิภาพ training stack สำหรับสถาปัตยกรรม mixture-of-experts บริษัทได้รวม SonicMoE kernels ที่ทับซ้อนการดำเนินการหน่วยความจำกับการคำนวณ รวมถึง CUDA kernels แบบกำหนดเองสำหรับการคำนวณ loss

ผลลัพธ์แตกต่างกันตามขนาดโมเดล: โมเดลขนาดเล็กเห็นการปรับปรุง throughput ประมาณ 2 เท่า ในขณะที่สถาปัตยกรรมขนาดใหญ่เช่น Kimi-K2 เพิ่มขึ้น 6 เท่า แพลตฟอร์มตอนนี้รองรับชุดข้อมูลถึง 100GB และโมเดลที่เกินหนึ่งแสนล้านพารามิเตอร์

โมเดลใหม่ที่พร้อมใช้งานสำหรับ fine-tuning ได้แก่ Qwen 3.5 variants (ถึง 397B พารามิเตอร์), Kimi K2 และ K2.5 และ GLM-4.6 และ 4.7

การเพิ่มเติมที่ใช้งานได้จริง

การอัปเดตรวมถึงการประเมินต้นทุนก่อนการดำเนินงานและการติดตามความคืบหน้าแบบสดด้วยการประมาณการเสร็จสิ้นแบบไดนามิก ซึ่งเป็นฟีเจอร์ที่ฟังดูพื้นฐานแต่ป้องกันความประหลาดใจด้านงบประมาณที่ทำให้การทดลองมีความเสี่ยง

XY.AI Labs ซึ่ง Together AI อ้างถึงเป็นตัวอย่างลูกค้า รายงานว่าเปลี่ยนจากรอบการทำซ้ำรายสัปดาห์เป็นรายวัน ในขณะที่ลดต้นทุน 2-3 เท่าและปรับปรุงความแม่นยำจาก 77% เป็น 87% โดยใช้ fine-tuning และ deployment APIs ของแพลตฟอร์ม

บริบทตลาด

เวลาสอดคล้องกับการเพิ่มขึ้นของการใช้จ่ายด้านโครงสร้างพื้นฐาน AI การระดมทุนสตาร์ทอัพในภาคส่วน AI ถึง 220 พันล้านดอลลาร์ในสองเดือนแรกของปี 2026 ตามรายงานล่าสุด โดยเงินทุนส่วนใหญ่ไหลไปสู่โครงสร้างพื้นฐานการเทรนและ inference

Together AI วางตำแหน่งตัวเองเป็นทางเลือกแทนการสร้างโครงสร้างพื้นฐาน AI ภายในองค์กร โดยเสนอการเข้าถึงโมเดลโอเพนซอร์สกว่า 200 โมเดลผ่านแพลตฟอร์ม ข้อเสนอของบริษัท คือการลดความซับซ้อนของโครงสร้างพื้นฐานเพื่อให้ทีมสามารถมุ่งเน้นไปที่การพัฒนาผลิตภัณฑ์ ตอนนี้ขยายไปสู่ post-training workflows ที่ซับซ้อนมากขึ้น ซึ่งเคยเป็นขอบเขตของห้องปฏิบัติการวิจัยที่มีทรัพยากรมาก

แหล่งที่มาของภาพ: Shutterstock
  • together ai
  • ai infrastructure
  • fine-tuning
  • machine learning
  • enterprise ai
ข้อจำกัดความรับผิดชอบ: บทความที่โพสต์ซ้ำในไซต์นี้มาจากแพลตฟอร์มสาธารณะและมีไว้เพื่อจุดประสงค์ในการให้ข้อมูลเท่านั้น ซึ่งไม่ได้สะท้อนถึงมุมมองของ MEXC แต่อย่างใด ลิขสิทธิ์ทั้งหมดยังคงเป็นของผู้เขียนดั้งเดิม หากคุณเชื่อว่าเนื้อหาใดละเมิดสิทธิของบุคคลที่สาม โปรดติดต่อ crypto.news@mexc.com เพื่อลบออก MEXC ไม่รับประกันความถูกต้อง ความสมบูรณ์ หรือความทันเวลาของเนื้อหาใดๆ และไม่รับผิดชอบต่อการดำเนินการใดๆ ที่เกิดขึ้นตามข้อมูลที่ให้มา เนื้อหานี้ไม่ถือเป็นคำแนะนำทางการเงิน กฎหมาย หรือคำแนะนำจากผู้เชี่ยวชาญอื่นๆ และไม่ถือว่าเป็นคำแนะนำหรือการรับรองจาก MEXC

คุณอาจชอบเช่นกัน

พ.ร.บ. CLARITY ใกล้ความสำเร็จมากขึ้นเมื่อวุฒิสภาผลักดันข้อตกลง Stablecoin

พ.ร.บ. CLARITY ใกล้ความสำเร็จมากขึ้นเมื่อวุฒิสภาผลักดันข้อตกลง Stablecoin

ข้อมูลสำคัญ: สมาชิกวุฒิสภาพรรครีพับลิกันคณะกรรมการธนาคารพบปะกับ Patrick Witt ผู้อำนวยการบริหารสภาคริปโตของทำเนียบขาว ในขณะที่การดำเนินงาน Digital Asset Market Clarity Act ยังคงดำเนินต่อไป
แชร์
Themarketperiodical2026/03/21 03:42
วุฒิส参议员ระบุว่าบรรลุข้อตกลงประนีประนอมเพื่อผลักดันร่างกฎหมายตลาดคริปโต

วุฒิส参议员ระบุว่าบรรลุข้อตกลงประนีประนอมเพื่อผลักดันร่างกฎหมายตลาดคริปโต

สมาชิกวุฒิสภาสหรัฐฯ สองคนที่กำลังเจรจาเกี่ยวกับข้อกำหนดที่ถกเถียงกันในร่างกฎหมายโครงสร้างตลาดของอุตสาหกรรมคริปโต — ธอม ทิลลิส จากพรรครีพับลิกันและแองเจลา อัลส์ จากพรรคเดโมแครต
แชร์
Coindesk2026/03/21 03:27
Cardano ส่งสัญญาณซื้อรายสัปดาห์ขณะที่ ADA รักษาแนวรับสำคัญที่ $0.23

Cardano ส่งสัญญาณซื้อรายสัปดาห์ขณะที่ ADA รักษาแนวรับสำคัญที่ $0.23

ADA กำลังดึงดูดความสนใจหลังจาก Ali Martinez ชี้สัญญาณซื้อ TD Sequential รายสัปดาห์ โดยเทรดเดอร์กำลังจับตาดูว่าโทเค็นจะรักษาแนวรับที่ $0.23 ได้หรือไม่
แชร์
Blockchainreporter2026/03/21 03:10