Together AI ने विज़न और रीज़निंग सपोर्ट के साथ फाइन-ट्यूनिंग प्लेटफ़ॉर्म को अपग्रेड किया
Joerg Hiller मार्च 18, 2026 18:27
Together AI ने अपने प्लेटफ़ॉर्म में टूल कॉलिंग, रीज़निंग ट्रेसेस और विज़न-लैंग्वेज फाइन-ट्यूनिंग जोड़ी है, जिसमें 100B+ पैरामीटर मॉडल्स के लिए 6x थ्रूपुट लाभ है।
Together AI ने 18 मार्च को अपनी फाइन-ट्यूनिंग सेवा में एक बड़ा विस्तार किया, जिसमें टूल कॉलिंग, रीज़निंग ट्रेसेस और विज़न-लैंग्वेज मॉडल्स के लिए नेटिव सपोर्ट जोड़ा गया—ऐसी क्षमताएं जो प्रोडक्शन AI सिस्टम बनाने वाली टीमों के लिए लगातार समस्याओं को संबोधित करती हैं।
यह अपडेट ऐसे समय आया है जब कंपनी कथित तौर पर एक फंडिंग राउंड की बातचीत कर रही है जो इसे $7.5 बिलियन का मूल्यांकन देगा, जो फरवरी 2025 की सीरीज़ B से इसके $3.3 बिलियन के मूल्यांकन को दोगुने से अधिक कर देगा।
वास्तव में क्या नया है
प्लेटफ़ॉर्म अब फाइन-ट्यूनिंग की तीन श्रेणियों को संभालता है जिनके लिए पहले खंडित समाधानों की आवश्यकता थी:
टूल कॉलिंग को OpenAI-संगत स्कीमा का उपयोग करके एंड-टू-एंड सपोर्ट मिलता है। सिस्टम ट्रेनिंग शुरू होने से पहले सत्यापित करता है कि ट्रेनिंग डेटा में हर टूल कॉल घोषित फ़ंक्शंस से मेल खाती है—एजेंटिक वर्कफ़्लो को प्रभावित करने वाले हेलुसिनेटेड पैरामीटर्स और स्कीमा मिसमैच के खिलाफ एक सुरक्षा उपाय।
रीज़निंग फाइन-ट्यूनिंग टीमों को एक समर्पित reasoning_content फ़ील्ड का उपयोग करके डोमेन-विशिष्ट थिंकिंग ट्रेसेस पर मॉडल ट्रेन करने की अनुमति देती है। यह महत्वपूर्ण है क्योंकि रीज़निंग फ़ॉर्मेट मॉडल फ़ैमिली में व्यापक रूप से भिन्न होते हैं, जिससे मानकीकरण के बिना सुसंगत ट्रेनिंग कठिन हो जाती है।
विज़न-लैंग्वेज फाइन-ट्यूनिंग इमेज-टेक्स्ट और केवल-टेक्स्ट उदाहरणों को मिलाने वाले हाइब्रिड डेटासेट्स का समर्थन करती है। डिफ़ॉल्ट रूप से, विज़न एनकोडर फ़्रोज़न रहता है जबकि लैंग्वेज लेयर्स अपडेट होती हैं, हालांकि टीमें जॉइंट ट्रेनिंग को सक्षम कर सकती हैं जब विज़ुअल पैटर्न रिकग्निशन में सुधार की आवश्यकता हो।
इंफ्रास्ट्रक्चर अपग्रेड
नई क्षमताओं के अलावा, Together AI मिक्सचर-ऑफ़-एक्सपर्ट्स आर्किटेक्चर के लिए अपने ट्रेनिंग स्टैक को ऑप्टिमाइज़ करने से महत्वपूर्ण परफ़ॉर्मेंस लाभ का दावा करता है। कंपनी ने SonicMoE कर्नल्स को एकीकृत किया जो मेमोरी ऑपरेशन्स को कम्प्यूटेशन के साथ ओवरलैप करते हैं, साथ ही लॉस कम्प्यूटेशन के लिए कस्टम CUDA कर्नल्स भी।
परिणाम मॉडल साइज़ के अनुसार भिन्न होते हैं: छोटे मॉडल्स में लगभग 2x थ्रूपुट सुधार दिखता है, जबकि Kimi-K2 जैसे बड़े आर्किटेक्चर्स 6x लाभ हासिल करते हैं। प्लेटफ़ॉर्म अब 100GB तक के डेटासेट्स और 100 बिलियन पैरामीटर्स से अधिक वाले मॉडल्स को संभालता है।
फाइन-ट्यूनिंग के लिए उपलब्ध नए मॉडल्स में Qwen 3.5 वेरिएंट्स (397B पैरामीटर्स तक), Kimi K2 और K2.5, तथा GLM-4.6 और 4.7 शामिल हैं।
व्यावहारिक जोड़
अपडेट में जॉब निष्पादन से पहले लागत अनुमान और डायनामिक पूर्णता अनुमानों के साथ लाइव प्रोग्रेस ट्रैकिंग शामिल है—ऐसी विशेषताएं जो बुनियादी लगती हैं लेकिन बजट आश्चर्यों को रोकती हैं जो प्रयोग को जोखिम भरा बनाती हैं।
XY.AI Labs, जिसे Together AI ने ग्राहक उदाहरण के रूप में उद्धृत किया, ने प्लेटफ़ॉर्म की फाइन-ट्यूनिंग और डिप्लॉयमेंट APIs का उपयोग करते हुए साप्ताहिक से दैनिक इटरेशन साइकिल में जाते हुए, लागतों को 2-3x कम करते हुए और सटीकता को 77% से 87% तक सुधारते हुए रिपोर्ट किया।
मार्केट संदर्भ
यह समय AI इंफ्रास्ट्रक्चर खर्च में उछाल के साथ मेल खाता है। हाल की रिपोर्टों के अनुसार, 2026 के पहले दो महीनों में AI सेक्टर में स्टार्टअप फंडिंग $220 बिलियन तक पहुंच गई, जिसमें अधिकांश पूंजी ट्रेनिंग और इन्फरेंस इंफ्रास्ट्रक्चर की ओर बह रही है।
Together AI खुद को इन-हाउस AI इंफ्रास्ट्रक्चर बनाने के विकल्प के रूप में स्थापित करता है, जो अपने प्लेटफ़ॉर्म के माध्यम से 200 से अधिक ओपन-सोर्स मॉडल्स तक पहुंच प्रदान करता है। कंपनी की पिच—इंफ्रास्ट्रक्चर जटिलता को हटाना ताकि टीमें प्रोडक्ट डेवलपमेंट पर ध्यान केंद्रित कर सकें—अब तेजी से परिष्कृत पोस्ट-ट्रेनिंग वर्कफ़्लो तक विस्तारित होती है जो पहले संसाधन-संपन्न अनुसंधान प्रयोगशालाओं का क्षेत्र थे।
इमेज स्रोत: Shutterstock- together ai
- ai infrastructure
- fine-tuning
- machine learning
- enterprise ai



