टेथर ने एक क्रॉस-प्लेटफ़ॉर्म फ्रेमवर्क पेश किया है जो AI मॉडल ट्रेनिंग की लागत और हार्डवेयर आवश्यकताओं को कम करता है, जिससे उन्नत LLMs को फाइन-ट्यून किया जा सकता हैटेथर ने एक क्रॉस-प्लेटफ़ॉर्म फ्रेमवर्क पेश किया है जो AI मॉडल ट्रेनिंग की लागत और हार्डवेयर आवश्यकताओं को कम करता है, जिससे उन्नत LLMs को फाइन-ट्यून किया जा सकता है

टेथर ने क्रॉस-प्लेटफ़ॉर्म BitNet LoRA फ्रेमवर्क लॉन्च किया जो कंज्यूमर डिवाइसेस पर बिलियन-पैरामीटर AI ट्रेनिंग और इंफरेंस को सक्षम बनाता है

2026/03/18 15:00
4 मिनट पढ़ें
इस कॉन्टेंट के संबंध में प्रतिक्रिया या चिंताओं के लिए, कृपया crypto.news@mexc.com पर हमसे संपर्क करें
Tether ने क्रॉस-प्लेटफॉर्म BitNet LoRA फ्रेमवर्क लॉन्च किया जो कंज्यूमर डिवाइसेस पर बिलियन-पैरामीटर AI ट्रेनिंग और इंफरेंस को सक्षम बनाता है

USDT stablecoin जारीकर्ता Tether ने Microsoft BitNet मॉडल्स के लिए डिज़ाइन किए गए पहले क्रॉस-प्लेटफॉर्म LoRA फाइन-ट्यूनिंग फ्रेमवर्क के लॉन्च की घोषणा की, जो 1-बिट लार्ज लैंग्वेज मॉडल आर्किटेक्चर पर आधारित हैं। यह क्षमता इसके QVAC Fabric सिस्टम में एकीकृत है और रिपोर्ट के अनुसार यह मेमोरी उपयोग और कम्प्यूटेशनल आवश्यकताओं दोनों को महत्वपूर्ण रूप से कम करती है। कंपनी के अनुसार, यह विकास बड़े पैमाने के भाषा मॉडल्स, जिनमें अरबों पैरामीटर्स वाले मॉडल शामिल हैं, को व्यापक रूप से उपलब्ध कंज्यूमर हार्डवेयर जैसे लैपटॉप, स्टैंडर्ड ग्राफिक्स प्रोसेसिंग यूनिट्स और आधुनिक स्मार्टफोन का उपयोग करके फाइन-ट्यून करने में सक्षम बनाता है।

आर्टिफिशियल इंटेलिजेंस सिस्टम के विकास और रखरखाव के लिए परंपरागत रूप से एंटरप्राइज-ग्रेड हार्डवेयर की आवश्यकता होती है, विशेष रूप से विशेष NVIDIA इंफ्रास्ट्रक्चर या क्लाउड-आधारित वातावरण। इन आवश्यकताओं ने उच्च परिचालन लागतों में योगदान दिया है, जो उन्नत AI विकास तक पहुंच को मुख्य रूप से पर्याप्त वित्तीय संसाधनों और विशेष कंप्यूटिंग सिस्टम तक पहुंच वाले बड़े संगठनों तक सीमित कर देता है।

Tether ने कहा कि इसका QVAC Fabric लार्ज लैंग्वेज मॉडल, जो नए लॉन्च किए गए BitNet-आधारित फ्रेमवर्क द्वारा बेहतर बनाया गया है, क्रॉस-प्लेटफॉर्म LoRA फाइन-ट्यूनिंग का समर्थन करके और विभिन्न हेटेरोजीनियस कंज्यूमर GPUs पर इंफरेंस को तेज करके इन सीमाओं को संबोधित करता है। इनमें Intel, AMD, और Apple Silicon आदि के हार्डवेयर शामिल हैं। परिणामस्वरूप, उपयोगकर्ता केंद्रीकृत इंफ्रास्ट्रक्चर पर निर्भर रहने के बजाय सामान्यतः उपलब्ध कंज्यूमर डिवाइसेस पर सीधे AI मॉडल्स को प्रशिक्षित और अनुकूलित करने में सक्षम हैं।

कंपनी ने बताया कि इसकी इंजीनियरिंग टीम ने पहली बार मोबाइल ग्राफिक्स प्रोसेसिंग यूनिट्स पर BitNet फाइन-ट्यूनिंग का सफलतापूर्वक प्रदर्शन किया है, जिसमें Adreno, Mali, और Apple Bionic GPUs जैसे प्लेटफॉर्म शामिल हैं। आंतरिक परीक्षण से संकेत मिलता है कि 125 मिलियन-पैरामीटर BitNet मॉडल को Adreno GPU से लैस Samsung S25 डिवाइस पर लगभग दस मिनट में फाइन-ट्यून किया जा सकता है, जो एक बायोमेडिकल डेटासेट का उपयोग करता है जिसमें लगभग 300 डॉक्यूमेंट्स, या लगभग 18,000 टोकन होते हैं। 1 बिलियन-पैरामीटर मॉडल के लिए, उसी डेटासेट को Samsung S25 पर लगभग एक घंटे अठारह मिनट और iPhone 16 पर एक घंटे पैंतालीस मिनट की आवश्यकता थी। कंपनी ने यह भी बताया कि वह अधिकतम डिवाइस क्षमता की स्थितियों में iPhone 16 पर 13 बिलियन पैरामीटर्स जितने बड़े मॉडल्स तक परीक्षण का विस्तार करने में सक्षम थी।

एज-आधारित AI ट्रेनिंग और परफॉर्मेंस ऑप्टिमाइजेशन में प्रगति

आगे के निष्कर्ष बताते हैं कि फ्रेमवर्क एज डिवाइसेस पर Q4 क्वांटाइजेशन के तहत काम करने वाले तुलनीय नॉन-BitNet मॉडल्स के आकार से दोगुने बड़े मॉडल्स की फाइन-ट्यूनिंग का समर्थन कर सकता है। यह परिणाम BitNet आर्किटेक्चर से जुड़े कम मेमोरी फुटप्रिंट के कारण है।

ट्रेनिंग में सुधार के अलावा, फ्रेमवर्क बेहतर इंफरेंस परफॉर्मेंस भी प्रदर्शित करता है। मोबाइल डिवाइसेस पर किए गए परीक्षणों से संकेत मिलता है कि BitNet मॉडल GPUs पर निष्पादित होने पर काफी तेजी से काम करते हैं, जिसमें प्रोसेसिंग स्पीड CPU-आधारित निष्पादन की तुलना में दो से ग्यारह गुना अधिक होती है। ये परिणाम दर्शाते हैं कि मोबाइल GPUs उन वर्कलोड्स को संभालने में तेजी से सक्षम हो रहे हैं जिनके लिए पहले विशेष हार्डवेयर या डेटा सेंटर-स्तर के संसाधनों की आवश्यकता होती थी।

सिस्टम मेमोरी दक्षता में भी उल्लेखनीय लाभ दिखाता है। बेंचमार्क डेटा बताता है कि TQ1_0 कॉन्फ़िगरेशन का उपयोग करने वाले BitNet-1B मॉडल को इंफरेंस और LoRA फाइन-ट्यूनिंग प्रक्रियाओं दोनों के दौरान 16-बिट Gemma-3-1B मॉडल की तुलना में 77.8 प्रतिशत कम VRAM और 16-बिट Qwen3-0.6B मॉडल की तुलना में 65.6 प्रतिशत कम की आवश्यकता होती है। ये कमी बड़े मॉडल्स चलाने और ऐसे हार्डवेयर पर पर्सनलाइजेशन फीचर्स को सक्षम करने के लिए अतिरिक्त क्षमता प्रदान करती हैं जिन्हें पहले अपर्याप्त माना जाता था।

Tether ने आगे संकेत दिया कि फ्रेमवर्क पहली बार नॉन-NVIDIA हार्डवेयर पर 1-बिट लार्ज लैंग्वेज मॉडल्स के लिए LoRA फाइन-ट्यूनिंग क्षमताओं को पेश करता है, जो AMD, Intel, Apple Silicon, और मोबाइल GPU प्लेटफॉर्म्स तक अनुकूलता का विस्तार करता है। विशेष इंफ्रास्ट्रक्चर और क्लाउड सेवाओं पर निर्भरता को कम करके, यह दृष्टिकोण संवेदनशील डेटा को उपयोगकर्ता के डिवाइसेस पर स्थानीय रूप से संग्रहीत रहने की अनुमति देता है। कंपनी ने नोट किया कि यह दक्षता फेडरेटेड लर्निंग सिस्टम के विकास का भी समर्थन कर सकती है, जिसमें डेटा गोपनीयता बनाए रखते हुए और केंद्रीकृत सिस्टम पर निर्भरता को कम करते हुए मॉडल्स को वितरित डिवाइसेस पर सहयोगात्मक रूप से प्रशिक्षित किया जा सकता है।

यह पोस्ट Tether Launches Cross-Platform BitNet LoRA Framework Enabling Billion-Parameter AI Training And Inference On Consumer Devices पहली बार Metaverse Post पर प्रकाशित हुई।

मार्केट अवसर
CROSS लोगो
CROSS मूल्य(CROSS)
$0.0681
$0.0681$0.0681
-0.69%
USD
CROSS (CROSS) मूल्य का लाइव चार्ट
अस्वीकरण: इस साइट पर बाहर से पोस्ट किए गए लेख, सार्वजनिक प्लेटफार्म से लिए गए हैं और केवल सूचना देने के उद्देश्यों के लिए उपलब्ध कराए गए हैं. वे निश्चित तौर पर MEXC के विचारों को नहीं दिखाते. सभी संबंधित अधिकार मूल लेखकों के पास ही हैं. अगर आपको लगता है कि कोई कॉन्टेंट तीसरे पक्ष के अधिकारों का उल्लंघन करता है, तो कृपया उसे हटाने के लिए crypto.news@mexc.com से संपर्क करें. MEXC किसी कॉन्टेंट की सटीकता, पूर्णता या समयबद्धता के संबंध में कोई गारंटी नहीं देता है और प्रदान की गई जानकारी के आधार पर की गई किसी भी कार्रवाई के लिए जिम्मेदार नहीं है. यह कॉन्टेंट वित्तीय, कानूनी या अन्य प्रोफ़ेशनल सलाह नहीं है, न ही इसे MEXC द्वारा अनुशंसा या समर्थन माना जाना चाहिए.

आपको यह भी पसंद आ सकता है

क्या Bitcoin ट्रेडर्स 'समाचार पर बेचेंगे?' प्रमुख मार्च Fed FOMC बैठक से पहले कीमत $74,000 पर रुकी

क्या Bitcoin ट्रेडर्स 'समाचार पर बेचेंगे?' प्रमुख मार्च Fed FOMC बैठक से पहले कीमत $74,000 पर रुकी

व्यापारियों ने अभी तक यह मूल्य निर्धारित नहीं किया है कि अध्यक्ष जेरोम पॉवेल भू-राजनीतिक अराजकता से उत्पन्न स्टैगफ्लेशनरी झटके की व्याख्या कैसे करते हैं। चित्रण: हिलेरी बी; स्रोत: शटरस्टॉक
शेयर करें
DL News2026/03/18 17:01
स्पष्टता अधिनियम के लिए सकारात्मक विकास, क्रिप्टोकरेंसी कानून जिसका अमेरिका में हर कोई इंतजार कर रहा था! सबसे आधिकारिक हस्तियों में से एक ने इसकी घोषणा की!

स्पष्टता अधिनियम के लिए सकारात्मक विकास, क्रिप्टोकरेंसी कानून जिसका अमेरिका में हर कोई इंतजार कर रहा था! सबसे आधिकारिक हस्तियों में से एक ने इसकी घोषणा की!

एक अमेरिकी सीनेटर ने कहा कि क्रिप्टोकरेंसी बिल, क्लैरिटी एक्ट पर प्रगति हुई है, और इस सप्ताह ड्राफ्ट जारी होने की उम्मीद है। जारी रखें
शेयर करें
Bitcoinsistemi2026/03/18 16:55
आपका AI स्लॉप मुझे बोर करता है – इंटरनेट निम्न-गुणवत्ता वाली AI सामग्री के खिलाफ क्यों हो रहा है

आपका AI स्लॉप मुझे बोर करता है – इंटरनेट निम्न-गुणवत्ता वाली AI सामग्री के खिलाफ क्यों हो रहा है

कृत्रिम बुद्धिमत्ता ने ऑनलाइन सामग्री बनाने के तरीके को तेजी से बदल दिया है। ब्लॉग पोस्ट और मार्केटिंग कॉपी से लेकर डिजिटल आर्टवर्क और वीडियो तक, AI टूल्स
शेयर करें
Techbullion2026/03/18 17:07