Nowy projekt QVAC firmy Tether rozpoczyna się od niezwykłego sformułowania jak na firmę zajmującą się stablecoinami. Firma opisuje „QVAC Psy" jako rodzinę modeli fundamentalnych „zakorzenionych w zasadach psychohistorii".
Odwołanie do psychohistorii pochodzi z wszechświata Fundacji Isaaca Asimova, gdzie Hari Seldon wykorzystuje matematykę, statystykę i dynamikę społeczną do prognozowania zachowań bardzo dużych populacji i skrócenia mrocznej epoki po upadku Imperium Galaktycznego.
Encyklopedia science fiction opisuje asimowską psychohistorię jako „Naukę Wyobraźni", podczas gdy dzieło Seldona to plan przewidujący przyszłe wydarzenia i zachowujący wiedzę mimo systemowego rozpadu.
Sformułowania Tethera pełnią funkcję misji opakowanej w język science fiction.
Firma zbudowała największego stablecoina w kryptowalutach, przekształcając rezerwy, płynność i dystrybucję w infrastrukturę monetarną. QVAC stosuje tę samą logikę do inteligencji.
Pierwszym aktywem rezerwowym Tethera pozostaje zobowiązanie podobne do dolara w centrum USDt. Jego drugim aktywem rezerwowym staje się moc obliczeniowa, modele, zbiory danych i zdolność do uruchamiania AI poza scentralizowanymi chmurami.
Ekspansja Tethera w obszar AI podąża za mechaniką jego podstawowej działalności. USDt przekształca popyt na dolary offshore w stos rezerw zdominowany przez krótkoterminowe instrumenty suwerenne.
W aktualizacji zaświadczenia za I kwartał 2026 r. Tether odnotował zysk netto w wysokości 1,04 mld USD, bufor rezerwowy wynoszący 8,23 mld USD, zobowiązania związane z tokenami na poziomie około 183 mld USD oraz bezpośrednią i pośrednią ekspozycję na bony skarbowe USA wynoszącą około 141 mld USD. Ta baza rezerw zapewnia
Tetherowi cykliczne przychody, zdolność bilansową i możliwość finansowania długoterminowych zakładów infrastrukturalnych ze siły operacyjnej.
CryptoSlate już śledził, w jaki sposób ten silnik rezerwowy może przekształcić skalę stablecoina w strategiczną alokację. W styczniu zakup 8 888 BTC przez Tethera pokazał, jak dochody odsetkowe i zyski operacyjne mogą przekładać się na cykliczny popyt na Bitcoin. QVAC stosuje tę samą logikę do innej klasy aktywów.
Obok Bitcoina, złota, startupów, energii, górnictwa, komunikacji i innych pozycji infrastrukturalnych Tether alokuje środki w samą inteligencję. Ruch ten rozszerza wizerunek firmy od emitenta prywatnej płynności dolarowej do budowniczego prywatnej infrastruktury cyfrowej.
Język „psychohistorii" wpisuje się w ten kierunek, ponieważ Tether przedstawia AI jako warstwę cywilizacyjną, a nie pionowy sektor oprogramowania. Materiały publiczne QVAC opisują „Nieskończoną Stabilną Platformę Inteligencji", system lokalny dla „zdecentralizowanego umysłu" i odpowiedź na scentralizowaną AI.
Strona wizji QVAC argumentuje, że kierowanie każdej myśli przez scentralizowane serwery jest zbyt wolne, kruche i kontrolowane, a następnie umieszcza QVAC jako natywną krawędziową podstawę dla inteligencji, którą posiadają użytkownicy.
To ujęcie odzwierciedla szerszą ofertę stablecoina Tethera. Pieniądze powinny przemieszczać się bez zezwolenia. Dane powinny pozostawać przy użytkowniku. Inteligencja powinna działać tam, gdzie jest użytkownik.
Jednak najpoważniejsze twierdzenie kryje się pod odwołaniem do Asimova. Tether twierdzi, że AI staje się trwalsza, gdy zachowuje się jak odporna infrastruktura.
Model chmurowy może być bardziej wydajny, jednak wiąże się z ryzykiem dostawcy, ryzykiem cenowym, ryzykiem polityki, ryzykiem opóźnień i ryzykiem routingu danych.
Model lokalny rezygnuje z części krzywej możliwości granicznych w zamian za własność, prywatność i ciągłość.
Ten kompromis jest znany w kryptowalutach. Samodzielne przechowywanie jest mniej wygodne niż giełda, dopóki giełda nie upadnie. Lokalna AI jest mniej wygodna niż hostowany model graniczny, dopóki sieć nie wypadnie, API się nie zmieni, konto nie zostanie zamknięte lub dane nie będą mogły opuścić urządzenia.
Kluczowe wyróżnienie QVAC ma charakter architektoniczny. OpenAI, Anthropic, Google DeepMind i xAI konkurują w zakresie maksymalnych ogólnych możliwości, kodowania, multimodalności, długiego rozumowania kontekstowego, zachowań agentycznych i dystrybucji w chmurze dla przedsiębiorstw.
QVAC celuje w inną oś: możliwość wdrożenia, prywatność, opóźnienia, komponowalność i przetrwanie poza jednym dostawcą.
Dokumentacja powitalna QVAC definiuje projekt jako ekosystem open-source, wieloplatformowy dla aplikacji AI lokalnych, peer-to-peer na systemach Linux, macOS, Windows, Android i iOS. Ta sama dokumentacja mówi, że użytkownicy mogą uruchamiać LLM, wykonywać rozpoznawanie mowy i generowanie wspomagane wyszukiwaniem oraz obsługiwać inne zadania AI lokalnie lub delegować wnioskowanie do partnerów za pośrednictwem wbudowanych możliwości P2P.
To daje QVAC inny punkt odniesienia niż laboratoria graniczne. Graniczna AI optymalizuje pod kątem najsilniejszego ogólnego modelu dostępnego przez scentralizowaną usługę. QVAC optymalizuje pod kątem tego, gdzie odbywa się wnioskowanie, kto kontroluje środowisko wykonawcze, jakie dane opuszczają urządzenie i czy aplikacja może nadal działać, gdy scentralizowane usługi staną się niedostępne.
Premiera SDK Tethera w kwietniu 2026 r. opisuje ujednolicony zestaw deweloperski, który umożliwia deweloperom budowanie, uruchamianie i dostrajanie AI na dowolnym urządzeniu, z aplikacjami zaprojektowanymi do uruchamiania bez zmian na iOS, Android, Windows, macOS i Linux.
Mówi również, że QVAC SDK używa ujednoliconej warstwy abstrakcji nad lokalnymi silnikami wnioskowania, w tym QVAC Fabric, forka llama.cpp, oraz integracji z whisper.cpp, Parakeet i Bergamot do obsługi mowy i tłumaczenia.
To jest bliższe warstwie operacyjnej niż pojedynczemu wydaniu modelu. Ekosystem AI open-source ma już potężne elementy: Llama, Qwen, Mistral, Gemma, DeepSeek, Hugging Face, llama.cpp, Ollama, vLLM, LM Studio i długi ogon lokalnych projektów wnioskowania.
Zakład QVAC polega na tym, że deweloperzy potrzebują spójnego frameworka krawędziowego, który łączy ładowanie modelu, wnioskowanie, mowę, OCR, tłumaczenie, generowanie obrazów, RAG, dystrybucję modeli P2P, delegowane wnioskowanie i lokalne dostrajanie przez jeden interfejs.
QVAC pozycjonuje się jako warstwa dystrybucji inteligencji, zakładając, że wystarczająco dobre modele lokalne będą nadal się poprawiać.
QVAC Fabric jest technicznym centrum tego twierdzenia. Tether twierdzi, że Fabric obsługuje dostrajanie na nowoczesnym sprzęcie konsumenckim przez backendy Vulkan i Metal, w tym urządzenia Android z procesorami GPU Qualcomm Adreno lub ARM Mali, urządzenia Apple Silicon oraz standardowe konfiguracje Windows lub Linux ze sprzętem AMD, Intel lub NVIDIA.
Opisuje również dynamiczne kafelkowanie dla ograniczeń pamięci GPU urządzeń mobilnych i przepływ pracy LoRA z akceleracją GPU i dostrajaniem instrukcji z maskowaną stratą.
Jeśli ten przepływ pracy sprawdzi się w użyciu przez zewnętrznych deweloperów, różnica od typowych wydań modeli open-source stanie się istotna. Wagi modelu to jedna warstwa. Lokalna adaptacja staje się następną warstwą.
MedPsy daje QVAC pierwszy konkretny punkt dowodowy na poziomie modelu. Raport techniczny Hugging Face, opublikowany 7 maja, przedstawia QVAC MedPsy jako rodzinę wyłącznie tekstowych medycznych i zdrowotnych modeli językowych zbudowanych do wdrożenia krawędziowego przy 1,7 miliarda i 4 miliardach parametrów.
Twierdzenie jest ambitne: mniejsze modele, wytrenowane przez ściśle kontrolowany pipeline post-treningowy w dziedzinie medycyny, mogą przewyższać większe medyczne modele bazowe, pozostając jednocześnie praktyczne dla laptopów, zaawansowanych urządzeń mobilnych i aplikacji klasy smartfonowej.
QVAC twierdzi, że MedPsy-1.7B osiąga wynik 62,62 w siedmiu zamkniętych benchmarkach medycznych, powyżej MedGemma-1.5-4B-it Google na poziomie 51,20, mimo że jest mniej niż połowy jego rozmiaru.
Twierdzi również, że MedPsy-4B osiąga wynik 70,54, nieznacznie powyżej MedGemma-27B-text-it na poziomie 69,95, będąc jednocześnie prawie siedem razy mniejszym.
W HealthBench i HealthBench Hard QVAC raportuje większą lukę, z MedPsy-4B osiągającym 74,00 i 58,00 w porównaniu do MedGemma-27B-text-it na poziomie 65,00 i 42,67 w ocenie CompassJudger pokazanej w raporcie.
Te wyniki, jeśli zostaną niezależnie odtworzone, wesprą główną tezę QVAC: specyficzne dla domeny modele w skali krawędziowej mogą rywalizować z o wiele większymi systemami w ograniczonych, wysokowartościowych kategoriach.
Receptura treningowa pokazuje również, jak QVAC planuje konkurować. Raport mówi, że MedPsy używa szkieletów Qwen3, a następnie stosuje wieloetapowe nadzorowane dostrajanie i uczenie przez wzmacnianie do zadań medycznego QA.
Wygenerował ponad 30 milionów syntetycznych wierszy podczas eksperymentów, użył dwuetapowego programu nauczania i wybrał Baichuan-M3-235B jako jedyny model nauczyciela do nadzoru rozumowania długoformowego. QVAC stwierdza również, że korpus treningowy nie został jeszcze opublikowany. To zastrzeżenie jest kluczowe.
Najsilniejsze publiczne twierdzenia dotyczące benchmarków nadal pochodzą od samego QVAC, a dane treningowe potrzebne do pełnego zbadania skażenia, zasięgu, konstrukcji podpowiedzi i wpływu nauczyciela pozostają niedostępne.
Aspekt krawędziowy staje się ostrzejszy przy kwantyzacji. QVAC twierdzi, że warianty GGUF są publikowane dla llama.cpp i QVAC SDK, przy czym Q4_K_M redukuje rozmiar pliku o 69%, tracąc mniej niż jeden punkt średniego wyniku dla obu rozmiarów MedPsy.
Raport zaleca Q4_K_M z kalibracją imatrix jako kompromis między rozmiarem a jakością: 2,72 GB dla modelu 4B i 1,28 GB dla modelu 1.7B. FAQ modeli QVAC ostrzega również, że MedPsy jest wyłącznie tekstowy, wyłącznie anglojęzyczny, nieodpowiedni do nagłych przypadków, podatny na halucynacje i zależny od deweloperów zachowujących prywatność w całej architekturze aplikacji. To nadaje technicznemu centrum właściwy kształt.
MedPsy jest obiecujący, ponieważ medycyna ma mocne powody, by preferować lokalne wnioskowanie. Pozostaje nieudowodniony, dopóki zewnętrzni badacze nie odtworzą drabiny benchmarków i nie przetestują go w rzeczywistych ograniczeniach klinicznych przepływów pracy.
Debata o AI lokalnym kontra chmurowym jest zwykle ujmowana jako wybór między prywatnością a wydajnością. QVAC przeformułowuje ją jako wygodę kontra kontrolę.
Chmurowa AI wygrywa łatwością. Użytkownik otwiera aplikację, wysyła podpowiedź, otrzymuje odpowiedź i unika operacyjnego ciężaru wag modelu, pamięci urządzenia, kwantyzacji, embeddingów lub kompatybilności środowiska wykonawczego.
Dostawca absorbuje złożoność. Ta wygoda jest potężna i wyjaśnia, dlaczego scentralizowane platformy AI skalowały się tak szybko. Użytkownik otrzymuje możliwości graniczne przy minimalnej konfiguracji.
QVAC prosi deweloperów i użytkowników o przyjęcie większej odpowiedzialności w zamian za inny model bezpieczeństwa. Nagrodą jest lokalne wykonanie, działanie offline, zmniejszona ekspozycja danych, mniejsza zależność od dostępu do API i ścieżka ku peer-to-peer wnioskowania i dystrybucji modeli.
Premiera SDK Tethera mówi, że aplikacje zasilane przez QVAC mogą nadal działać w środowiskach o niskiej łączności i że „jeśli internet padnie, AI nadal działa". Ogłoszenie QVAC z 2025 r. poszło dalej, opisując agenty AI działające bezpośrednio na lokalnych urządzeniach, sieć peer-to-peer do współpracy między urządzeniami i integrację WDK, która pozwoliłaby agentom AI dokonywać transakcji w BTC i USDt.
To jest pełna teza Tethera: pieniądze, obliczenia i autonomiczne agenty powinny dzielić ten sam suwerenny wzorzec projektowy.
Twierdzenie o decentralizacji nie jest tak proste, jak niektórzy by chcieli. QVAC jest znacząco zdecentralizowany na warstwie wnioskowania, gdy użytkownik może pobrać model, uruchomić go lokalnie i przechowywać wrażliwe dane na urządzeniu.
Jest bardziej zdecentralizowany niż hostowane API, ponieważ dostawca nie siedzi już wewnątrz każdej podpowiedzi.
Dodaje również prymitywy peer-to-peer poprzez stos Holepunch, w tym delegowane wnioskowanie i zdecentralizowaną dystrybucję modeli, zgodnie z materiałami SDK Tethera. To są istotne wybory projektowe.
Zarządzanie to osobna warstwa. QVAC jest finansowany, nazwany, koordynowany i promowany przez Tethera. Flagowe aplikacje, rodzina modeli, mapa drogowa SDK i język „Stable Intelligence" — wszystko pochodzi od jednego korporacyjnego sponsora.
Ta struktura współistnieje z propozycją wartości lokalnej. Zawęża twierdzenie o decentralizacji do miejsca, gdzie dowody są najsilniejsze.
QVAC decentralizuje miejsce, w którym może odbywać się wnioskowanie. Szerszy ekosystem nadal potrzebuje dowodów na rozproszoną kontrolę nad domyślnymi rejestrami, kanałami wydań, konwencjami bezpieczeństwa, włączeniem modeli i długoterminowym zarządzaniem.
Wiarygodność QVAC opiera się teraz na replikacji. Jeśli wyniki MedPsy zostaną odtworzone poza własną uprzężą ewaluacyjną QVAC, Tether będzie miał wiarygodny pierwszy przykład swojej tezy o rezerwie inteligencji: małe, otwarte, lokalnie wdrażalne modele, które mogą konkurować z większymi systemami zorientowanymi na chmurę w wrażliwej domenie.
Jeśli niezależne testy zawężą lub odwrócą lukę benchmarkową, QVAC nadal ma argument infrastrukturalny, podczas gdy jego twierdzenie modelowe ma mniejszą wagę. Szersza walka wraca wtedy do najstarszej wymiany w technologii: wygoda koncentruje władzę, podczas gdy kontrola narzuca pracę.
W tym miejscu oferta Asimova staje się użyteczna. Psychohistoria w Fundacji zajmowała się dużymi systemami pod wpływem stresu. Wersja Tethera skupia się na infrastrukturze pod centralizmem. Język jest wzniosły, a techniczny dowód pozostaje wczesny, ale kierunek jest spójny.
Tether wykorzystuje przepływy pieniężne największego stablecoina na świecie do budowania stosu AI skoncentrowanego na lokalnym wykonaniu, sieciach peer, otwartych narzędziach i modelach w skali krawędziowej. Rozszerza przesłankę stablecoina od pieniędzy do inteligencji.
Pytanie nie brzmi już, czy firma stablecoinowa może sobie pozwolić na budowanie AI. Tether wyraźnie może.
Pytanie brzmi, czy QVAC może produkować modele i infrastrukturę wystarczająco silne, by skłonić użytkowników do zaakceptowania tarcia lokalnej kontroli.
MedPsy to pierwszy mierzalny próg. Niezależna replikacja określi, czy język psychohistorii QVAC pozostanie metaforą, czy zacznie przypominać wczesną logikę operacyjną poważnego stosu edge-AI.
The post Tether launches decentralized local AI using Isaac Asimov's Psychohistory straight out of Foundation appeared first on CryptoSlate.


