Das in China ansässige KI-Startup DeepSeek hat sein neuestes experimentelles Sprachmodell, V3.2-exp, vorgestellt, das die Inferenzkosten für Aufgaben mit langem Kontext fast halbieren soll.
Das am Montag angekündigte Modell zielt darauf ab, eine der dringendsten Herausforderungen bei der großflächigen KI-Einführung zu bewältigen: die Kosten für die Verarbeitung umfangreicher Eingaben.
V3.2-exp nutzt ein neues System namens DeepSeek Sparse Attention, das einen "Lightning Indexer" mit einem sekundären Modul für die feinkörnige Token-Auswahl kombiniert.
Zusammen ermöglichen diese Innovationen dem Modell, sich auf die relevantesten Auszüge zu konzentrieren und gleichzeitig Details auf Token-Ebene präzise zu verwalten. Frühe interne Tests deuten darauf hin, dass das System die Serverbelastung erheblich reduzieren kann, wobei die API-Kosten für Operationen mit langem Kontext potenziell um 50% sinken könnten.
Im Gegensatz zu vielen kommerziellen KI-Veröffentlichungen, die geschlossen bleiben, wurde V3.2-exp als Open-Weight-Modell eingeführt. Es ist jetzt auf Hugging Face zugänglich und gibt Forschern, Entwicklern und Unternehmen die Möglichkeit, unabhängige Bewertungen durchzuführen.
Diese Entscheidung unterstreicht DeepSeeks kontinuierliches Streben nach Transparenz und Zusammenarbeit, besonders da Unternehmen zunehmend Behauptungen über Effizienz und Leistung kritisch prüfen.
Die offene Veröffentlichung des Modells entspricht auch DeepSeeks früherer Strategie mit seinem R1-Modell Anfang dieses Jahres, bei dem offenes Benchmarking der Community ermöglichte, seine Argumentationsfähigkeiten zu überprüfen. Durch die Anwendung desselben Ansatzes für V3.2-exp signalisiert DeepSeek Vertrauen in seine Effizienzfortschritte.
Die Einführung von V3.2-exp erfolgt nach einer Reihe von Updates und Experimenten von DeepSeek in den letzten Monaten. Anfang September stellte das Unternehmen DeepSeek-V3.1-Terminus vor, eine Verbesserung zur Steigerung der AI Agent-Leistung und zur Behebung gemeldeter Probleme wie unleserliche Symbole und inkonsistenter Sprachwechsel.
Während dieses Update kleine Verbesserungen bei Benchmarks wie Humanity's Last Exam und Coding-Aufgaben brachte, blieben einige Herausforderungen bestehen, insbesondere bei der chinesischsprachigen Leistung.
Inzwischen haben Branchenberichte enthüllt, dass DeepSeek an einem agentenorientierten Modell der nächsten Generation arbeitet, dessen Enthüllung für Q4 2025 geplant ist. Das Projekt spiegelt einen breiteren Branchentrend hin zu autonomen KI-Systemen wider, die in der Lage sind, mehrstufige Aufgaben mit minimaler menschlicher Aufsicht auszuführen. Die Veröffentlichung von V3.2-exp scheint diese Entwicklung zu ergänzen, indem sie die technologische Grundlage des Unternehmens in Bezug auf Effizienz stärkt, bevor fortschrittlichere Agentenfunktionen eingeführt werden.
DeepSeeks Innovation kommt zu einer Zeit, in der sich der Wettbewerb im chinesischen KI-Sektor intensiviert. Konkurrierende Unternehmen wie Alibaba und Tencent bauen ihre KI-Investitionen dramatisch aus, wobei Alibaba über 380 Milliarden RMB (52,9 Milliarden Dollar) in Cloud- und KI-Infrastruktur zusagt.
Während DeepSeek für das Erreichen kosteneffizienter Ergebnisse mit vergleichsweise bescheidenen Ressourcen gelobt wurde, warnen Analysten, dass das Unternehmen sein Momentum aufrechterhalten muss, um nicht von seinen finanzstarken Rivalen in den Schatten gestellt zu werden.
Der Beitrag Neues DeepSeek-Modell halbiert API-Kosten für erweiterte Kontexte erschien zuerst auf CoinCentral.


