LangChains Deep Agents SDK ermöglicht es KI-Modellen nun zu entscheiden, wann ihre Kontextfenster komprimiert werden sollen, wodurch manuelle Eingriffe in lang laufende Agent-Workflows reduziert werden. (ReadLangChains Deep Agents SDK ermöglicht es KI-Modellen nun zu entscheiden, wann ihre Kontextfenster komprimiert werden sollen, wodurch manuelle Eingriffe in lang laufende Agent-Workflows reduziert werden. (Read

LangChain gibt KI-Agenten Kontrolle über ihre eigene Speicherverwaltung

2026/03/12 09:55
3 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

LangChain gibt AI Agents die Kontrolle über ihr eigenes Speichermanagement

Terrill Dicki 12.03.2026 01:55

LangChains Deep Agents SDK lässt KI-Modelle nun entscheiden, wann ihre Kontextfenster komprimiert werden sollen, wodurch manuelle Eingriffe in langfristige Agent-Workflows reduziert werden.

LangChain gibt AI Agents die Kontrolle über ihr eigenes Speichermanagement

LangChain hat ein Update für sein Deep Agents SDK veröffentlicht, das KI-Modellen die Kontrolle über ihr eigenes Speichermanagement übergibt. Die neue Funktion, angekündigt am 11.03.2026, ermöglicht es Agents, Kontextkomprimierung autonom auszulösen, anstatt sich auf feste Token-Schwellenwerte oder manuelle Benutzerbefehle zu verlassen.

Die Änderung adressiert ein anhaltendes Problem in der Agent-Entwicklung: Kontextfenster füllen sich zu ungünstigen Zeitpunkten. Aktuelle Systeme komprimieren den Speicher typischerweise, wenn 85% des Kontextlimits eines Modells erreicht sind – was möglicherweise mitten in einem Refactoring oder während einer komplexen Debugging-Sitzung geschieht. Schlechtes Timing führt zu verlorenem Kontext und unterbrochenen Workflows.

Warum Timing wichtig ist

Kontextkomprimierung ist nicht neu. Die Technik ersetzt ältere Nachrichten durch komprimierte Zusammenfassungen, um Agents innerhalb ihrer Token-Limits zu halten. Aber wann Sie komprimieren, ist genauso wichtig wie ob Sie komprimieren.

LangChains Implementierung identifiziert mehrere optimale Komprimierungsmomente: Aufgabengrenzen, wenn Benutzer den Fokus wechseln, nach dem Extrahieren von Schlussfolgerungen aus großen Recherchekontexten oder vor dem Beginn umfangreicher Mehrfachdatei-Bearbeitungen. Der Agent lernt im Wesentlichen, aufzuräumen, bevor er mit unordentlicher Arbeit beginnt, anstatt zu improvisieren, wenn der Platz ausgeht.

Forschung von Factory AI, veröffentlicht im Dezember 2024, unterstützt diesen Ansatz. Ihre Analyse ergab, dass strukturierte Zusammenfassung – die Erhaltung der Kontextkontinuität statt aggressiver Kürzung – für komplexe Agent-Aufgaben wie Debugging entscheidend war. Agents, die die Workflow-Struktur beibehielten, übertrafen jene, die einfache Abschneide-Methoden verwendeten, deutlich.

Technische Implementierung

Das Tool wird als Middleware für das Deep Agents SDK (Python) ausgeliefert und integriert sich in die bestehende CLI. Entwickler fügen es ihrer Agent-Konfiguration hinzu:

Das System behält 10% des verfügbaren Kontexts als aktuelle Nachrichten bei und fasst alles Vorherige zusammen. LangChain hat ein Sicherheitsnetz eingebaut – die vollständige Gesprächshistorie bleibt im virtuellen Dateisystem des Agents erhalten, was eine Wiederherstellung ermöglicht, falls die Komprimierung schiefgeht.

Interne Tests zeigten, dass Agents beim Auslösen der Komprimierung konservativ vorgehen. LangChain validierte die Funktion anhand ihres Terminal-bench-2 Benchmarks und benutzerdefinierter Evaluierungssuites unter Verwendung von LangSmith Traces. Wenn Agents autonom komprimierten, wählten sie durchweg Momente, die die Workflow-Kontinuität verbesserten.

Das größere Bild

Diese Veröffentlichung spiegelt eine umfassendere Verschiebung in der Agent-Architektur-Philosophie wider. LangChain bezieht sich explizit auf Richard Suttons „bittere Lektion" – die Beobachtung, dass allgemeine Methoden, die Rechenleistung nutzen, im Laufe der Zeit dazu neigen, handabgestimmte Ansätze zu übertreffen.

Anstatt dass Entwickler sorgfältig konfigurieren, wann Agents den Speicher verwalten sollen, delegiert das Framework diese Entscheidung an das Modell selbst. Es ist eine Wette darauf, dass die Reasoning-Fähigkeiten in Modellen wie GPT-5.4 den Punkt erreicht haben, an dem sie diese operativen Entscheidungen zuverlässig treffen können.

Für Entwickler, die langfristige oder interaktive Agents erstellen, ist die Funktion über das SDK optional verfügbar und über den /compact Befehl in der CLI zugänglich. Die praktische Auswirkung: weniger unterbrochene Workflows und weniger Benutzerbetreuung rund um Kontextlimits, die die meisten Endbenutzer ohnehin nicht verstehen.

Bildquelle: Shutterstock
  • langchain
  • AI Agents
  • Kontextkomprimierung
  • Deep Agents SDK
  • Entwicklertools
Marktchance
DeepBook Logo
DeepBook Kurs(DEEP)
$0.032393
$0.032393$0.032393
+5.43%
USD
DeepBook (DEEP) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.