O SDK Deep Agents da LangChain permite agora que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração. (LerO SDK Deep Agents da LangChain permite agora que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração. (Ler

LangChain Dá aos Agentes de IA Controlo Sobre a Sua Própria Gestão de Memória

2026/03/12 09:55
Leu 4 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

LangChain Dá aos Agentes de IA Controlo Sobre a Sua Própria Gestão de Memória

Terrill Dicki 12 de mar. de 2026 01:55

O Deep Agents SDK da LangChain permite agora que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração.

LangChain Dá aos Agentes de IA Controlo Sobre a Sua Própria Gestão de Memória

A LangChain lançou uma atualização ao seu Deep Agents SDK que entrega aos modelos de IA as chaves da sua própria gestão de memória. A nova funcionalidade, anunciada a 11 de março de 2026, permite aos agentes acionar autonomamente a compressão de contexto em vez de depender de limites fixos de tokens ou comandos manuais do utilizador.

A mudança aborda um problema persistente no desenvolvimento de agentes: as janelas de contexto enchem-se em alturas inconvenientes. Os sistemas atuais tipicamente compactam a memória ao atingir 85% do limite de contexto de um modelo—o que pode acontecer a meio de uma refatoração ou durante uma sessão complexa de depuração. Um mau timing leva à perda de contexto e fluxos de trabalho interrompidos.

Porque é que o Timing É Importante

A compressão de contexto não é nova. A técnica substitui mensagens mais antigas por resumos condensados para manter os agentes dentro dos seus limites de tokens. Mas quando se comprime importa tanto quanto se se comprime.

A implementação da LangChain identifica vários momentos ótimos de compressão: limites de tarefas quando os utilizadores mudam de foco, após extrair conclusões de grandes contextos de investigação, ou antes de iniciar edições longas de múltiplos ficheiros. O agente essencialmente aprende a arrumar a casa antes de começar trabalho confuso em vez de se desesperar quando fica sem espaço.

A investigação da Factory AI publicada em dezembro de 2024 suporta esta abordagem. A sua análise concluiu que a sumarização estruturada—preservando a continuidade do contexto em vez de truncagem agressiva—provou ser crítica para tarefas complexas de agentes como depuração. Os agentes que mantiveram a estrutura do fluxo de trabalho superaram significativamente aqueles que usaram métodos simples de corte.

Implementação Técnica

A ferramenta é fornecida como middleware para o Deep Agents SDK (Python) e integra-se com o CLI existente. Os programadores adicionam-na à sua configuração de agente:

O sistema retém 10% do contexto disponível como mensagens recentes enquanto resume tudo o que é anterior. A LangChain incorporou uma rede de segurança—o histórico completo da conversa persiste no sistema de ficheiros virtual do agente, permitindo recuperação se a compressão correr mal.

Os testes internos mostraram que os agentes são conservadores ao acionar a compressão. A LangChain validou a funcionalidade contra o seu benchmark Terminal-bench-2 e suítes de avaliação personalizadas usando traços LangSmith. Quando os agentes comprimiram autonomamente, escolheram consistentemente momentos que melhoraram a continuidade do fluxo de trabalho.

O Panorama Geral

Este lançamento reflete uma mudança mais ampla na filosofia de arquitetura de agentes. A LangChain referencia explicitamente a "lição amarga" de Richard Sutton—a observação de que métodos gerais que aproveitam a computação tendem a superar abordagens meticulosamente ajustadas ao longo do tempo.

Em vez de os programadores configurarem meticulosamente quando os agentes devem gerir a memória, a framework delega essa decisão ao próprio modelo. É uma aposta de que as capacidades de raciocínio em modelos como o GPT-5.4 atingiram o ponto em que podem tomar estas decisões operacionais de forma fiável.

Para programadores que constroem agentes de longa duração ou interativos, a funcionalidade é opcional através do SDK e está disponível via comando /compact no CLI. O impacto prático: menos fluxos de trabalho interrompidos e menos assistência ao utilizador em torno de limites de contexto que a maioria dos utilizadores finais não compreende de qualquer forma.

Fonte da imagem: Shutterstock
  • langchain
  • agentes de ia
  • compressão de contexto
  • deep agents sdk
  • ferramentas de programador
Oportunidade de mercado
Logo de DeepBook
Cotação DeepBook (DEEP)
$0,032405
$0,032405$0,032405
+5,47%
USD
Gráfico de preço em tempo real de DeepBook (DEEP)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.