Together AI Atualiza Plataforma de Fine-Tuning com Suporte para Visão e Raciocínio
Joerg Hiller 18 de mar de 2026 18:27
A Together AI adiciona chamada de ferramentas, rastreios de raciocínio e fine-tuning de visão-linguagem à sua plataforma, com ganhos de rendimento de 6x para modelos com mais de 100 mil milhões de parâmetros.
A Together AI lançou uma grande expansão do seu serviço de fine-tuning a 18 de março, adicionando suporte nativo para chamada de ferramentas, rastreios de raciocínio e modelos de visão-linguagem—capacidades que abordam pontos problemáticos persistentes para equipas que desenvolvem sistemas de IA de produção.
A atualização chega quando a empresa está alegadamente a negociar uma ronda de financiamento que a avaliaria em 7,5 mil milhões de dólares, mais do que duplicando a sua avaliação de 3,3 mil milhões de dólares da sua Série B de fevereiro de 2025.
O Que É Realmente Novo
A plataforma agora lida com três categorias de fine-tuning que anteriormente exigiam soluções fragmentadas:
Chamada de ferramentas obtém suporte completo usando esquemas compatíveis com OpenAI. O sistema valida que cada chamada de ferramenta nos dados de treino corresponde às funções declaradas antes do início do treino—uma proteção contra os parâmetros alucinados e incompatibilidades de esquema que afetam fluxos de trabalho agênticos.
Fine-tuning de raciocínio permite que as equipas treinem modelos em rastreios de pensamento específicos de domínio usando um campo reasoning_content dedicado. Isto é importante porque os formatos de raciocínio variam enormemente entre famílias de modelos, tornando o treino consistente difícil sem padronização.
Fine-tuning de visão-linguagem suporta conjuntos de dados híbridos que misturam exemplos de imagem-texto e apenas texto. Por predefinição, o codificador de visão permanece congelado enquanto as camadas de linguagem são atualizadas, embora as equipas possam ativar o treino conjunto quando o reconhecimento de padrões visuais precisa de melhorias.
Atualizações de Infraestrutura
Para além das novas capacidades, a Together AI afirma ganhos significativos de desempenho ao otimizar a sua pilha de treino para arquiteturas mixture-of-experts. A empresa integrou kernels SonicMoE que sobrepõem operações de memória com computação, além de kernels CUDA personalizados para cálculo de perda.
Os resultados variam por tamanho do modelo: modelos mais pequenos apresentam melhorias de rendimento de aproximadamente 2x, enquanto arquiteturas maiores como Kimi-K2 atingem ganhos de 6x. A plataforma agora processa conjuntos de dados até 100GB e modelos que excedem 100 mil milhões de parâmetros.
Os novos modelos disponíveis para fine-tuning incluem variantes Qwen 3.5 (até 397 mil milhões de parâmetros), Kimi K2 e K2.5, e GLM-4.6 e 4.7.
Adições Práticas
A atualização inclui estimativa de custos antes da execução de tarefas e acompanhamento de progresso em tempo real com estimativas dinâmicas de conclusão—funcionalidades que parecem básicas mas previnem as surpresas orçamentais que tornam a experimentação arriscada.
A XY.AI Labs, citada pela Together AI como exemplo de cliente, reportou a transição de ciclos de iteração semanais para diários, reduzindo custos 2-3x e melhorando a precisão de 77% para 87% usando as APIs de fine-tuning e implementação da plataforma.
Contexto de Mercado
O momento alinha-se com um aumento nas despesas de infraestrutura de IA. O financiamento de startups no setor de IA atingiu 220 mil milhões de dólares nos primeiros dois meses de 2026, segundo relatórios recentes, com grande parte desse capital a fluir para infraestrutura de treino e inferência.
A Together AI posiciona-se como uma alternativa à construção de infraestrutura de IA interna, oferecendo acesso a mais de 200 modelos de código aberto através da sua plataforma. A proposta da empresa—remover a complexidade da infraestrutura para que as equipas possam focar-se no desenvolvimento de produtos—estende-se agora a fluxos de trabalho pós-treino cada vez mais sofisticados que anteriormente eram o domínio de laboratórios de investigação bem financiados.
Fonte da imagem: Shutterstock- together ai
- infraestrutura de ia
- fine-tuning
- machine learning
- ia empresarial








