A Together AI adiciona chamada de ferramentas, rastreios de raciocínio e ajuste fino de visão-linguagem à sua plataforma, com ganhos de rendimento de 6x para modelos com mais de 100B parâmetros. (Ler MaisA Together AI adiciona chamada de ferramentas, rastreios de raciocínio e ajuste fino de visão-linguagem à sua plataforma, com ganhos de rendimento de 6x para modelos com mais de 100B parâmetros. (Ler Mais

Together AI Atualiza Plataforma de Fine-Tuning com Suporte a Visão e Raciocínio

2026/03/19 02:27
Leu 4 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

Together AI Atualiza Plataforma de Fine-Tuning com Suporte para Visão e Raciocínio

Joerg Hiller 18 de mar de 2026 18:27

A Together AI adiciona chamada de ferramentas, rastreios de raciocínio e fine-tuning de visão-linguagem à sua plataforma, com ganhos de rendimento de 6x para modelos com mais de 100 mil milhões de parâmetros.

Together AI Atualiza Plataforma de Fine-Tuning com Suporte para Visão e Raciocínio

A Together AI lançou uma grande expansão do seu serviço de fine-tuning a 18 de março, adicionando suporte nativo para chamada de ferramentas, rastreios de raciocínio e modelos de visão-linguagem—capacidades que abordam pontos problemáticos persistentes para equipas que desenvolvem sistemas de IA de produção.

A atualização chega quando a empresa está alegadamente a negociar uma ronda de financiamento que a avaliaria em 7,5 mil milhões de dólares, mais do que duplicando a sua avaliação de 3,3 mil milhões de dólares da sua Série B de fevereiro de 2025.

O Que É Realmente Novo

A plataforma agora lida com três categorias de fine-tuning que anteriormente exigiam soluções fragmentadas:

Chamada de ferramentas obtém suporte completo usando esquemas compatíveis com OpenAI. O sistema valida que cada chamada de ferramenta nos dados de treino corresponde às funções declaradas antes do início do treino—uma proteção contra os parâmetros alucinados e incompatibilidades de esquema que afetam fluxos de trabalho agênticos.

Fine-tuning de raciocínio permite que as equipas treinem modelos em rastreios de pensamento específicos de domínio usando um campo reasoning_content dedicado. Isto é importante porque os formatos de raciocínio variam enormemente entre famílias de modelos, tornando o treino consistente difícil sem padronização.

Fine-tuning de visão-linguagem suporta conjuntos de dados híbridos que misturam exemplos de imagem-texto e apenas texto. Por predefinição, o codificador de visão permanece congelado enquanto as camadas de linguagem são atualizadas, embora as equipas possam ativar o treino conjunto quando o reconhecimento de padrões visuais precisa de melhorias.

Atualizações de Infraestrutura

Para além das novas capacidades, a Together AI afirma ganhos significativos de desempenho ao otimizar a sua pilha de treino para arquiteturas mixture-of-experts. A empresa integrou kernels SonicMoE que sobrepõem operações de memória com computação, além de kernels CUDA personalizados para cálculo de perda.

Os resultados variam por tamanho do modelo: modelos mais pequenos apresentam melhorias de rendimento de aproximadamente 2x, enquanto arquiteturas maiores como Kimi-K2 atingem ganhos de 6x. A plataforma agora processa conjuntos de dados até 100GB e modelos que excedem 100 mil milhões de parâmetros.

Os novos modelos disponíveis para fine-tuning incluem variantes Qwen 3.5 (até 397 mil milhões de parâmetros), Kimi K2 e K2.5, e GLM-4.6 e 4.7.

Adições Práticas

A atualização inclui estimativa de custos antes da execução de tarefas e acompanhamento de progresso em tempo real com estimativas dinâmicas de conclusão—funcionalidades que parecem básicas mas previnem as surpresas orçamentais que tornam a experimentação arriscada.

A XY.AI Labs, citada pela Together AI como exemplo de cliente, reportou a transição de ciclos de iteração semanais para diários, reduzindo custos 2-3x e melhorando a precisão de 77% para 87% usando as APIs de fine-tuning e implementação da plataforma.

Contexto de Mercado

O momento alinha-se com um aumento nas despesas de infraestrutura de IA. O financiamento de startups no setor de IA atingiu 220 mil milhões de dólares nos primeiros dois meses de 2026, segundo relatórios recentes, com grande parte desse capital a fluir para infraestrutura de treino e inferência.

A Together AI posiciona-se como uma alternativa à construção de infraestrutura de IA interna, oferecendo acesso a mais de 200 modelos de código aberto através da sua plataforma. A proposta da empresa—remover a complexidade da infraestrutura para que as equipas possam focar-se no desenvolvimento de produtos—estende-se agora a fluxos de trabalho pós-treino cada vez mais sofisticados que anteriormente eram o domínio de laboratórios de investigação bem financiados.

Fonte da imagem: Shutterstock
  • together ai
  • infraestrutura de ia
  • fine-tuning
  • machine learning
  • ia empresarial
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

$30,000 em PRL + 15,000 USDT

$30,000 em PRL + 15,000 USDT$30,000 em PRL + 15,000 USDT

Deposite e negocie PRL e aumente suas recompensas!