Darius Baruo
02 de dez de 2025 19:09
A NVIDIA apresenta o Mistral 3, uma nova linha de modelos de IA, oferecendo precisão e eficiência inigualáveis. Otimizados para GPUs NVIDIA, estes modelos melhoram a implementação de IA em várias indústrias.
A NVIDIA revelou a sua mais recente família de modelos de IA, Mistral 3, prometendo precisão e eficiência sem precedentes para desenvolvedores e empresas. Conforme relatado pelo blog de desenvolvedores da NVIDIA, estes modelos foram otimizados para implementação em GPUs NVIDIA, desde centros de dados de alta performance até plataformas de edge.
A Família de Modelos Mistral 3
A família Mistral 3 inclui uma gama diversificada de modelos adaptados para várias aplicações. Apresenta um modelo multimodal e multilíngue esparso de grande escala com 675 mil milhões de parâmetros, juntamente com modelos densos menores chamados Ministral 3, disponíveis em tamanhos de parâmetros de 3B, 8B e 14B. Cada tamanho de modelo vem em três variantes: Base, Instruct e Reasoning, fornecendo um total de nove modelos.
Estes modelos são treinados em GPUs NVIDIA Hopper e estão acessíveis através do Mistral AI no Hugging Face. Os desenvolvedores podem implementar estes modelos usando diferentes formatos de precisão de modelo e frameworks de código aberto, garantindo compatibilidade com uma variedade de GPUs NVIDIA.
Desempenho e Otimização
O modelo Mistral Large 3 da NVIDIA alcança um desempenho notável na plataforma GB200 NVL72, aproveitando um conjunto de otimizações adaptadas para modelos de grande mistura de especialistas (MoE). Com melhorias de desempenho até 10 vezes superiores às gerações anteriores, o modelo Mistral Large 3 demonstra ganhos significativos na experiência do utilizador, eficiência de custos e uso de energia.
Este aumento de desempenho é atribuído ao TensorRT-LLM Wide Expert Parallelism da NVIDIA, inferência de baixa precisão usando NVFP4, e o framework NVIDIA Dynamo, que melhora o desempenho para cargas de trabalho de contexto longo.
Implementação Edge e Versatilidade
Os modelos Ministral 3, projetados para implementação edge, oferecem flexibilidade e desempenho para uma variedade de aplicações. Estes modelos são otimizados para NVIDIA GeForce RTX AI PC, DGX Spark e plataformas Jetson. O desenvolvimento local beneficia da aceleração NVIDIA, proporcionando velocidades de inferência rápidas e melhor privacidade de dados.
Os desenvolvedores Jetson, em particular, podem utilizar o contentor vLLM para alcançar processamento eficiente de tokens, tornando estes modelos ideais para ambientes de computação edge.
Desenvolvimentos Futuros e Comunidade de Código Aberto
Olhando para o futuro, a NVIDIA planeia melhorar ainda mais os modelos Mistral 3 com otimizações de desempenho futuras como decodificação especulativa. Além disso, a colaboração da NVIDIA com comunidades de código aberto como vLLM e SGLang visa expandir integrações de kernel e suporte de paralelismo.
Com estes desenvolvimentos, a NVIDIA continua a apoiar a comunidade de IA de código aberto, fornecendo uma plataforma robusta para que os desenvolvedores construam e implementem soluções de IA de forma eficiente. Os modelos Mistral 3 estão disponíveis para download no Hugging Face ou podem ser testados diretamente através da plataforma de construção da NVIDIA.
Fonte da imagem: Shutterstock
Fonte: https://blockchain.news/news/nvidia-mistral-3-models-boost-ai-efficiency








