A Nvidia deu mais um grande passo na corrida global rumo a soluções de IA de ponta. A empresa afirma que os seus novos chips Rubin para centros de dados estão quase prontos para lançamento ainda este ano, e os clientes em breve começarão a testá-los.
Todos os seis chips Rubin regressaram dos parceiros de fabrico da Nvidia, disse a Nvidia. Estes chips já foram submetidos a vários procedimentos-chave de teste e estão no prazo previsto para serem utilizados pelos clientes. A empresa observa que este progresso inicial é importante porque as empresas de IA e os centros de dados estão numa corrida para obter hardware mais rápido e mais eficiente.
O Diretor Executivo da Nvidia, Jensen Huang, partilhou a atualização num discurso principal na Consumer Electronics Show (CES) em Las Vegas. A CES está entre os maiores encontros de tecnologia do mundo, onde os fabricantes revelam novos produtos e ideias. "A corrida pela IA está em andamento", disse Huang no meio da corrida em rápido desenvolvimento entre empresas tecnológicas para desbloquear a próxima geração de IA.
Os seus comentários indicam que a Nvidia está muito confiante de que ainda pode ser o fabricante número um mundial de aceleradores de IA. Estes aceleradores são chips especializados que um centro de dados utiliza para treinar e executar modelos de IA, que alimentam ferramentas como chatbots, sistemas de reconhecimento de imagens e robôs avançados.
O Rubin é o mais recente acelerador de IA da Nvidia, seguindo a sua geração anterior chamada Blackwell. A empresa afirma que o Rubin é 3,5 vezes mais rápido no treino de modelos de IA e cinco vezes mais rápido na execução de software de IA em comparação com o Blackwell. O treino de IA envolve ensinar modelos a aprender com grandes quantidades de dados, enquanto executar IA significa utilizar esses modelos para realizar tarefas em tempo real.
O Rubin adiciona uma nova unidade central de processamento (CPU) com 88 núcleos. Os núcleos são as partes de um chip que realizam cálculos e processam dados. Com o dobro do desempenho do chip que substitui, esta nova CPU é mais adequada para cargas de trabalho de IA mais complexas. Na conferência GTC de primavera da Nvidia na Califórnia, a empresa normalmente partilha todos os detalhes do produto.
Desta vez, mais informações foram esgotadas do que o habitual. A medida é considerada um meio de manter consumidores e programadores focados no hardware da Nvidia, à medida que a adoção de IA continua a crescer rapidamente. O próprio Huang também fez inúmeras aparições públicas promovendo produtos de IA, parcerias e investimentos. A Nvidia não foi o único interveniente em destaque na CES. Lisa Su, CEO da fabricante rival de chips Advanced Micro Devices (AMD), também reservou um discurso principal, destacando a crescente concorrência no mercado de chips.
Alguns investidores preocuparam-se com o facto de a concorrência para a Nvidia estar a intensificar-se. Outras empresas tecnológicas também estão a desenvolver os seus próprios chips de IA, tornando difícil dizer se os gastos em IA podem manter o ritmo.
A Nvidia, no entanto, tem estado otimista, acreditando que o mercado de IA a longo prazo pode valer triliões de dólares, impulsionado pela procura de indústrias como computação nuvem, empresas e setores emergentes.
O hardware Rubin será utilizado no DGX SuperPod da Nvidia, um supercomputador poderoso projetado para trabalho de IA em grande escala. Ao mesmo tempo, os clientes poderão comprar os chips Rubin como componentes individuais, permitindo-lhes construir sistemas mais flexíveis e modulares.
O aumento do desempenho é particularmente crítico, dado que os sistemas de IA continuam a evoluir. A IA moderna depende cada vez mais de redes de modelos especializados que não só processam quantidades massivas de dados, mas também resolvem problemas em múltiplas etapas. Tais tarefas incluem planeamento, raciocínio e tomada de decisões.
A Nvidia também enfatizou que os sistemas baseados em Rubin serão mais baratos de operar do que os sistemas Blackwell. Como o Rubin pode produzir os mesmos resultados com menos componentes, os centros de dados podem poupar em energia e custos operacionais.
Espera-se que as principais empresas de computação nuvem, como a Microsoft, Google Cloud e Amazon Web Services (AWS), estejam entre as primeiras a implementar o hardware Rubin no segundo semestre do ano. Estas empresas atualmente representam a maior parte dos gastos em sistemas de IA alimentados pela Nvidia.
Aprimore a sua estratégia com mentoria + ideias diárias - 30 dias de acesso gratuito ao nosso programa de negociação


