Al CES 2026, Jensen Huang ha portado para o palco algo incomum: não uma placa gráfica de consumo, mas um rack de servidores AI de 2,5 toneladas. Este gesto simbólico introduz aquilo que pode ser definido como a verdadeira “bomba nuclear” do evento: a plataforma de cálculo Vera Rubin, um ecossistema de hardware completamente repensado para acelerar o treino de modelos AI de nova geração.
Seis chips, uma única visão: a arquitetura que desafia o atraso de Moore
Vera Rubin representa uma mudança de paradigma em relação ao passado da NVIDIA. Enquanto tradicionalmente cada geração de processadores via a evolução de apenas 1-2 chips, desta vez a empresa redesenhou simultaneamente 6 componentes diferentes, todos já em produção.
A razão é simples, mas profunda: a lei de Moore já não basta mais. Os modelos AI crescem 10 vezes ao ano, mas as melhorias tradicionais de desempenho não conseguem acompanhar. A NVIDIA optou, portanto, por uma inovação “sincronizada em todos os níveis” da plataforma.
Os seis pilares da “bomba nuclear” tecnológica:
A CPU Vera integra 88 núcleos Olympus personalizados, suporta 176 threads via tecnologia de multithreading espacial NVIDIA, e oferece uma memória de sistema de 1,5 TB—o triplo em relação à geração Grace anterior. A largura de banda NVLink atinge 1,8 TB/s.
A GPU Rubin é a verdadeira estrela: com uma potência de inferência NVFP4 de 50 PFLOPS (5 vezes superior ao Blackwell), contém 336 bilhões de transistores e inclui o terceiro motor Transformer que ajusta dinamicamente a precisão conforme as necessidades.
A placa de rede ConnectX-9 suporta Ethernet a 800 Gb/s com RDMA programável, enquanto o BlueField-4 DPU foi especificamente projetado para gerenciar as novas arquiteturas de armazenamento AI, combinando uma CPU Grace de 64 núcleos com 126 bilhões de transistores.
O switch NVLink-6 conecta até 18 nós de cálculo, permitindo que 72 GPUs Rubin operem como uma única máquina coerente, com uma largura de banda de 3,6 TB/s por GPU. Por fim, o switch óptico Spectrum-6 utiliza 512 canais a 200Gbps cada, integrando a fotônica de silício.
Desempenho que muda o jogo: de 3,5x a 10x de melhoria
No sistema Vera Rubin NVL72, o salto de desempenho em relação ao Blackwell é dramático. A inferência NVFP4 alcança 3,6 EFLOPS (+5x), enquanto o treino chega a 2,5 EFLOPS (+3,5x). A memória disponível quase triplica: 54TB de LPDDR5X e 20,7TB de HBM.
Mas o dado mais impressionante é a eficiência. Apesar de os transistores aumentarem apenas 1,7 vezes (, atingindo 220 trilhões), a produtividade medida em tokens AI por watt-por-dólar cresce 10 vezes. Para um data center de 50 bilhões de dólares e um gigawatt de potência, isso significa dobrar diretamente a capacidade de receita.
Em termos concretos: para treinar um modelo de 100 trilhões de parâmetros, Vera Rubin requer apenas 1/4 dos sistemas Blackwell, e o custo para gerar um token cai para cerca de 1/10 do anterior.
Engenharia revolucionária: da montagem à refrigeração
A “bomba nuclear” de hardware não é apenas potência bruta. A engenharia do Vera Rubin resolve problemas práticos que afligiam os sistemas anteriores. Os antigos nós de supercomputação exigiam 43 cabos e 2 horas de montagem manual; os nós Vera usam zero cabos, apenas 6 tubos de refrigeração líquida, e se montam em 5 minutos.
A parte de trás do rack contém quase 3,2 km de cabos de cobre dedicados: 5.000 cabos formam a espinha dorsal NVLink a 400Gbps. Como ironicamente observou Jensen Huang: “Podem pesar várias centenas de libras—você precisa ser um CEO em ótima forma para esse trabalho”.
O problema da memória de contexto: a solução BlueField-4
A AI contemporânea enfrenta um gargalo crítico: a “KV Cache” (memória de trabalho da AI) cresce com diálogos mais longos e modelos maiores. Vera Rubin resolve isso com os processadores BlueField-4 integrados no rack, cada um com 150TB de memória de contexto.
Cada nó possui 4 BlueField-4, que distribuem memória às GPUs: cada GPU recebe 16TB de memória adicional além dos 1TB nativos, mantendo uma banda de 200Gbps sem comprometer a velocidade.
Spectrum-X: a rede projetada para IA generativa
Para que dezenas de racks e milhares de GPUs trabalhem como uma única memória distribuída, a rede deve ser “grande, rápida e estável”. Spectrum-X é a primeira plataforma Ethernet ponta-a-ponta do mundo especificamente projetada para IA generativa.
A última geração utiliza o processo COOP da TSMC e a fotônica de silício, com 512 canais a 200Gbps cada. O cálculo de Jensen Huang é convincente: ao melhorar a produtividade em 25%, equivale a economizar 5 bilhões de dólares em um data center de 50 bilhões de dólares. “Pode-se dizer que esse sistema de rede é quase gratuito”, destacou.
Da teoria à ação: IA física, robótica e direção autônoma
O foco da “bomba nuclear” não é apenas hardware. Jensen Huang enfatizou como cerca de 10 trilhões de dólares em recursos de cálculo acumulados na última década estão passando por uma modernização completa, mas não apenas hardware—uma mudança de paradigma de software.
A arquitetura dos “três computadores” para IA física:
Computadores de treino baseados em GPUs de classe training, como a arquitetura GB300. Computadores de inferência, o “cerebelo” que toma decisões em tempo real em robôs e dispositivos de borda. Computadores de simulação (Omniverse e Cosmos) que geram ambientes virtuais onde a AI aprende com feedbacks físicos.
Alpamayo: direção autônoma com capacidade de raciocínio
Sobre essa arquitetura, a NVIDIA apresentou o Alpamayo, o primeiro sistema de direção autônoma com verdadeira capacidade de raciocínio. Diferente dos sistemas tradicionais, o Alpamayo é completamente end-to-end e resolve o “problema da cauda longa”—quando enfrenta situações de trânsito nunca antes vistas, não executa apenas código mecânico, mas raciocina como um motorista humano.
O Mercedes CLA equipado com Alpamayo será lançado nos Estados Unidos no primeiro trimestre de 2026, seguido pela Europa e Ásia. O sistema recebeu a avaliação NCAP como o veículo mais seguro do mundo, graças ao “duplo stack de segurança” da NVIDIA: quando o modelo AI tem pouca confiança, o sistema retorna imediatamente a uma modalidade de segurança tradicional.
A estratégia robótica: de Boston Dynamics à Disney
A NVIDIA mostrou como nove grandes empresas de IA e hardware estão todas expandindo para a robótica. Cada robô usará computadores Jetson, será treinado no simulador Isaac do Omniverse, e a tecnologia será integrada nos sistemas industriais da Synopsys, Cadence, Siemens e outros.
Jensen Huang convidou robôs humanoides e quadrúpedes de empresas como Boston Dynamics e Agility, destacando uma perspectiva fascinante: o maior robô é a própria fábrica. A visão é que o design de chips, sistemas e simulações de fábrica será acelerado por IA física.
Por que essa “bomba nuclear” neste momento?
Em um contexto onde cresce o ceticismo sobre uma suposta “bolha AI”, Jensen Huang deu prioridade não apenas à potência bruta de cálculo, mas às aplicações concretas. A “bomba nuclear” de 2,5 toneladas é tanto um símbolo quanto uma promessa: demonstrar que a AI pode realmente transformar tanto o mundo digital quanto o físico.
A NVIDIA, que no passado vendia “pás para mineiros de ouro”, agora entra diretamente no mercado onde as competições são mais acirradas—IA física, robótica, direção autônoma. Como Huang mesmo sugeriu: “Quando a guerra está em andamento, você pode continuar vendendo armas”.
Mas a verdadeira inovação do Vera Rubin não é construir uma “bomba nuclear” de hardware mais potente—é demonstrar que, sincronizando a inovação em todos os níveis da plataforma, os limites tradicionais podem ser superados.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A "bomba nuclear" de 2,5 toneladas no CES 2026: como a NVIDIA está a redesenhar o futuro da IA com Vera Rubin
Al CES 2026, Jensen Huang ha portado para o palco algo incomum: não uma placa gráfica de consumo, mas um rack de servidores AI de 2,5 toneladas. Este gesto simbólico introduz aquilo que pode ser definido como a verdadeira “bomba nuclear” do evento: a plataforma de cálculo Vera Rubin, um ecossistema de hardware completamente repensado para acelerar o treino de modelos AI de nova geração.
Seis chips, uma única visão: a arquitetura que desafia o atraso de Moore
Vera Rubin representa uma mudança de paradigma em relação ao passado da NVIDIA. Enquanto tradicionalmente cada geração de processadores via a evolução de apenas 1-2 chips, desta vez a empresa redesenhou simultaneamente 6 componentes diferentes, todos já em produção.
A razão é simples, mas profunda: a lei de Moore já não basta mais. Os modelos AI crescem 10 vezes ao ano, mas as melhorias tradicionais de desempenho não conseguem acompanhar. A NVIDIA optou, portanto, por uma inovação “sincronizada em todos os níveis” da plataforma.
Os seis pilares da “bomba nuclear” tecnológica:
A CPU Vera integra 88 núcleos Olympus personalizados, suporta 176 threads via tecnologia de multithreading espacial NVIDIA, e oferece uma memória de sistema de 1,5 TB—o triplo em relação à geração Grace anterior. A largura de banda NVLink atinge 1,8 TB/s.
A GPU Rubin é a verdadeira estrela: com uma potência de inferência NVFP4 de 50 PFLOPS (5 vezes superior ao Blackwell), contém 336 bilhões de transistores e inclui o terceiro motor Transformer que ajusta dinamicamente a precisão conforme as necessidades.
A placa de rede ConnectX-9 suporta Ethernet a 800 Gb/s com RDMA programável, enquanto o BlueField-4 DPU foi especificamente projetado para gerenciar as novas arquiteturas de armazenamento AI, combinando uma CPU Grace de 64 núcleos com 126 bilhões de transistores.
O switch NVLink-6 conecta até 18 nós de cálculo, permitindo que 72 GPUs Rubin operem como uma única máquina coerente, com uma largura de banda de 3,6 TB/s por GPU. Por fim, o switch óptico Spectrum-6 utiliza 512 canais a 200Gbps cada, integrando a fotônica de silício.
Desempenho que muda o jogo: de 3,5x a 10x de melhoria
No sistema Vera Rubin NVL72, o salto de desempenho em relação ao Blackwell é dramático. A inferência NVFP4 alcança 3,6 EFLOPS (+5x), enquanto o treino chega a 2,5 EFLOPS (+3,5x). A memória disponível quase triplica: 54TB de LPDDR5X e 20,7TB de HBM.
Mas o dado mais impressionante é a eficiência. Apesar de os transistores aumentarem apenas 1,7 vezes (, atingindo 220 trilhões), a produtividade medida em tokens AI por watt-por-dólar cresce 10 vezes. Para um data center de 50 bilhões de dólares e um gigawatt de potência, isso significa dobrar diretamente a capacidade de receita.
Em termos concretos: para treinar um modelo de 100 trilhões de parâmetros, Vera Rubin requer apenas 1/4 dos sistemas Blackwell, e o custo para gerar um token cai para cerca de 1/10 do anterior.
Engenharia revolucionária: da montagem à refrigeração
A “bomba nuclear” de hardware não é apenas potência bruta. A engenharia do Vera Rubin resolve problemas práticos que afligiam os sistemas anteriores. Os antigos nós de supercomputação exigiam 43 cabos e 2 horas de montagem manual; os nós Vera usam zero cabos, apenas 6 tubos de refrigeração líquida, e se montam em 5 minutos.
A parte de trás do rack contém quase 3,2 km de cabos de cobre dedicados: 5.000 cabos formam a espinha dorsal NVLink a 400Gbps. Como ironicamente observou Jensen Huang: “Podem pesar várias centenas de libras—você precisa ser um CEO em ótima forma para esse trabalho”.
O problema da memória de contexto: a solução BlueField-4
A AI contemporânea enfrenta um gargalo crítico: a “KV Cache” (memória de trabalho da AI) cresce com diálogos mais longos e modelos maiores. Vera Rubin resolve isso com os processadores BlueField-4 integrados no rack, cada um com 150TB de memória de contexto.
Cada nó possui 4 BlueField-4, que distribuem memória às GPUs: cada GPU recebe 16TB de memória adicional além dos 1TB nativos, mantendo uma banda de 200Gbps sem comprometer a velocidade.
Spectrum-X: a rede projetada para IA generativa
Para que dezenas de racks e milhares de GPUs trabalhem como uma única memória distribuída, a rede deve ser “grande, rápida e estável”. Spectrum-X é a primeira plataforma Ethernet ponta-a-ponta do mundo especificamente projetada para IA generativa.
A última geração utiliza o processo COOP da TSMC e a fotônica de silício, com 512 canais a 200Gbps cada. O cálculo de Jensen Huang é convincente: ao melhorar a produtividade em 25%, equivale a economizar 5 bilhões de dólares em um data center de 50 bilhões de dólares. “Pode-se dizer que esse sistema de rede é quase gratuito”, destacou.
Da teoria à ação: IA física, robótica e direção autônoma
O foco da “bomba nuclear” não é apenas hardware. Jensen Huang enfatizou como cerca de 10 trilhões de dólares em recursos de cálculo acumulados na última década estão passando por uma modernização completa, mas não apenas hardware—uma mudança de paradigma de software.
A arquitetura dos “três computadores” para IA física:
Computadores de treino baseados em GPUs de classe training, como a arquitetura GB300. Computadores de inferência, o “cerebelo” que toma decisões em tempo real em robôs e dispositivos de borda. Computadores de simulação (Omniverse e Cosmos) que geram ambientes virtuais onde a AI aprende com feedbacks físicos.
Alpamayo: direção autônoma com capacidade de raciocínio
Sobre essa arquitetura, a NVIDIA apresentou o Alpamayo, o primeiro sistema de direção autônoma com verdadeira capacidade de raciocínio. Diferente dos sistemas tradicionais, o Alpamayo é completamente end-to-end e resolve o “problema da cauda longa”—quando enfrenta situações de trânsito nunca antes vistas, não executa apenas código mecânico, mas raciocina como um motorista humano.
O Mercedes CLA equipado com Alpamayo será lançado nos Estados Unidos no primeiro trimestre de 2026, seguido pela Europa e Ásia. O sistema recebeu a avaliação NCAP como o veículo mais seguro do mundo, graças ao “duplo stack de segurança” da NVIDIA: quando o modelo AI tem pouca confiança, o sistema retorna imediatamente a uma modalidade de segurança tradicional.
A estratégia robótica: de Boston Dynamics à Disney
A NVIDIA mostrou como nove grandes empresas de IA e hardware estão todas expandindo para a robótica. Cada robô usará computadores Jetson, será treinado no simulador Isaac do Omniverse, e a tecnologia será integrada nos sistemas industriais da Synopsys, Cadence, Siemens e outros.
Jensen Huang convidou robôs humanoides e quadrúpedes de empresas como Boston Dynamics e Agility, destacando uma perspectiva fascinante: o maior robô é a própria fábrica. A visão é que o design de chips, sistemas e simulações de fábrica será acelerado por IA física.
Por que essa “bomba nuclear” neste momento?
Em um contexto onde cresce o ceticismo sobre uma suposta “bolha AI”, Jensen Huang deu prioridade não apenas à potência bruta de cálculo, mas às aplicações concretas. A “bomba nuclear” de 2,5 toneladas é tanto um símbolo quanto uma promessa: demonstrar que a AI pode realmente transformar tanto o mundo digital quanto o físico.
A NVIDIA, que no passado vendia “pás para mineiros de ouro”, agora entra diretamente no mercado onde as competições são mais acirradas—IA física, robótica, direção autônoma. Como Huang mesmo sugeriu: “Quando a guerra está em andamento, você pode continuar vendendo armas”.
Mas a verdadeira inovação do Vera Rubin não é construir uma “bomba nuclear” de hardware mais potente—é demonstrar que, sincronizando a inovação em todos os níveis da plataforma, os limites tradicionais podem ser superados.