14 janeiro 2026

No Brasil ... a casa de R$ 13 milhões. Na Rússia ...

    No fim de semana passado circularam notícias sobre o uso de recursos públicos que não chegam à população. No Brasil matérias como a divulgada a seguir são comuns diariamente sobre os já corriqueiros escândalos de corrupção. Contudo, o Brasil não é exceção. Circulou também um vídeo do que está ocorrendo na Rússia. Em comum aos dois casos: ambos os governos são regimes de esquerdaEsquerdismo não é um sentimento de amor à humanidade. Ser “de esquerda” significa abraçar uma ideologia específica - ser social-democrata, socialista ou comunista. Não há outra opção. Todas essas posições políticas são variações da mesma doutrina socialista.

    No capitalismo, o empresário cria, arrisca e gera empregos. A livre competição garante melhores produtos, melhores salários e oportunidades. Já nos regimes de esquerda, é o Estado quem controla tudo: distribui a miséria, elimina a concorrência e impõe a igualdade da pobreza controlada, a falta de competição que gera a miséria e a opressão compartilhadas.

No Brasil ... 

"Ministro do TCU e pai enviaram R$ 13 milhões para construir 300 casas, mas só uma foi erguida

 Emendas parlamentares indicadas pelo atual ministro do Tribunal de Contas da União (TCU) Jhonatan de Jesus e pelo pai dele, o senador Mecias de Jesus (Republicanos), previam a construção de 300 casas populares no município de Iracema, no interior de Roraima. Mais de um ano após o repasse dos recursos, apenas uma unidade foi construída — e permanece desocupada. As informações são do jornal o Estado de S. Paulo.

 


 Os recursos, que somam cerca de R$ 13 milhões, também tinham como finalidade obras de pavimentação e recuperação de estradas. No entanto, no terreno às margens da BR-174 onde o conjunto habitacional deveria estar em obras, não há fundações nem estrutura de canteiro. O local está tomado pelo mato, e a única casa erguida já apresenta sinais de abandono. 

A promessa era entregar o empreendimento até o fim de 2024. O projeto foi usado politicamente pelo então prefeito Jairo Ribeiro (Republicanos), aliado de Jhonatan e Mecias de Jesus."

*.   *.  *

 Na Rússia ...

"Como mais de 100 milhões de pessoas na Rússia poderiam viver se se revoltassem contra o regime de Moscou, que rouba a riqueza gerada pelos recursos naturais e a desvia para corrupção, guerras de agressão e armas de destruição em massa?"



11 janeiro 2026

As Forças que estão remodelando a Região na era Trump

     Praticamente desde o momento em que ele e seu bando de rebeldes barbudos entraram em Havana em 1959 até sua morte por causas naturais em 2016, o líder mais icônico da América Latina foi Fidel Castro. Com seu uniforme militar característico, charutos Cohiba finos e discursos longos vilipendiando os Estados Unidos, Castro cativou a imaginação de aspirantes a revolucionários e milhões de pessoas ao redor do mundo. Nunca satisfeito em apenas governar Cuba, Castro trabalhou incansavelmente para exportar suas ideias. Sua rede global de aliados e admiradores cresceu ao longo das décadas, incluindo líderes tão diversos quanto Salvador Allende no Chile, Hugo Chávez na Venezuela, Robert Mugabe no Zimbábue e Yasser Arafat, chefe da Organização para a Libertação da Palestina.

    O comandante se reviraria no túmulo se soubesse que, hoje, as duas figuras latino-americanas que mais se aproximam de seu perfil global são ambas da direita ideológica. Javier Milei, o autoproclamado presidente “anarcocapitalista” da Argentina, que empunha uma motosserra para simbolizar seu zelo por reduzir drasticamente o tamanho do governo, e Nayib Bukele, o líder barbudo da geração millennial de El Salvador, conquistaram seguidores fervorosos em seus países e no exterior. Em vez do onipresente grito revolucionário cubano, ¡Hasta la victoria, siempre! (“Sempre em frente para a vitória!”), o lema libertário de Milei, ¡Viva la libertad, carajo! (“Viva a liberdade, caralho!”), agora estampa camisetas em alguns campi universitários nos Estados Unidos e é citado por políticos até mesmo em Israel. 

    Assim como Castro em sua época, ambos os líderes estão exercendo uma influência muito maior do que o esperado para seus países no cenário global. Milei foi o primeiro chefe de Estado a se encontrar com o presidente dos EUA, Donald Trump, após sua eleição em 2024, recebendo uma recepção suntuosa em seu resort Mar-a-Lago. Trump chamou Milei de "meu presidente favorito" e, em outubro, concedeu um pacote de resgate de US$ 20 bilhões à Argentina — o maior auxílio financeiro dos Estados Unidos para qualquer país em 30 anos. O sucesso de Milei em reduzir a burocracia e os entraves governamentais, o que ajudou a diminuir a inflação na Argentina de mais de 200% quando ele assumiu o cargo em 2023 para cerca de 30% no final de 2025, foi aclamado como um modelo pela líder da oposição conservadora do Reino Unido, Kemi Badenoch, pela primeira-ministra italiana Giorgia Meloni e por muitos outros na direita europeia. Isso também o tornou uma espécie de guru para titãs libertários do Vale do Silício, como Elon Musk, que empunhou a motosserra de Milei no palco de uma conferência de conservadores nos Estados Unidos em fevereiro. Enquanto isso, a repressão de Bukele às gangues o tornou uma figura extremamente popular em grande parte da América Latina e além, mesmo que ele ignore sem pudor as preocupações com o devido processo legal e os direitos humanos. (Em uma pesquisa de 2024, cerca de 81% dos chilenos avaliaram Bukele positivamente, percentual superior ao de qualquer outro líder global e mais que o dobro do de seu próprio presidente.) Bukele tem mais de 11 milhões de seguidores no TikTok, mais do que qualquer outro chefe de Estado, com exceção de Trump.

    O verdadeiro fervor revolucionário na América Latina atual, com líderes determinados a transformar não apenas seus países, mas a própria região, é evidente principalmente na direita ideológica. Com líderes conservadores vencendo diversas eleições recentemente e favoritos em outras no próximo ano, a América Latina parece preparada para uma mudança histórica que alteraria fundamentalmente a forma como os países lidam com o crime organizado, a política econômica, suas relações estratégicas com os Estados Unidos e a China, e muito mais. Em 2025, o presidente conservador do Equador, Daniel Noboa, foi reeleito, enquanto o partido de Milei obteve uma vitória inesperadamente expressiva nas eleições legislativas de meio de mandato da Argentina, impulsionando ainda mais sua agenda. A Bolívia viu o fim de quase 20 anos de regime socialista com a eleição de Rodrigo Paz Pereira, um reformista de centro. Os candidatos conservadores à presidência lideram as pesquisas na Costa Rica e no Peru, e estão muito próximos da vitória no Brasil e na Colômbia, em eleições previstas para antes do final de 2026.

    A América Latina é composta por cerca de 20 países com histórias e dinâmicas políticas distintas, e a direita pode não prevalecer em todos os casos. Mas houve outros momentos na história em que a região se moveu mais ou menos em sincronia: as ditaduras reacionárias que varreram grande parte da região nas décadas de 1960 e 1970, após a Revolução Cubana; a grande onda de redemocratização da década de 1980; as reformas pró-mercado do "Consenso de Washington" da década de 1990; e a chamada onda rosa que levou Chávez e outros esquerdistas ao poder no final da década de 1990 e início dos anos 2000. Hoje, outro realinhamento regional parece estar se formando, desafiando algumas das premissas mais básicas que o mundo exterior faz sobre a América Latina. O resultado seria uma região que, nos próximos anos, adotaria uma política mais agressiva contra o narcotráfico e outros crimes, seria mais receptiva a investimentos nacionais e estrangeiros, se preocuparia menos com as mudanças climáticas e o desmatamento e estaria amplamente alinhada com o governo Trump em prioridades como segurança, migração e limitação da presença da China no Hemisfério Ocidental.

10 janeiro 2026

América Latina rumo à direita

    Essa guinada à direita não parece ser apenas mais uma oscilação pendular cíclica ou passageira na política da região. Uma análise cuidadosa das pesquisas e de outras tendências subjacentes sugere que ideias e prioridades políticas conservadoras parecem estar ganhando terreno na América Latina. Uma pesquisa anual muito acompanhada, realizada pelo Latinobarómetro, um instituto de pesquisa regional com sede no Chile, com mais de 19.000 entrevistados em 18 países, revelou que, em 2024, o grau de identificação dos latino-americanos com a direita atingiu seu nível mais alto em mais de duas décadas. A mesma pesquisa apontou Bukele como o político mais popular em toda a região, com uma média de 7,7 em uma escala de dez pontos.

    A maioria das razões para a ascensão da direita não se origina de fatores externos, mas sim de mudanças na realidade da América Latina. Entre elas, destaca-se a crescente frustração da população com a criminalidade, um problema que, embora não seja novo na região, se agravou consideravelmente nos últimos anos, que se tornou tema central em todas as eleições ocorridas na Região. Segundo estimativas das Nações Unidas, a produção de cocaína na América Latina triplicou na última década, proporcionando às gangues e cartéis da região riqueza e poder sem precedentes e alimentando a violência relacionada ao narcotráfico. A América Latina representa 8% da população mundial, mas cerca de 30% dos homicídios. Em diversos países que realizarão eleições em 2026, incluindo Colômbia, Brasil, Haiti, Peru e Costa Rica, a criminalidade — um tema eleitoral que tradicionalmente favorece a direita — aparece nas pesquisas como a principal preocupação dos eleitores.

    Outros fatores-chave na ascensão da direita incluem a disseminação do cristianismo evangélico na América Latina, tradicionalmente católica, que transformou a política em vários países, principalmente no Brasil, ao colocar questões da guerra cultural, como o aborto e a “ideologia de gênero”, no centro do debate. Os dramáticos colapsos econômicos e sociais, que se prolongaram por anos, na Venezuela e em Cuba desacreditaram as políticas socialistas na mente de uma geração de eleitores em toda a América Latina, prejudicando a popularidade até mesmo de alguns candidatos de esquerda moderados, que, no entanto, são percebidos como parte da mesma corrente ideológica. O êxodo de pessoas desses dois países, e de outras nações em crise, como Haiti e Nicarágua, levou a uma migração sem precedentes dentro da própria América Latina, provocando uma reação negativa em países receptores como Chile, Colômbia e Peru, que alguns candidatos de direita procuraram explorar.

    Enquanto isso, a fama global de Milei e Bukele também desempenhou um papel fundamental. Mesmo que a maioria dos eleitores da América Latina não deseje eleger cópias exatas de Milei e Bukele, cujas políticas muitos consideram extremistas, vídeos virais dos dois presidentes recebendo recepções de estrelas do rock na Casa Branca e em encontros prestigiosos, como a reunião anual do Fórum Econômico Mundial em Davos, despertaram curiosidade, alimentando a sensação de que líderes de direita estão em ascensão não apenas em seus países, mas também no exterior.



09 janeiro 2026

O detox digital

 

Uma desintoxicação das redes sociais pode ajudar a reduzir os sintomas de ansiedade e depressão, de acordo com um estudo recente

Cada vez mais pessoas estão decididas a passar menos tempo em seus celulares e redes sociais, e pesquisas sugerem que isso traz benefícios para a saúde.

Uma pesquisa realizada pelo aplicativo de bem-estar digital Opal revelou que 33% dos 1.306 usuários entrevistados disseram que reduzir o tempo gasto em frente às telas e estar mais presente era sua principal resolução de Ano Novo, em comparação com 28% que tinham como objetivo perder peso.

Já passou da hora de todos nós reduzirmos o uso de telas. Há cada vez mais indícios de que o uso excessivo de redes sociais é prejudicial à nossa saúde mental, especialmente entre adolescentes e jovens adultos.

Quer fazer uma desintoxicação digital ou apenas reduzir o uso do celular? Aqui vão algumas dicas sugeridas por especialistas:

• Não pare de uma vez. Se você passa em média várias horas nas redes sociais, não é realista zerar o uso. Comece com a meta de limitar ou restringir o seu uso a uma determinada quantidade.

• Use seu celular para definir limites de tempo de tela ou horários de desligamento. Seu celular pode te ajudar a alcançar seus objetivos. Se precisar de barreiras mais rígidas, experimente um aplicativo.

• Crie zonas ou horários livres de tecnologia. Comece carregando seu celular ao ar livre.

• Evite usar o celular no quarto e uma hora antes de dormir. Evite usar o celular durante as refeições. Coloque o celular em outro cômodo.

• Substitua o tempo gasto em redes sociais ou telas por outras atividades. Pode ser qualquer coisa, desde socializar no mundo real até se exercitar ou ir para a cama uma hora mais cedo. Você pode até usar o celular para ligar para um amigo em vez de ficar rolando a tela sem parar por uma hora.

• Não se culpe pelos seus comportamentos. “Com a tecnologia e as redes sociais sendo projetadas, é muito difícil controlar o tempo”, diz a Dra. Sajita Setia, médica em Auckland, Nova Zelândia, que realiza pesquisas sobre tempo de tela e bem-estar mental, principalmente em crianças. “Não se trata de força de vontade, não se trata de autocontrole. Nunca conseguiremos vencer a tecnologia.”

O tema não é novo. Aqui mesmo no Brasil já houve manifestações sobre as redes sociais. Uma delas, esta da jornalista Ruth Aquino foi publicada na revista Época em 2012.


Lá fora diversos muito já se publicou sobre este assunto. Em 2018 ... ganhou muito destaque o livro de Jaron Lanier que é cientista, músico e escritor, mais conhecido pelo trabalho em realidade virtual no qual denuncia o Vale do Silício de um modo geral, e o Facebook, em particular, como uma verdadeira máquina de fazer cabeças. Literalmente Lanier afirma (...) "O que quer que uma pessoa possa ser, se você quer ser uma, delete suas contas nas redes sociais".

Residem aí as razões do pedido de Lanier para que as pessoas excluam suas contas das redes sociais, subsidiado por DEZ ARGUMENTOS PARA VOCÊ DELETAR AGORA SUAS REDES SOCIAIS, frase esta que dá o título ao seu livro e, nele, os argumentos são explicados com detalhes. A seguir os dez argumentos:

Argumento UM  
VOCÊ ESTÁ PERDENDO SEU LIVRE-ARBÍTRIO

Argumento DOIS  
LARGAR AS REDES SOCIAIS É A MANEIRA MAIS CERTEIRA DE RESISTIR À INSANIDADE DOS NOSSOS TEMPOS

Argumento TRÊS  
AS REDES SOCIAIS ESTÃO TORNANDO VOCÊ UM BABACA

Argumento QUATRO 
AS REDES SOCIAIS MINAM A VERDADE

Argumento CINCO
AS REDES SOCIAIS TRANSFORMARAM O QUE VOCÊ DIZ EM ALGO SEM SENTIDO

Argumento SEIS
AS REDES SOCIAIS DESTROEM SUA CAPACIDADE DE EMPATIA

Argumento SETE
AS REDES SOCIAIS DEIXAM VOCÊ INFELIZ

Argumento OITO
 AS REDES SOCIAIS NÃO QUEREM QUE VOCÊ TENHA DIGNIDADE ECONÔMICA

Argumento NOVE
 AS REDES SOCIAIS TORNAM A POLÍTICA IMPOSSÍVEL

Argumento DEZ
 AS REDES SOCIAIS ODEIAM SUA ALMA







IA: Trechos escritos (tradução) da palestra de Jensen Huang fundador e CEO da NVIDIA na CES 2026

No artigo anterior noticiamos a realização da CES (Consumer Electronics Show), uma feira comercial anual sobre tecnologia e eletrônicos de consumo criada em 1967, organizada pela Consumer Technology Association, realizada em janeiro no Las Vegas Convention Center em Winchester-Nevada.

 Nele explicitamos a conclusão da palestra de Jensen Huang fundador e CEO da NVIDIA e o que disse o artigo "Computação é o novo petróleo", que trata da recente negociação entre os EUA e os países do Golo Pérsico e mostra mais uma vez que a América não dá ponto sem nó.

Aqui iremos destacar trechos traduzidos da palestra de Jensen Huang, mostrando o que a NVIDIA, além de fabricar chips de última geração, está desenvolvendo sistemas inteiros. A IA é uma pilha completa de omputação, desde chips e infraestrutura até modelos e aplicativos.

*.  *.  *


Jensen Huang

Olá, Las Vegas. Feliz Ano Novo. Bem-vindos à CES. Temos conteúdo suficiente para cerca de 15 apresentações principais. Estou muito feliz em ver todos vocês. Temos 3.000 pessoas neste auditório. Há 2.000 pessoas em um pátio nos assistindo. Há outras 1.000 pessoas, aparentemente, no quarto andar, onde deveriam estar os estandes da NVIDIA, todas assistindo a esta apresentação principal. É claro que milhões de pessoas ao redor do mundo assistirão a isso para começar o ano novo com o pé direito.

Bem, a cada 10 a 15 anos, a indústria de computadores se reinventa. Ocorre uma nova mudança de plataforma. De mainframe para PC, de PC para internet, de internet para nuvem, de nuvem para dispositivos móveis. A cada mudança, o mundo dos aplicativos se volta para uma nova plataforma. É por isso que se chama mudança de plataforma. Você escreve novos aplicativos para um novo computador. Só que desta vez, há duas mudanças simultâneas de plataforma acontecendo ao mesmo tempo.

Enquanto avançamos para a IA, os aplicativos agora serão construídos sobre a IA. Inicialmente, as pessoas pensavam que as IAs eram aplicativos e, de fato, as IAs são aplicativos, mas você construirá aplicativos sobre as IAs. Além disso, a forma como você executa o software, como você o desenvolve, mudou fundamentalmente. Toda a estrutura da indústria da computação está sendo reinventada. Você não programa mais o software, você o treina. Você não o executa em CPUs, você o executa em GPUs.

Enquanto os aplicativos eram pré-gravados, pré-compilados e executados no seu dispositivo, agora os aplicativos entendem o contexto e geram cada pixel, cada token, completamente do zero, todas as vezes. A computação foi fundamentalmente remodelada como resultado da computação acelerada, como resultado da inteligência artificial. Cada camada desse bolo de cinco camadas está sendo reinventada.

Bem, isso significa que cerca de 10 trilhões de dólares investidos na computação na última década estão sendo modernizados para essa nova forma de computação. Significa que centenas de bilhões de dólares, algumas centenas de bilhões de dólares em financiamento de capital de risco a cada ano, estão sendo investidos na modernização e invenção desse novo mundo. Significa que cem trilhões de dólares da indústria, dos quais vários por cento são destinados a orçamentos de P&D, estão sendo direcionados para a inteligência artificial.

As pessoas perguntam: "De onde vem o dinheiro?" É daí que vem o dinheiro. Da modernização da IA ​​para a IA, da mudança dos orçamentos de P&D de métodos clássicos para métodos de inteligência artificial e dos enormes investimentos que estão entrando nesse setor, o que explica por que estamos tão ocupados. O ano passado não foi diferente. O ano passado foi incrível.

É isso que acontece quando você não pratica. É a primeira palestra do ano. Espero que esta seja sua primeira palestra principal do ano, caso contrário, você deve ter estado bastante ocupado. Esta é a nossa primeira palestra principal do ano. Vamos começar logo. 2025 foi um ano incrível. Parecia que tudo estava acontecendo ao mesmo tempo e, na verdade, provavelmente estava mesmo. A primeira coisa, claro, são as leis de escala.

Em 2015, o primeiro modelo de linguagem que eu achei que realmente faria a diferença, fez uma enorme diferença. Chamava-se BERT. Em 2017, vieram os Transformers. Foi somente cinco anos depois, em 2022, que aconteceu o momento ChatGPT e ele despertou o mundo para as possibilidades da inteligência artificial. Algo muito importante aconteceu um ano depois disso. O primeiro modelo O1 do ChatGPT, o primeiro modelo de raciocínio, completamente revolucionário, inventou essa ideia chamada escala em tempo de teste, que é algo muito óbvio.

Não apenas pré-treinamos um modelo para aprender, como também o pós-treinamos com aprendizado por reforço para que ele pudesse aprender habilidades. Agora também temos escalonamento em tempo de teste, que é outra forma de dizer "pensar". Você pensa em tempo real. Cada uma dessas fases da inteligência artificial requer uma quantidade enorme de poder computacional, e a demanda por computação continua a aumentar. Grandes modelos de linguagem continuam a melhorar. Enquanto isso, outra inovação aconteceu, e essa inovação ocorreu em 2024.

Sistemas agentes começaram a surgir. Em 2025, eles começaram a proliferar em praticamente todos os lugares. Modelos agentes que têm a capacidade de raciocinar, buscar informações, pesquisar, usar ferramentas, planejar futuros, simular resultados, de repente começaram a resolver problemas muito, muito importantes. Um dos meus modelos agentes favoritos se chama Cursor, que revolucionou a maneira como programamos software na NVIDIA. Os sistemas agentes vão decolar de verdade a partir de agora.

É claro que existiam outros tipos de IA. Sabemos que grandes modelos de linguagem não são o único tipo de informação. Onde quer que o universo tenha informação, onde quer que o universo tenha estrutura, poderíamos desenvolver um grande modelo de linguagem, uma forma de modelo de linguagem, a compreender essa informação, a compreender sua representação e a transformá-la.

Transformar isso em uma IA. Uma das maiores e mais importantes é a IA física. IAs que entendem as leis da natureza.

Então, claro, a IA física trata da interação da IA ​​com o mundo, mas o próprio mundo tem informações, informações codificadas, e isso é chamado de física da IA. No caso da IA ​​física, você tem IA que interage com o mundo físico e você tem a física da IA, IA que entende as leis da física.

Por fim, uma das coisas mais importantes que aconteceram no ano passado foi o avanço dos modelos abertos. Agora podemos saber que a IA vai proliferar em todos os lugares quando o código aberto, a inovação aberta e a inovação em todas as empresas e setores do mundo forem ativados simultaneamente. Os modelos abertos realmente decolaram no ano passado.

Na verdade, no ano passado vimos o avanço do DeepSeek R1, o primeiro modelo aberto que é um sistema de raciocínio. Ele pegou o mundo de surpresa e ativou literalmente todo esse movimento. Um trabalho realmente empolgante. Estamos muito felizes com ele. Agora temos sistemas de modelos abertos em todo o mundo, de todos os tipos, e sabemos que os modelos abertos também atingiram a fronteira.

Ainda estamos seis meses atrás dos modelos de fronteira, mas a cada seis meses, um novo modelo surge e esses modelos estão ficando cada vez mais inteligentes. Por causa disso, você pode ver que o número de downloads explodiu. O número de downloads está crescendo tão rápido porque startups querem participar da revolução da IA. Grandes empresas querem, pesquisadores querem, estudantes querem. Quase todos os países querem. Como é possível que a inteligência, a forma digital da inteligência, deixe alguém para trás?

Então, os modelos abertos realmente revolucionaram a inteligência artificial no ano passado. Todo esse setor será remodelado como resultado disso. Bem, nós já tínhamos essa intuição há algum tempo. Você deve ter ouvido falar que, há alguns anos, começamos a construir e operar nossos próprios supercomputadores de IA. Chamamos-lhes nuvens DGX. Muitas pessoas perguntaram: "Vocês vão entrar no mercado de computação em nuvem?" A resposta é não. Estamos construindo esses supercomputadores DGX para nosso próprio uso.

Bem, acontece que temos bilhões de dólares em supercomputadores em operação para que pudéssemos desenvolver nossos modelos abertos. Estou muito satisfeito com o trabalho que estamos fazendo. Ele está começando a atrair a atenção do mundo todo e de todos os setores, porque estamos realizando trabalhos de ponta em modelos de IA em muitos domínios diferentes.

O trabalho que fizemos com proteínas, em biologia digital, La-Proteina para sintetizar e gerar proteínas. OpenFold3 para entender a estrutura das proteínas. EVO 2, como entender e gerar múltiplas proteínas, ou seja, os primórdios da representação celular. Earth-2, IA que entende as leis da física, o trabalho que fizemos com o ForeCastNet, o trabalho que fizemos com o Cordiff realmente revolucionou a maneira como as pessoas fazem previsão do tempo.

Nemotron. Estamos realizando um trabalho inovador nessa área. O primeiro modelo híbrido de SSM (Sistema de Manufatura Avançada) que é incrivelmente rápido e, portanto, capaz de pensar por um longo período ou pensar muito rapidamente, por um curto período, e produzir respostas muito, muito inteligentes. O Nemotron 3 é um trabalho inovador, e vocês podem esperar que entreguemos outras versões do Nemotron 3 em um futuro próximo.

Cosmos, um modelo de fronteira, um modelo fundamental de mundo aberto, que entende como o mundo funciona. GROOT, um sistema robótico humanoide, articulação, mobilidade, locomoção. Esses modelos, essas tecnologias estão sendo integrados e, em cada um desses casos, abertos ao mundo, modelos de fronteira humanos e robóticos abertos ao mundo. 

E hoje vamos falar um pouco sobre o Alpamayo, o trabalho que temos desenvolvido em carros autônomos. Não apenas disponibilizamos os modelos em código aberto, como também disponibilizamos os dados que usamos para treiná-los, porque somente assim você pode realmente confiar em como os modelos foram criados. Disponibilizamos todos os modelos em código aberto. Ajudamos você a criar derivados a partir deles. Temos um conjunto completo de bibliotecas. Chamamos as bibliotecas NeMo de PhysicsNeMo, Clara, Nemo e BioNeMo. Cada uma dessas bibliotecas é um sistema de gerenciamento do ciclo de vida de IAs, permitindo que você processe os dados, gere dados, treine o modelo, crie o modelo, avalie o modelo, proteja o modelo e realize todo o processo até a implantação do modelo. Cada uma dessas bibliotecas é incrivelmente complexa e todas são de código aberto.

Então, agora, além dessa plataforma, a NVIDIA é uma construtora de modelos de IA de ponta, e a construímos de uma maneira muito especial. Construímos tudo de forma totalmente aberta para que possamos permitir que todas as empresas, todos os setores e todos os países façam parte dessa revolução da IA. Estou incrivelmente orgulhoso do trabalho que estamos realizando. Na verdade, se você observar os gráficos, verá que nossa contribuição para a indústria é incomparável, e vocês verão que, na verdade, continuaremos a fazer isso.

Esses modelos não são apenas capazes de operar na vanguarda, não são apenas abertos, eles também estão no topo dos rankings. Esta é uma área da qual nos orgulhamos muito. Eles estão no topo dos rankings e em inteligência artificial. Temos modelos importantes que entendem documentos multimodais, também conhecidos como PDFs. O conteúdo mais valioso do mundo está capturado em PDFs, mas é preciso inteligência artificial para descobrir o que está dentro, interpretar o que está dentro e ajudar você a lê-lo. Portanto, nossos recuperadores de PDF, nossos analisadores de PDF são de classe mundial. Nossos modelos de reconhecimento de fala, absolutamente de classe mundial. Nossos modelos de recuperação, basicamente busca, busca semântica, busca por IA, o mecanismo de banco de dados da era moderna da IA, são de classe mundial. Por isso, estamos constantemente no topo dos rankings. Esta é uma área da qual nos orgulhamos muito, e tudo isso está a serviço da sua capacidade de construir agentes de IA. Esta é realmente uma área de desenvolvimento inovadora.

No início, quando o ChatGPT foi lançado, as pessoas disseram: "Nossa, ele produziu resultados realmente interessantes, mas teve muitas alucinações." O motivo pelo qual teve alucinações, claro, é que ele podia memorizar tudo do passado, mas não consegue memorizar tudo do futuro e do presente, e por isso precisa ser fundamentado em pesquisa. Ele precisa fazer pesquisa fundamental antes de responder a uma pergunta. A capacidade de raciocinar sobre: ​​preciso fazer pesquisa? Preciso usar ferramentas? Como decomponho um problema em etapas? Cada uma dessas etapas, algo que o modelo de IA sabe fazer, e juntas elas são capazes de se compor em uma sequência de etapas para realizar algo que nunca fez antes, para o qual nunca foi treinado. Essa é a maravilhosa capacidade de raciocínio. Podemos nos deparar com uma circunstância que nunca vimos antes e decompô-la em circunstâncias, conhecimentos ou regras que sabemos como aplicar porque já a vivenciamos no passado. Portanto, a capacidade dos modelos de IA de raciocinar é incrivelmente poderosa.

A capacidade de raciocínio dos agentes abriu as portas para todas essas diferentes aplicações. Não precisamos mais treinar um modelo de IA para saber tudo desde o primeiro dia, assim como nós não precisamos saber tudo desde o primeiro dia; devemos ser capazes, em todas as circunstâncias, de raciocinar sobre como resolver esse problema. Os grandes modelos de linguagem deram esse salto fundamental. A capacidade de usar aprendizado por reforço, cadeia de pensamento, busca, planejamento e todas essas diferentes técnicas de aprendizado por reforço tornou possível termos essa capacidade básica, que agora também é totalmente de código aberto.

Mas o que é realmente fantástico é outra inovação que aconteceu, e a primeira vez que a vi foi com a Perplexity, do Aravind. A Perplexity, a empresa de buscas, a empresa de buscas com IA, uma empresa realmente inovadora. A primeira vez que percebi que eles estavam usando vários modelos ao mesmo tempo, achei genial. Claro, faríamos isso. Claro, uma IA também recorreria a todas as grandes IAs do mundo para resolver o problema que deseja resolver em qualquer parte da cadeia de raciocínio. É por isso que as IAs são realmente multimodais, o que significa que elas entendem fala, imagens, texto, vídeos, gráficos 3D e proteínas. É multimodal.

Também é multimodelo, o que significa que elas devem ser capazes de usar qualquer modelo que melhor se adapte à tarefa. Por definição, é multicloud, pois esses modelos de IA estão presentes em diferentes locais. Além disso, é uma nuvem híbrida, já que, seja para uma empresa ou para quem construiu um robô ou qualquer outro dispositivo, ele pode estar na borda da rede, em uma torre de celular, em uma empresa ou em um hospital, onde os dados precisam estar disponíveis em tempo real. Independentemente da aplicação, sabemos agora como será uma aplicação de IA no futuro. Ou, em outras palavras, como as aplicações futuras são construídas sobre IA, esta é a estrutura básica delas. Essa estrutura básica de IAs agentes, capazes de realizar as tarefas que mencionei (multimodelo), impulsionou startups de IA de todos os tipos. Graças aos modelos abertos e às ferramentas disponíveis, é possível personalizar suas IAs para ensinar habilidades que ninguém mais ensina. Ninguém mais consegue tornar sua IA inteligente dessa forma. Você pode fazer isso por conta própria. Esse é o objetivo do trabalho que fazemos com o Nemotron, o NeMo e tudo o que fazemos com modelos abertos. Você coloca um roteador inteligente na frente, e esse roteador é essencialmente um gerenciador que decide qual tarefa baseia-se na intenção das instruções fornecidas, determinando qual dos modelos é o mais adequado para essa aplicação, para resolver esse problema.

Certo. Então, quando você pensa nessa arquitetura, o que você tem? Quando você pensa nessa arquitetura, de repente você tem uma IA que, por um lado, é completamente personalizável por você, algo que você pode ensinar para executar as habilidades específicas da sua empresa, algo que é segredo do domínio, algo em que você tem profundo conhecimento do domínio. Talvez você tenha todos os dados necessários para treinar esse modelo de IA. Por outro lado, sua IA está sempre na vanguarda, por definição. Você está sempre na vanguarda, por um lado. Você está sempre personalizando, por outro, e ela deve simplesmente funcionar. Então, pensamos em criar os exemplos mais simples para disponibilizá-los a vocês. Chamamos toda essa estrutura de modelo, e temos modelos integrados em plataformas SaaS corporativas em todo o mundo, e estamos muito satisfeitos com o progresso. Mas o que fazemos é mostrar um exemplo simples de algo que qualquer pessoa pode fazer.

Vamos construir um assistente pessoal. Quero que ele me ajude com meu calendário, e-mails, listas de tarefas e até mesmo monitore minha casa. Uso o Brev para transformar meu DGX Spark em uma nuvem pessoal, assim posso usar a mesma interface tanto em uma GPU na nuvem quanto em um DGX Spark. Uso uma API de modelo de fronteira para começar facilmente. Quero que ele me ajude com meus e-mails, então crio uma ferramenta de e-mail para meu agente usar. Quero que meus e-mails permaneçam privados, então adiciono um modelo aberto que roda localmente no Spark. Agora, para qualquer tarefa, quero que o agente use o modelo certo para a tarefa certa, então uso um roteador de modelo baseado em intenção. Dessa forma, os prompts, como o de e-mail, permanecerão no meu Spark e todo o resto poderá chamar o modelo de fronteira. Quero que meu assistente interaja com o meu mundo, então o conecto ao Reachy Mini Robot da Hugging Face. Meu agente controla a cabeça, as orelhas e a câmera do Reachy com chamadas de ferramentas. Quero dar voz ao Reachy e gosto muito do ElevenLabs, então vou conectar a API deles.

Não é incrível? E o mais impressionante é que isso é completamente trivial hoje em dia. Isso é totalmente trivial agora, mas, há apenas alguns anos, tudo isso seria impossível. Absolutamente inimaginável. Bem, essa estrutura básica, essa maneira básica de construir aplicativos usando modelos de linguagem pré-treinados e proprietários, de ponta, combinando-os com modelos de linguagem personalizados em uma estrutura de agentes, uma estrutura de raciocínio que permite acessar ferramentas e arquivos e talvez até se conectar a outros agentes, essa é basicamente a arquitetura de aplicativos de IA ou aplicativos na era moderna, e a capacidade que temos de criar esses aplicativos é incrivelmente rápida.

Observe, se você fornecer a esse aplicativo informações que ele nunca viu antes ou em uma estrutura que não seja representada exatamente como você pensou, ele ainda pode raciocinar sobre elas e fazer o seu melhor para raciocinar sobre os dados, as informações, para tentar entender como resolver o problema, inteligência artificial. Certo. Então, essa estrutura básica está sendo integrada e tudo o que acabei de descrever, temos o benefício de trabalhar com algumas das principais empresas de plataformas corporativas do mundo. A Palantir, por exemplo, tem toda a sua plataforma de IA e processamento de dados sendo integrada e acelerada pela NVIDIA hoje. A ServiceNow, a principal plataforma mundial de atendimento ao cliente e serviços para funcionários, a Snowflake, a principal plataforma de dados em nuvem do mundo, um trabalho incrível está sendo feito lá. A CodeRabbit, estamos usando a CodeRabbit em toda a NVIDIA. A CrowdStrike está criando IAs para detectar ameaças de IA definidas.

A NetApp, sua plataforma de dados agora tem IA semântica da NVIDIA e um sistema de agentes para atendimento ao cliente. Mas o importante é o seguinte: esta não é apenas a maneira como você desenvolve aplicativos agora, esta será a interface do usuário da sua plataforma. Então, seja Palantir, ServiceNow ou Snowflake,

Em empresas como a Lake e muitas outras com as quais trabalhamos, o sistema agentivo é a interface. Não é mais o Excel com um monte de quadradinhos onde você insere informações. Talvez não seja mais apenas a linha de comando. Toda essa informação multimodal agora é possível, e a maneira como você interage com sua plataforma é muito mais simples, como se estivesse interagindo com pessoas. Então, a IA empresarial está sendo revolucionada pelos sistemas agentivos.

A próxima coisa é a IA física. Esta é uma área sobre a qual vocês me viram falar há vários anos. Na verdade, estamos trabalhando nisso há oito anos. A questão é como transformar algo que é inteligente dentro de um computador e interage com você por meio de telas e alto-falantes em algo que possa interagir com o mundo? Ou seja, algo que possa entender o senso comum de como o mundo funciona. Permanência do objeto: se eu desviar o olhar e olhar de novo, o objeto ainda estará lá. Causalidade: se eu empurrar, ele tomba. Ele entende atrito e gravidade. Ela entende a inércia, que um caminhão pesado descendo a estrada vai precisar de um pouco mais de tempo para parar, que uma bola vai continuar rolando.

Essas ideias são senso comum até para uma criança pequena, mas para a IA, são completamente desconhecidas. Então, precisamos criar um sistema que permita que as IAs aprendam o senso comum do mundo físico, aprendam suas leis, mas também sejam capazes, é claro, de aprender com dados, e os dados são bastante escassos, e de avaliar se essa IA está funcionando, o que significa que ela precisa simular em um ambiente. Como uma IA sabe que as ações que está executando são consistentes com o que deveria fazer se não tem a capacidade de simular a resposta do mundo físico às suas ações? A resposta de suas ações é realmente importante para simular. Caso contrário, não há como avaliá-la. É diferente a cada vez.

Então, esse sistema básico requer três computadores. Um computador, é claro, aquele que sabemos que a NVIDIA constrói para treinar os modelos de IA. Outro computador que conhecemos serve para inferir os modelos. Inferir o modelo é essencialmente um computador robótico que roda em um carro, em um robô, em uma fábrica, em qualquer lugar na borda. Mas precisa haver outro computador projetado para simulação, e a simulação está no centro de quase tudo que a NVIDIA faz. É onde nos sentimos mais à vontade. A simulação foi realmente a base de quase tudo que fizemos com IA física. Então, temos três computadores e várias pilhas de software  que rodam nesses computadores, essas bibliotecas para torná-los úteis. O Omniverse é o nosso gêmeo digital, um mundo de simulação fisicamente baseado. O Cosmos, como mencionei antes, é o nosso modelo fundamental, não um modelo fundamental para a linguagem, mas um modelo fundamental do mundo e também está alinhado com a linguagem.

Você poderia dizer algo como: "O que está acontecendo com a bola?" e eles lhe diriam que a bola está rolando pela rua. Então, um modelo fundamental do mundo e, claro, os modelos de robótica. Temos dois deles. Um deles se chama GR00T. A outra se chama Alpamayo, sobre a qual vou falar. Agora, uma das coisas mais importantes que temos que fazer com IA física é criar os dados para treinar a IA em primeiro lugar. De onde vêm esses dados? Em vez de termos linguagens, porque criamos um monte de textos que consideramos a verdade fundamental a partir dos quais a IA pode aprender, como ensinamos a uma IA a verdade fundamental da física? Existem muitos e muitos vídeos, mas dificilmente o suficiente para capturar a diversidade e o tipo de interações de que precisamos. Então, é aqui que grandes mentes se uniram e transformaram o que antes era computação em dados.

Agora, usando a geração de dados sintéticos que são fundamentados e condicionados pelas leis da física, fundamentados e condicionados pela verdade fundamental, podemos gerar dados de forma seletiva e inteligente que podemos usar para treinar a IA. Por exemplo, o que entra nesta IA, neste modelo de mundo Cosmos AI aqui à esquerda, é a saída de um simulador de tráfego. Agora, este simulador de tráfego dificilmente é suficiente para uma IA aprender. Podemos pegar isso, inserir em um modelo básico do Cosmos e gerar vídeo surround que seja fisicamente baseado e plausível, do qual a IA possa aprender, e existem inúmeros exemplos disso. Deixe-me mostrar o que o Cosmos pode fazer.

Membro da mesa:

"O momento do ChatGPT para IA física está quase aqui, mas o desafio é claro. O mundo físico é diverso e imprevisível. Coletar dados de treinamento do mundo real é lento e caro, e nunca é suficiente. A resposta são dados sintéticos. Tudo começa com o NVIDIA Cosmos, um modelo fundamental de mundo aberto para IA física, pré-treinado com vídeo em escala de internet, dados reais de direção e robótica e simulação 3D. O Cosmos aprendeu uma representação unificada do mundo, capaz de alinhar linguagem, imagens, 3D e ação. Ele executa habilidades de IA física como geração, raciocínio e previsão de trajetória. A partir de uma única imagem, o Cosmos gera vídeo realista. A partir de descrições de cenas 3D, movimento fisicamente coerente, telemetria de direção e registros de sensores, vídeo surround, simuladores de planejamento, ambientes com múltiplas câmeras ou prompts de cenário, ele dá vida a casos extremos. Os desenvolvedores podem executar simulações interativas de circuito fechado no Cosmos. Quando ações são realizadas, o mundo responde. O Cosmos raciocina. Ele analisa cenários extremos, decompõe-nos em interações físicas familiares e raciocina sobre o que pode acontecer em seguida. O Cosmos transforma computação em dados, treinando veículos autônomos para o longo prazo e robôs para se adaptarem a cada cenário."

Jensen Huang:

Eu sei. É incrível. O Cosmos é o modelo fundamental líder mundial. Foi baixado milhões de vezes, usado em todo o mundo, preparando o mundo para esta nova era da IA ​​física. Nós mesmos o usamos. Usamos para criar nosso carro autônomo. Usando-o para geração e avaliação de cenários, poderíamos ter algo que nos permitisse viajar bilhões, trilhões de quilômetros, mas fazendo isso dentro de um computador, e fizemos um progresso enorme.

Hoje, estamos anunciando o Alpamayo, a primeira IA para veículos autônomos do mundo capaz de pensar e raciocinar. O Alpamayo é treinado de ponta a ponta, literalmente da câmera à atuação. A câmera está instalada, percorremos muitos e muitos quilômetros sozinhos, onde nós, humanos, dirigimos o carro, usando demonstrações humanas, e temos muitos e muitos quilômetros gerados pelo Cosmos. Além disso, centenas de milhares de exemplos são rotulados com muito cuidado para que pudéssemos ensinar o carro a dirigir. O Alpamayo faz algo realmente especial. Ele não apenas recebe informações dos sensores e ativa o volante, os freios e o acelerador, como também raciocina sobre qual ação está prestes a tomar. Ele informa qual ação vai tomar, os motivos que levaram a essa ação e, claro, a trajetória.

Tudo isso é acoplado diretamente e treinado de forma muito específica por uma grande combinação de dados treinados por humanos e também dados gerados pelo Cosmos. O resultado é realmente incrível. Seu carro não só dirige como você espera, e dirige de forma tão natural porque aprendeu diretamente com demonstrações feitas por humanos, mas em cada cenário, quando se depara com ele, ele te diz o que vai fazer e raciocina sobre o que está prestes a fazer.

Agora, a razão pela qual isso é tão importante é por causa da longa cauda da direção. É impossível para nós simplesmente coletarmos todos os cenários possíveis para tudo o que pode acontecer em todos os países, em todas as circunstâncias que podem ocorrer para toda a população. No entanto, é muito provável que cada cenário, se decomposto em vários outros cenários menores, seja bastante normal para você entender. Então, essas longas caudas serão decompostas em circunstâncias bastante normais com as quais o carro sabe lidar. Ele só precisa raciocinar sobre isso. Então, vamos dar uma olhada. Tudo o que você está prestes a ver é uma tomada única. Sem usar as mãos.

Membro da mesa:

"Roteamento para o seu destino. Aperte os cintos. Você chegou."

Jensen Huang:

Começamos a trabalhar em carros autônomos há oito anos, e o motivo é que, desde o início, previmos que o aprendizado profundo e a inteligência artificial iriam reinventar toda a infraestrutura computacional. Se quiséssemos entender como nos orientar e como guiar a indústria rumo a esse novo futuro, precisaríamos nos tornar especialistas em construir toda a infraestrutura. Bem, como mencionei antes, a IA é um bolo de cinco camadas. A camada mais baixa é terra, energia e estrutura. No caso da robótica, a camada mais baixa é o carro. A camada seguinte é composta por chips, GPUs, chips de rede, CPUs e tudo mais. A camada seguinte a essa é a infraestrutura. Essa infraestrutura, neste caso específico, como mencionei com a IA física, é o Omniverse e o Cosmos.

E acima disso estão os modelos. E no caso dos modelos que acabei de mostrar, o modelo aqui se chama Alpamayo, e o Alpamayo hoje é de código aberto. Este incrível trabalho envolveu milhares de pessoas. Nossa equipe de AV tem milhares de pessoas, só para vocês terem uma ideia. Nosso parceiro, Ola… Acho que OlTem alguém aqui na plateia. A Mercedes concordou em fazer parceria conosco há cinco anos para tornar tudo isso possível. Imaginamos que um dia, um bilhão de carros nas ruas serão autônomos. Você poderá ter um robotáxi que você coordena e aluga de alguém, ou poderá ter um carro próprio que dirige sozinho, ou poderá decidir dirigir você mesmo, mas todos os carros terão capacidade de direção autônoma. Todos os carros serão movidos a IA. E, neste caso, a camada de modelo é o Alpamayo, e o aplicativo acima disso é o Mercedes-Benz.

Então, toda essa estrutura é o nosso primeiro empreendimento com a NVIDIA. E temos trabalhado nisso o tempo todo, e estou muito feliz que o primeiro carro autônomo da NVIDIA estará nas ruas no primeiro trimestre, e depois chegará à Europa no segundo trimestre. Aqui nos Estados Unidos no primeiro trimestre, depois à Europa no segundo trimestre, e acho que à Ásia no terceiro e quarto trimestres. E o mais poderoso é que vamos continuar atualizando com as próximas versões do Alpamayo e versões posteriores. Não tenho dúvidas de que esta será uma das maiores indústrias de robótica, e estou muito feliz por termos trabalhado nisso. Aprendemos muito sobre como ajudar o resto do mundo a construir sistemas robóticos, esse profundo conhecimento de como construí-los nós mesmos, construindo toda a infraestrutura internamente e sabendo que tipo de chips um sistema robótico precisaria.

Neste caso específico, dois Orins, a próxima geração, dois Thors. Esses processadores são projetados para sistemas robóticos e foram projetados para o mais alto nível de segurança. Este carro acaba de ser classificado. Acabou de entrar em produção. O Mercedes-Benz CLA foi classificado pelo NCAP como o carro mais seguro do mundo. É o único sistema que conheço que tem cada linha de código, o chip, o sistema, cada linha de código com certificação de segurança. Os sensores são diversos e redundantes, assim como o conjunto de software de condução suave do carro. O conjunto Alpamayo é treinado de ponta a ponta e possui habilidades incríveis. No entanto, ninguém sabe se será perfeitamente seguro até que você o dirija por muito tempo. E a maneira como garantimos isso é com outro conjunto de software, um conjunto completo de veículos autônomos subjacente. Todo esse conjunto de veículos autônomos foi construído para ser totalmente rastreável. E levamos cerca de cinco anos para construí-lo, seis ou sete anos, na verdade, para construir esse segundo conjunto.

Esses dois conjuntos de software são espelhados um ao outro. E então temos um avaliador de políticas e segurança que decide: "Isso é algo em que tenho muita confiança e posso raciocinar sobre como dirigir com muita segurança?" Se sim, vou deixar o Alpamayo fazer isso. Se for uma circunstância em que não tenho muita confiança, e o avaliador de políticas de segurança decidir que vamos voltar para um sistema de proteção mais simples e seguro, então voltamos ao conjunto clássico de veículos autônomos. Somos o único carro no mundo com essas duas plataformas de veículos autônomos em funcionamento, e todos os sistemas de segurança devem ter diversidade e redundância. Bem, nossa visão é que, um dia, cada carro, cada caminhão será autônomo, e temos trabalhado para esse futuro. Toda essa plataforma é verticalmente integrada, claro, no caso da Mercedes-Benz. Construímos toda a plataforma juntos. Vamos implantar o carro. Vamos operar a plataforma. Vamos manter a plataforma enquanto existirmos.

No entanto, como tudo o que fazemos como empresa, construímos toda a plataforma, mas toda a plataforma está aberta para o ecossistema. E o ecossistema que trabalha conosco para construir a 4ª geração de veículos autônomos e robôs-táxi está se expandindo e chegando a todos os lugares. Bem, isso já é um negócio gigantesco para nós. É um negócio gigantesco porque eles o usam para dados de treinamento, processamento de dados e treinamento de seus modelos. Eles o usam para geração de dados sintéticos. Em alguns casos, em algumas empresas, eles praticamente só constroem os computadores, os chips que estão dentro do carro. E algumas empresas trabalham conosco em toda a cadeia de valor. Algumas empresas trabalham conosco em uma parte parcial disso. Então não importa o quanto você decida usar. Meu único pedido é usar um pouco da NVIDIA sempre que possível, mas o projeto todo é aberto.

Agora, este será o primeiro mercado de IA física em larga escala e convencional. E isso está agora, acho que todos podemos concordar, totalmente aqui. E esse ponto de inflexão de passar de veículos não autônomos para veículos autônomos provavelmente está acontecendo agora. Nos próximos 10 anos, tenho quase certeza de que uma porcentagem muito, muito grande dos carros do mundo será autônoma ou altamente autônoma. Mas essa técnica básica que acabei de descrever, usando os três computadores, usando a geração de dados sintéticos e simulação, se aplica a todas as formas de sistemas robóticos. Pode ser um robô que seja apenas um articulador, um manipulador. Talvez seja um robô móvel, talvez seja um robô totalmente humanoide.

E assim, a próxima jornada, a próxima era para os sistemas robóticos será a dos robôs. E esses robôs virão em vários tamanhos diferentes. E eu convidei alguns amigos. Eles vieram? Ei, pessoal. Depressa. Tenho muita coisa para mostrar. Vamos. Depressa. Você avisou o R2-D2 que estaria aqui? Avisou? E o C-3PO? Ok. Certo. Venham aqui. Agora, uma das coisas que é realmente... Vocês têm os Jetsons. Eles têm pequenos computadores Jetson dentro deles. Eles são treinados dentro do Omniverse. E que tal isso? Vamos mostrar a todos o simulador em que vocês aprenderam a ser robôs. Vocês querem ver? Ok, vamos ver. Execute, por favor.

Não é incrível? Foi assim que vocês aprenderam a ser robôs. Vocês fizeram tudo dentro do Omniverse. E o simulador de robôs se chama Isaac, Isaac Sim e Isaac Lab. E quem quiser construir um robô... Ninguém vai ser tão fofo quanto vocês, mas agora temos todos... Olha só quantos amigos nossos estão construindo robôs. Estamos construindo robôs enormes. Como eu disse, ninguém é tão fofo quanto vocês, mas temos o Nurabot, e temos o AGIBOT ali. Temos a LG aqui. Eles acabaram de anunciar um novo robô. A Caterpillar tem os maiores robôs de todos os tempos. Esse entrega comida na sua casa. Ele está conectado ao Uber Eats. E esse é o Surf Robot. Eu adoro esses caras. Agility, Boston Dynamics, incrível. Temos robôs cirúrgicos. Temos robôs manipuladores da Franka. Temos o robô da Universal Robotics. Uma quantidade incrível de robôs diferentes.

E então, este é o próximo capítulo. Falaremos muito mais sobre robótica no futuro, mas, no fim das contas, não se trata apenas dos robôs. Eu sei que tudo gira em torno de vocês. Trata-se de chegar lá. E uma das indústrias mais importantes do mundo que será revolucionada pela IA física e pela física da IA ​​é a indústria que deu início a tudo isso. Na NVIDIA, isso não seria possível sem as empresas com as quais falarei a seguir. E estou muito feliz que todas elas, começando pela Cadence, irão acelerar tudo. A Cadence integrou o CUDA-X em todas as suas simulações e solvers. Eles têm IAs físicas da NVIDIA que serão usadas em diferentes plantas físicas e simulações de plantas. Temos física de IA sendo integrada a esses sistemas.

Então, seja EDA ou SDA, e no futuro, sistemas robóticos, basicamente teremos a mesma tecnologia que tornou vocês possíveis agora revolucionando completamente essas plataformas de projeto. Synopsys. Sem a Synopsys… Synopsys e Cadence são absolutamente indispensáveis ​​no mundo do projeto de chips. A Synopsys lidera em projeto lógico e IP. No caso da Cadence, ela lidera em projeto físico, roteamento e posicionamento, emulação e verificação. A Cadence é incrível em emulação e verificação. Ambas estão entrando no mundo do projeto e simulação de sistemas. E então, no futuro, vamos projetar seus chips dentro da Cadence e da Synopsys. Vamos projetar seus sistemas, emular tudo e simular tudo dentro dessas ferramentas. Esse é o seu futuro. Vamos dar… Sim, vocês vão nascer dentro dessas plataformas. Incrível, não é? E estamos muito felizes por estarmos trabalhando com esses setores. Assim como integramos a NVIDIA à Palantir e à ServiceNow, estamos integrando a NVIDIA às indústrias de simulação com maior demanda computacional, como a Synopsys e a Cadence.

E hoje, estamos anunciando que a Siemens também está fazendo o mesmo. Vamos integrar CUDA-X, IA física, IA agente, NeMo, Nemotron, integrando-os profundamente ao mundo da Siemens. E o motivo é o seguinte: primeiro, projetamos os chips, e tudo isso no futuro será acelerado pela NVIDIA. Vocês ficarão muito satisfeitos com isso. Teremos projetistas de chips e projetistas de sistemas agentes trabalhando conosco, nos ajudando no projeto, assim como temos engenheiros de software agentes ajudando nossos engenheiros de software a programar hoje. Então, teremos projetistas de chips e projetistas de sistemas agentes. Vamos criar vocês dentro disso, mas depois precisamos construí-los. Precisamos construir as fábricas que os produzirão.

Precisamos projetar as linhas de produção que montarão todos vocês, e essas fábricas serão essencialmente robôs gigantescos. Incrível, não é? Eu sei, eu sei. Então, vocês serão projetados em um computador. Serão fabricados em um computador. Serão testados e avaliados em um computador muito antes de terem que lidar com a gravidade. Eu sei. Vocês sabem como lidar com a gravidade? Conseguem pular? Conseguem pular? Ok. Tudo bem. Sem exibicionismo. Ok. Então, a indústria que tornou a NVIDIA possível... Estou muito feliz que agora a tecnologia que estamos criando atingiu um nível de sofisticação e capacidade que nos permite ajudá-los a revolucionar seu setor.

E então, o que começou com eles, agora temos a oportunidade de voltar e ajudá-los a revolucionar o deles. Vamos dar uma olhada no que faremos com a Siemens. Vamos lá.


Membro da mesa:

"Os avanços na IA física estão permitindo que a IA saia das telas e chegue ao nosso mundo físico, e bem a tempo, enquanto o mundo constrói fábricas de todos os tipos para chips, computadores, medicamentos que salvam vidas e IA. À medida que a escassez global de mão de obra se agrava, precisamos da automação impulsionada por IA física e robótica mais do que nunca. É aqui que a IA encontra as maiores indústrias físicas do mundo que reside a base da parceria entre a NVIDIA e a Siemens. Por quase dois séculos, a Siemens construiu as indústrias do mundo e, agora, está reinventando-as para a era da IA. A Siemens está integrando as bibliotecas NVIDIA CUDA-X, modelos de IA e o Omniverse ao seu portfólio de ferramentas e plataformas de EDA, CAE e gêmeos digitais. Juntos, estamos levando a IA física para todo o ciclo de vida industrial, do projeto e simulação à produção e operações. Estamos no início de uma nova revolução industrial, a era da IA ​​física construída pela NVIDIA e pela Siemens para a próxima era das indústrias."

Jensen Huang:

Incrível, né, pessoal? O que vocês acham? Muito bem. Segurem-se firme. Só segurem-se firme. Se vocês analisarem os modelos do mundo, não há dúvida de que a OpenAI é a principal geradora de tokens hoje em dia. Mais tokens da OpenAI são gerados de praticamente qualquer outra coisa. O segundo maior grupo, o segundo maior, provavelmente é o de modelos abertos. E eu imagino que, com o tempo, como existem tantos... Com tantas empresas, tantos pesquisadores, tantos tipos diferentes de domínios e modalidades, os modelos de código aberto serão de longe os maiores.

Vamos falar sobre alguém realmente especial. Vocês querem? Vamos falar sobre Vera Rubin. Vera Rubin… Sim, podem falar. Ela é uma astrônoma americana. Ela foi a primeira a observar… Ela percebeu que as caudas das galáxias se moviam quase tão rápido quanto o centro das galáxias. Bem, eu sei que não faz sentido. Não faz sentido. A física newtoniana diria que, assim como no sistema solar, os planetas mais distantes do Sol orbitam o Sol mais lentamente do que os planetas mais próximos. E, portanto, não faz sentido que isso aconteça, a menos que existam corpos invisíveis. Nós os chamamos de… Ela descobriu o corpo escuro, a matéria escura, que ocupa espaço, mesmo que não a vejamos. E então Vera Rubin é a pessoa em homenagem à qual nomeamos nosso próximo computador. Não é uma boa ideia? Eu sei.

Certo. Vera Rubin foi projetada para abordar esse desafio fundamental que temos. A quantidade de computação necessária para IA está disparando. A demanda por GPUs NVIDIA está disparando. Está disparando porque os modelos estão aumentando em um fator de 10, uma ordem de magnitude a cada ano. E sem mencionar, como eu disse, que a introdução do O1 foi um ponto de inflexão para a IA. Em vez de uma resposta instantânea, a inferência agora é um processo de pensamento. E para ensinar a IA a pensar, o aprendizado por reforço e uma computação muito significativa foram introduzidos no pós-treinamento. Não se trata mais de ajuste fino supervisionado, também conhecido como aprendizado por imitação ou treinamento supervisionado. Agora temos aprendizado por reforço, essencialmente o computador tentando diferentes iterações por si só, aprendendo a executar uma tarefa.

A quantidade de computação necessária para o pré-treinamento, o pós-treinamento e o escalonamento em tempo de teste explodiu como resultado disso. E agora, em cada inferência que fazemos, em vez de apenas calcular o número de tokens de uma só vez, podemos ver as IAs pensando, o que apreciamos. Quanto mais tempo elas pensam, geralmente produzem uma resposta melhor. Assim, o escalonamento em tempo de teste faz com que o número de tokens gerados aumente 5 vezes a cada ano. Sem mencionar que, enquanto isso, a corrida pela IA está a todo vapor. Todos estão tentando chegar ao próximo nível. Todos estão tentando chegar à próxima fronteira. E cada vez que chegam à próxima fronteira, o custo dos tokens de IA da geração anterior começa a diminuir cerca de 10 vezes a cada ano. Essa queda de 10 vezes a cada ano, na verdade, indica algo diferente. Indica que a corrida é muito intensa. Todos estão tentando chegar ao próximo nível, e alguém está conseguindo. Portanto, tudo isso é um problema de computação. Quanto mais rápido você computa, mais cedo você pode chegar ao próximo nível da próxima fronteira.

Tudo isso está acontecendo simultaneamente. E então decidimos que tínhamos que avançar o estado da arte da computação todos os anos, sem deixar nenhum ano para trás. E agora, estamos vendendo os GB200 há um ano e meio. No momento, estamos em plena produção do GB300, e se o Vera Rubin vai estar pronto a tempo para este ano, ele precisa estar em produção agora. E então, hoje, posso dizer que o Vera Rubin está em plena produção. Vocês querem dar uma olhada no Vera Rubin? Certo. Vamos lá. Mostrem, por favor.

Membro da mesa:

"O Vera Rubin chega bem a tempo para a próxima fronteira da IA. Esta é a história de como o construímos. A arquitetura, um sistema de seis chips, projetado para funcionar como um só, nasceu de um design colaborativo extremo. Começa com o Vera, uma CPU de design personalizado, com o dobro do desempenho da geração anterior, e a GPU Rubin. Vera e Rubin são projetados em conjunto desde o início para compartilhar dados de forma bidirecional e coerente, mais rapidamente e com menor latência. Em seguida, 17.000 componentes são reunidos em uma placa de computação Vera Rubin. Robôs de alta velocidade posicionam os componentes com precisão micrométrica antes que a CPU Vera e duas GPUs Rubin concluam a montagem, capazes de fornecer 100 petaflops de IA, cinco vezes mais do que seu antecessor.

A IA precisa de dados rapidamente. O ConnectX-9 fornece 1,6 terabits por segundo de largura de banda escalável para cada GPU. A DPU BlueField-4 descarrega o armazenamento e a segurança, para que a computação permaneça totalmente focada em IA. A bandeja de computação Vera Rubin, completamente redesenhada sem cabos, mangueiras ou ventiladores, apresenta uma DPU BlueField-4, oito NICs ConnectX-9, duas CPUs Vera e quatro GPUs Rubin, o bloco de construção computacional do supercomputador de IA Vera Rubin.

Em seguida, o switch NVLink de sexta geração, que movimenta mais dados do que a internet global, conectando 18 nós de computação e escalando para até 72 GPUs Rubin operando como uma só. Depois, a fotônica Ethernet Spectrum-X, o primeiro switch Ethernet do mundo com 512 pistas e óptica co-embalada com capacidade para 200 gigabits, escalona milhares de racks em uma fábrica de IA. 15.000 anos de engenharia desde o início do projeto, o primeiro rack Vera Rubin NVL72 entra em operação. Seis chips inovadores, 18 bandejas de computação, nove bandejas de switch NVLink, 220 trilhões de transistores, pesando quase duas toneladas. Um salto gigantesco para a próxima fronteira da IA. Rubin chegou."

Jensen Huang:

O que vocês acham? Este é um módulo Rubin, com 1.152 GPUs e 16 racks. Cada rack, como vocês sabem, tem 72 Rubins. Cada Rubin é composto por dois chips de GPU conectados. Vou mostrar para vocês, mas há algumas coisas que... Bem, eu conto depois. Não posso contar tudo agora. Bem, nós projetamos seis chips diferentes. Primeiro, temos uma regra na nossa empresa, e é uma boa regra. Nenhuma nova geração deve ter mais do que uma ou duas mudanças de chip. Mas o problema é o seguinte. Como vocês puderam ver, estávamos descrevendo o número total de transistores em cada um dos chips que estavam sendo descritos, e sabemos que a Lei de Moore desacelerou bastante. Portanto, o número de transistores que conseguimos obter ano após ano não consegue acompanhar os modelos 10 vezes maiores. Não consegue acompanhar o aumento de cinco vezes na geração de tokens por ano. Não consegue acompanhar o fato de que a queda no custo dos tokens será tão acentuada. É impossível para a indústria continuar avançando nesse ritmo, a menos que implementemos um design colaborativo agressivo e extremo, inovando em todos os chips, em toda a estrutura, simultaneamente. Essa é a razão pela qual decidimos que, nesta geração, não tínhamos outra escolha a não ser redesenhar cada chip.

Agora, cada chip que acabamos de descrever poderia ser tema de uma coletiva de imprensa, e provavelmente havia uma empresa inteira dedicada a isso antigamente. Cada um deles é completamente revolucionário.e o melhor da sua categoria. O processador Vera, eu tenho muito orgulho dele. Em um mundo com restrições de energia, o processador Vera tem o dobro do desempenho. Em um mundo com restrições de energia, ele tem o dobro do desempenho por watt dos processadores mais avançados do mundo. Sua taxa de transferência de dados é insana. Ele foi projetado para processar supercomputadores. E o Vera era uma GPU incrível. O Vera era uma GPU incrível. Agora, o Vera aumenta o desempenho de um único núcleo, aumenta a capacidade da memória, aumenta tudo drasticamente. É um chip gigante.

Este é o processador Vera. Este é um processador, e está conectado à GPU Rubin. Olhem só para isso. É um chip gigante. Agora, a coisa que é realmente especial... Vou explicar tudo. Acho que serão necessárias três mãos, quatro mãos para fazer isso. Ok, então este é o processador Vera. Possui 88 núcleos de CPU, e os núcleos de CPU são projetados para serem multithread, mas a natureza multithread do Vera foi projetada para que cada um dos 176 threads pudesse obter seu desempenho máximo. Então, é essencialmente como se houvesse 176 núcleos, mas apenas 88 núcleos físicos. Esses núcleos foram projetados usando uma tecnologia chamada multithreading espacial, mas o desempenho de E/S é incrível.

Esta é a GPU Rubin. Ela tem 5 vezes o desempenho de ponto flutuante do Blackwell, mas o importante é... Vamos ao resultado final. O resultado final é que ela tem apenas 1,6 vezes o número de transistores do Blackwell. Isso diz muito sobre o nível da física de semicondutores hoje. Se não fizermos codesign, se não fizermos codesign extremo no nível de praticamente cada chip em todo o sistema, como é possível que entreguemos níveis de desempenho que, na melhor das hipóteses, sejam 1,6 vezes maiores a cada ano? Porque esse é o número total de transistores que você tem.

E mesmo que você tivesse um pouco mais de desempenho por transistor, digamos 25%, é impossível obter 100% de rendimento com o número de transistores que você tem. Então, 1,6x meio que impõe um limite ao quanto o desempenho pode ir a cada ano, a menos que você faça algo extremo, e nós chamamos isso de co-design extremo. Bem, uma das coisas que fizemos, e que foi uma grande invenção, é chamada de NVFP4 Tensor Core. O mecanismo de transformação dentro do nosso chip não é apenas um número de ponto flutuante de quatro bits que colocamos no caminho de dados. É um processador inteiro, uma unidade de processamento que entende como ajustar dinamicamente e adaptativamente sua precisão e estrutura para lidar com diferentes níveis de transformação, de modo que você possa obter maior taxa de transferência onde for possível perder precisão e retornar à precisão mais alta possível onde for necessário.

Essa capacidade de fazer isso dinamicamente... Você não consegue fazer isso em software, porque obviamente ele roda muito rápido, então você precisa ser capaz de fazer isso de forma adaptativa dentro do processador. É isso que um NVFP4 faz. Quando alguém diz FP4 ou FP8, isso quase não significa nada para nós, e o motivo é que é a estrutura do Tensor Core e todos os algoritmos que o fazem funcionar. NVFP4, nós já publicamos artigos sobre isso. O nível de desempenho e precisão que ele consegue manter é completamente incrível. Este é um trabalho inovador. Eu não ficaria surpreso se a indústria quisesse que tornássemos este formato e esta estrutura um padrão da indústria no futuro. Isso é completamente revolucionário. É assim que conseguimos entregar um salto gigantesco em desempenho, mesmo tendo apenas 1,6 vezes o número de transistores.

E agora, uma vez que você tenha um ótimo nó de processamento, e este é o nó do processador, e dentro dele… Então, este é, por exemplo… Aqui, deixe-me fazer isso. Isto é, uau, super pesado. Você precisa ser um CEO em ótima forma para fazer este trabalho. Ok. Certo. Então, esta coisa pesa, eu diria que provavelmente, sei lá, algumas centenas de quilos. Achei isso engraçado. Vamos lá, poderia ser. Todo mundo disse: "Não, acho que não."

Certo. Então, olhem para isto. Nós revolucionamos todo o chassi do NGX. Este nó, 43 cabos, zero cabos, seis tubos, apenas dois deles aqui. Leva duas horas para montar isso. Se você tiver sorte, leva duas horas. E claro, você provavelmente vai montá-lo errado, terá que testá-lo novamente, testá-lo, remontá-lo. Portanto, o processo de montagem é incrivelmente complicado. E isso era compreensível, já que um dos nossos primeiros supercomputadores foi desmontado dessa forma. De duas horas para cinco minutos. 80% refrigerado a líquido. 100% refrigerado a líquido. Sim, realmente, um grande avanço.

Ok. Então, este é o novo chassi de computação. E o que conecta tudo isso aos switches top-of-rack, o tráfego leste-oeste, é chamado de NIC Spectrum-X. Esta é a melhor NIC do mundo, sem dúvida, da Mellanox da NVIDIA, a Mellanox que se juntou a nós há muito tempo. Sua tecnologia de rede para computação de alto desempenho é a melhor do mundo, sem exceção. Os algoritmos, o design do chip, todas as interconexões, todas as pilhas de software que rodam sobre ele, seu RDMA, absolutamente, absolutamente, sem exceção, o melhor do mundo. E agora, ele tem a capacidade de fazer RDMA programável e acelerador de caminho de dados, para que nossos parceiros, como laboratórios de IA, possam criar seus próprios algoritmos para como desejam mover dados pelo sistema. Mas isso é completamente de classe mundial, ConnectX.

O ConnectX-9 e a CPU Vera foram projetados em conjunto e nunca os revelamos, nunca os lançamos até o surgimento do CX9, porque o projetamos em conjunto para um novo tipo de processador. O CX8 e o Spectrum-X revolucionaram a forma como o Ethernet era feito para inteligência artificial. O tráfego Ethernet para IA é muito, muito mais intenso, requer latência muito menor. O aumento instantâneo do tráfego é diferente de tudo que o Ethernet vê. E então, criamos o Spectrum-X, que é o Ethernet para IA. Há dois anos, anunciamos o Spectrum-X. A NVIDIA é hoje a maior empresa de redes que o mundo já viu. Seu sucesso e utilização em diversas instalações têm sido inegáveis, revolucionando o cenário da IA.

O desempenho é incrível, especialmente em data centers de 200 megawatts ou de gigawatts, que custam bilhões de dólares. Digamos que um data center de gigawatt custe US$ 50 bilhões. Se o desempenho da rede permitir um aumento de 10% na capacidade, como no caso do Spectrum-X, um aumento de 25% na taxa de transferência não é incomum. Um aumento de apenas 10% já representa um valor de US$ 5 bilhões. A rede é totalmente gratuita, e é por isso que todos usam o Spectrum-X. É simplesmente incrível.

E agora, vamos inventar um novo tipo de processamento de dados. O Spectrum-X é para tráfego leste-oeste. Agora temos um novo processador chamado BlueField-4. O BlueField-4 nos permite pegar um data center muito grande, isolar diferentes partes dele para que diferentes usuários possam usar diferentes partes, garantindo que tudo possa ser virtualizado, caso decidam fazê-lo. Assim, você descarrega grande parte do software de virtualização, do software de segurança e do software de rede para o tráfego norte-sul. E o BlueField-4 vem como padrão em cada um desses nós de computação. O BlueField-4 tem uma segunda aplicação sobre a qual falarei em instantes. Este é um processador revolucionário e estou muito entusiasmado com ele.

Este é o switch NVLink 6 e está bem aqui. Este switch aqui, existem quatro deles dentro do switch NVLink aqui. Cada um desses chips de switch tem o SerDes mais rápido da história. O mundo mal está chegando a 200 gigabits. Este é 400 gigabits por segundo.

O switch. A razão pela qual isso é tão importante é para que possamos ter todas as GPUs se comunicando com todas as outras GPUs exatamente ao mesmo tempo. Este switch no painel traseiro de um desses racks nos permite transferir o equivalente ao dobro da quantidade de dados da internet global, o dobro de todos os dados da internet mundial, com o dobro da velocidade. Considere a largura de banda transversal de toda a internet do planeta. É de cerca de 100 terabytes por segundo. Isso equivale a 240 terabytes por segundo. Então, isso coloca as coisas em perspectiva. Isso permite que cada GPU trabalhe com todas as outras GPUs exatamente ao mesmo tempo.

E além disso, além disso… Ok, então este é um rack. Este é um rack. Cada um dos racks, como vocês podem ver, tem 1,7 vezes mais transistores… É, vocês poderiam fazer isso para mim? Normalmente são cerca de duas toneladas, mas hoje são duas toneladas e meia porque, quando enviaram, esqueceram de drenar a água. Então, trouxemos muita água da Califórnia. Vocês conseguem ouvir o chiado? Quando você gira duas toneladas e meia, vai chiar um pouco. Ah, você consegue. Uau. Ok. Não vamos fazer você repetir.

Certo. Então, atrás disso estão os cabos NVLink. Basicamente, três quilômetros de cabos de cobre. O cobre é o melhor condutor que conhecemos. E todos esses são cabos de cobre blindados, cabos de cobre estruturados. O maior número de cabos de cobre já usado em sistemas de computação no mundo. E nosso SerDes transmite os cabos de cobre do topo do rack até a base a 400 gigabits por segundo. É incrível. São mais de três quilômetros de cabos de cobre, 5.000 cabos de cobre, o que torna possível a espinha dorsal NVLink. Essa é a revolução que realmente deu início ao sistema NGX.

Agora, decidimos criar um sistema padrão da indústria, para que todo o ecossistema, toda a nossa cadeia de suprimentos, pudesse padronizar esses componentes. São cerca de 80.000 componentes diferentes que compõem esses sistemas NGX, e seria um desperdício total trocá-los todos os anos. Todas as principais empresas de informática, da Foxconn à Quanta, da Wistron, e a lista continua, passando pela HP, Dell e Lenovo, todas sabem como construir esses sistemas. Então, o fato de termos conseguido acomodar a Vera Rubin aqui, mesmo com um desempenho muito superior e, o mais importante, com o dobro da potência, é incrível. A potência da Vera Rubin é o dobro da da Grace Blackwell.

E, no entanto, e este é o milagre, o fluxo de ar que entra é praticamente o mesmo. E, muito importante, a água que entra está na mesma temperatura, 45 graus Celsius. Com 45 graus Celsius, não são necessários resfriadores de água para data centers. Basicamente, estamos resfriando este supercomputador com água quente. É incrivelmente eficiente. E este é o novo rack. 1,7 vezes mais transistores, mas cinco vezes mais desempenho máximo de inferência e três vezes e meia mais desempenho máximo de treinamento. Eles estão conectados na parte superior usando Spectrum-X. Ah, obrigado. Este é o primeiro chip fabricado no mundo usando o novo processo da TSMC que co-inovamos, chamado Coop. É uma tecnologia de processo fotônico de silício integrado. E isso nos permite levar a fotônica de silício diretamente para o chip. São 512 portas a 200 gigabits por segundo. Este é o novo switch Ethernet com IA, o switch Ethernet Spectrum-X. E olhem para este chip gigante. Mas o que é realmente incrível é que ele tem fotônica de silício conectada diretamente a ele. Os lasers entram por aqui, os lasers entram por aqui. A óptica está aqui e se conecta ao resto do data center. Mostrarei isso em um instante, mas isso está no topo do rack e este é o novo switch fotônico de silício Spectrum-X. E temos uma novidade que quero compartilhar com vocês.

Então, como mencionei, há alguns anos, apresentamos o Spectrum-X para reinventar a forma como as redes são feitas. O Ethernet é muito fácil de gerenciar e todos têm um stack Ethernet, e todos os data centers do mundo sabem como lidar com Ethernet. E a única coisa que usávamos na época era o InfiniBand, usado em supercomputadores. O InfiniBand tem latência muito baixa, mas, claro, a pilha de software, toda a capacidade de gerenciamento do InfiniBand, é muito estranha para quem usa Ethernet. Então, decidimos entrar no mercado de switches Ethernet pela primeira vez. O Spectrum-X decolou e nos tornou a maior empresa de redes do mundo, como mencionei. Esta próxima geração do Spectrum-X dará continuidade a essa tradição.

Mas, como eu disse antes, a IA reinventou toda a pilha de computação, cada camada da pilha de computação. É lógico que, quando a IA começar a ser implementada nas empresas do mundo todo, ela também reinventará a forma como o armazenamento é feito. Bem, a IA não usa SQL, a IA usa informações semânticas. E quando a IA está sendo usada, ela cria esse conhecimento temporário, uma memória temporária chamada cache KV, combinações de chave-valor, mas é um cache KV, basicamente o cache da IA, a memória de trabalho da IA. E a memória de trabalho da IA ​​é armazenada na memória HBM. Para cada token, a GPU lê o modelo inteiro, lê toda a memória de trabalho e produz um token, que armazena de volta no cache KV. E então, na próxima vez que isso acontece, ela lê toda a memória, lê o token e o transmite pela GPU, gerando outro token.

Bem, ela faz isso repetidamente, token após token. E obviamente, se você tiver uma longa conversa com essa IA, com o tempo, essa memória, essa memória contextual, crescerá tremendamente. Sem mencionar que os modelos estão crescendo, o número de interações que realizamos com as IAs está aumentando. Gostaríamos que essa IA nos acompanhasse por toda a vida e se lembrasse de cada conversa que já tivemos com ela, certo? De cada detalhe da pesquisa que eu lhe pedi. Claro, o número de pessoas que compartilharão o supercomputador continuará a crescer. E, portanto, essa memória contextual, que inicialmente cabia em uma HBM (Memória de Base Alta), já não é mais suficiente.

No ano passado, criamos a memória ultrarrápida da Grace Blackwell, que chamamos de memória de contexto rápida, e esse é o motivo pelo qual conectamos a Grace diretamente ao Hopper. Foi por isso que conectamos a Grace diretamente à Blackwell, para que pudéssemos expandir a memória de contexto, mas mesmo isso não é suficiente. Então, a próxima solução, claro, seria usar a rede, a rede norte-sul, para o armazenamento da empresa. Mas se você tiver muitas IAs rodando ao mesmo tempo, essa rede não será mais rápida o suficiente. Portanto, a resposta é claramente fazer diferente.

E então, criamos o BlueField-4, para que pudéssemos ter essencialmente um armazenamento de memória de contexto com cache KV ultrarrápido diretamente no rack. E, como mostrarei em um instante, existe uma categoria totalmente nova de sistemas de armazenamento. E a indústria está muito entusiasmada porque este é um ponto crítico para praticamente todos que geram muitos tokens hoje em dia, os laboratórios de IA, os provedores de serviços em nuvem. Eles estão sofrendo muito com a quantidade de tráfego de rede causada pela movimentação do cache KV. Então, a ideia de criarmos uma nova plataforma, um novo processador para executar todo o sistema de gerenciamento de memória de contexto do cache KV do Dynamo e colocá-lo bem próximo ao restante do rack é completamente revolucionária.

Então, é isso. Fica bem aqui. Estes são todos os nós de computação. Cada um deles é um NVLink 72. Então, este é um Vera Rubin NVLink72, 144 GPUs Rubin. Esta é a memória de contexto armazenada aqui. Atrás de cada um deles estão quatro BlueFields, e atrás de cada BlueField há 150 terabytes de memória de contexto. E para cada GPU, depois de alocada, cada GPU receberá 16 terabytes adicionais. Agora, dentro deste nó, cada GPU tem essencialmente um terabyte. E agora, com este armazenamento de suporte aqui, diretamente no mesmo tráfego leste-oeste, exatamente na mesma taxa de dados, 200 gigabits por segundo, em literalmente toda a estrutura deste nó de computação, você obterá 16 terabytes adicionais de memória, e este é o plano de gerenciamento. Estes são os switches Spectrum-X que conectam todos eles. E aqui, estes switches na extremidade os conectam ao resto do data center. E então, este é o Vera Rubin.

Agora, há várias coisas realmente incríveis sobre ele. Então, a primeira coisa que mencionei é que todo esse sistema tem o dobro da eficiência energética, essencialmente o dobro do desempenho em termos de temperatura, no sentido de que, embora a potência seja o dobro, o consumo de energia seja o dobro e a quantidade de computação seja muitas vezes maior, o líquido que entra no sistema ainda está a 45 graus Celsius. Isso nos permite economizar cerca de 6% da energia consumida pelos data centers do mundo. Portanto, isso é muito importante.

A segunda grande vantagem é que todo esse sistema agora é seguro para computação confidencial, o que significa que tudo é codificado em trânsito, em repouso e durante a computação, e todos os barramentos agora são criptografados. Cada PCI Express, cada NVLink, cada NVLink entre CPU e GPU, entre GPUs, tudo agora é criptografado. Portanto, é seguro para computação confidencial. Isso permite que as empresas tenham a segurança de que seus modelos estão sendo implantados por terceiros, mas nunca serão vistos por ninguém mais. Assim, esse sistema em particular não é apenas incrivelmente eficiente em termos de energia, mas há mais uma coisa incrível. Devido à natureza da carga de trabalho da IA, ela aumenta instantaneamente com essa camada de computação chamada allreduce.

A quantidade de corrente, a quantidade de energia usada simultaneamente, é realmente altíssima. Muitas vezes, ela aumenta em 25%. Agora temos suavização de energia em todo o sistema, para que você não precise provisionar 25 vezes mais do que o necessário, ou, se provisionar 25 vezes mais, não precise deixar 25% da energia desperdiçada ou sem uso. Assim, agora você pode preencher todo o orçamento de energia e não precisa provisionar além disso.

E, por último, claro, o desempenho. Então, vamos dar uma olhada no desempenho disso. Estes são apenas os gráficos que as pessoas que constroem supercomputadores de IA adoram. Para tornar isso possível, foi necessário usar cada um desses chips, redesenhar completamente cada um dos sistemas e reescrever toda a pilha. Basicamente, esta primeira coluna representa o treinamento do modelo de IA. Quanto mais rápido você treina modelos de IA, mais rápido você pode lançar a próxima fronteira para o mundo. Isso define seu tempo de lançamento no mercado. Isso representa liderança tecnológica. Isso representa seu poder de precificação. No caso do Green, trata-se essencialmente de um modelo com 10 trilhões de parâmetros. Nós o escalamos a partir do DeepSeek, por isso o chamamos de DeepSeek++, treinando um modelo de 10 trilhões de parâmetros em 100 trilhões de tokens. E esta é a nossa projeção de simulação do que seria necessário para construirmos o modelo da próxima fronteira.

O modelo da próxima fronteira, como Elon já mencionou, será a próxima versão do Grok, o Grok 5, se não me engano, com sete trilhões de parâmetros.

Este é o número 10. E o verde representa Blackwell. E aqui, no caso da Rubin, observe que a taxa de transferência é muito maior e, portanto, é necessário apenas um quarto desses sistemas para treinar o modelo no tempo que demos a ele aqui, que é de um mês. Então, o tempo é o mesmo para todos. Agora, a rapidez com que você consegue treinar esse modelo e o tamanho do modelo que você consegue treinar é o que vai te levar à fronteira primeiro.

A segunda parte é a taxa de transferência da sua fábrica. Blackwell está em verde novamente, e a taxa de transferência da fábrica é importante porque sua fábrica, no caso de um gigawatt, custa US$ 50 bilhões. Um data center de US$ 50 bilhões só pode consumir um gigawatt de energia. Portanto, se o seu desempenho, sua taxa de transferência por watt, for muito boa em vez de muito ruim, isso se traduz diretamente em suas receitas. As receitas do seu data center estão diretamente relacionadas à segunda coluna. E no caso da Blackwell, foi cerca de 10 vezes maior que a da Hopper. No caso da Rubin, será cerca de 10 vezes maior. Agora, o custo dos tokens, a relação custo-benefício de gerar o token, para a Rubin é cerca de 1/10, assim como no caso de… Sim.

Então, é assim que vamos levar todos para a próxima fronteira, para impulsionar a IA para o próximo nível. E, claro, para construir esses data centers com eficiência energética e custo-benefício. Então, é isso. Esta é a NVIDIA hoje. Mencionamos que construímos chips, mas como vocês sabem, a NVIDIA constrói sistemas inteiros agora, e IA é uma pilha completa. Estamos reinventando a IA em tudo, desde chips e infraestrutura até modelos e aplicativos. E nosso trabalho é criar toda a pilha de computação, para que todos vocês possam criar aplicativos incríveis para o resto do mundo.

Obrigado a todos por virem. Tenham uma ótima CES.

As citações de Jensen Huang estão disponíveis no vídeo de sua palestra acessível no YouTube.