Notícia do momento: o Google está a lançar o seu chip TPU de sétima geração, com o nome de código Ironwood, nas próximas semanas. O aumento de desempenho? Estamos a falar de 4x mais rápido do que a geração anterior.
O que torna isto interessante não é apenas o aumento de velocidade—é a capacidade de lidar e escalar esses modelos de IA monstruosos que todos têm vindo a construir. Aquele tipo que consome conjuntos de dados massivos como se não houvesse amanhã.
Para contexto, estes TPUs são feitos à medida para as cargas de trabalho computacionais mais pesadas. Quando estás a treinar modelos que precisam de uma quantidade ridícula de processamento paralelo, este tipo de evolução de hardware faz toda a diferença.
O timing também é relevante, considerando como a corrida pela infraestrutura de IA continua a aquecer entre os principais players tecnológicos.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
4
Republicar
Partilhar
Comentar
0/400
wrekt_but_learning
· 12h atrás
bull啊 quatro vezes desempenho diretamente esmagando amd
Ver originalResponder0
ForkPrince
· 12h atrás
Mais uma vez um aumento de desempenho de quatro vezes? Expansão a exagerar~
Ver originalResponder0
MetaverseLandlord
· 13h atrás
O hardware é realmente a verdadeira fortaleza da IA.
Ver originalResponder0
IronHeadMiner
· 13h atrás
A valorização do chip da Dog House é tão grande, só quero saber se estás preocupado ou não.
Notícia do momento: o Google está a lançar o seu chip TPU de sétima geração, com o nome de código Ironwood, nas próximas semanas. O aumento de desempenho? Estamos a falar de 4x mais rápido do que a geração anterior.
O que torna isto interessante não é apenas o aumento de velocidade—é a capacidade de lidar e escalar esses modelos de IA monstruosos que todos têm vindo a construir. Aquele tipo que consome conjuntos de dados massivos como se não houvesse amanhã.
Para contexto, estes TPUs são feitos à medida para as cargas de trabalho computacionais mais pesadas. Quando estás a treinar modelos que precisam de uma quantidade ridícula de processamento paralelo, este tipo de evolução de hardware faz toda a diferença.
O timing também é relevante, considerando como a corrida pela infraestrutura de IA continua a aquecer entre os principais players tecnológicos.