Os analistas do setor na Deloitte preveem uma mudança significativa na infraestrutura de IA: as cargas de trabalho de inferência podem representar aproximadamente dois terços do uso total de poder de computação de IA até ao final de 2026. Esta tendência tem implicações para a cadeia de abastecimento de semicondutores e a alocação de recursos de computação. À medida que a inferência se torna cada vez mais dominante em relação ao treino nas operações de IA, os fabricantes de hardware especializados em processadores de uso geral e processadores especializados estão posicionados para beneficiar do aumento previsto de computação. A transição reflete a fase de maturidade dos sistemas de IA, passando do desenvolvimento para uma implementação de produção generalizada.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Os analistas do setor na Deloitte preveem uma mudança significativa na infraestrutura de IA: as cargas de trabalho de inferência podem representar aproximadamente dois terços do uso total de poder de computação de IA até ao final de 2026. Esta tendência tem implicações para a cadeia de abastecimento de semicondutores e a alocação de recursos de computação. À medida que a inferência se torna cada vez mais dominante em relação ao treino nas operações de IA, os fabricantes de hardware especializados em processadores de uso geral e processadores especializados estão posicionados para beneficiar do aumento previsto de computação. A transição reflete a fase de maturidade dos sistemas de IA, passando do desenvolvimento para uma implementação de produção generalizada.