L’économie de l’IA de 15,7 trillions de dollars a besoin de plus que simplement de la puissance de calcul
L’intelligence artificielle continue de remodeler le paysage technologique, avec des projections industrielles suggérant que cette technologie pourrait injecter 15,7 trillions de dollars dans l’économie mondiale d’ici la fin de la décennie. Cette estimation se décompose en 6,6 trillions de dollars provenant des gains de productivité et 9,1 trillions de dollars issus des applications grand public. La course à la construction d’infrastructures d’IA—en particulier les centres de données—a créé une demande sans précédent pour du matériel spécialisé.
Depuis trois ans, la conversation tourne principalement autour des GPU. Nvidia a capturé plus de 90 % du marché des accélérateurs d’IA en proposant des unités de traitement graphique qui excellent dans les calculs parallèles nécessaires à l’entraînement de grands modèles linguistiques comme ChatGPT et Llama. La domination de l’entreprise semblait inébranlable, en faisant le choix par défaut pour les hyperscalers construisant leur infrastructure d’IA.
Mais voici ce que la plupart des investisseurs ont manqué : la véritable tendance chaude de l’IA ne concerne pas le processeur qui gagne.
Pourquoi les puces personnalisées ne résolvent pas tout
Un changement est déjà en cours. Les hyperscalers, notamment Alphabet, Meta Platforms, et d’autres, déploient de plus en plus de processeurs d’IA personnalisés conçus par Broadcom et Marvell Technology. Ces circuits intégrés spécifiques à l’application (ASICs) offrent des avantages par rapport aux GPU traditionnels—ils sont plus économes en énergie pour des tâches ciblées et offrent de meilleures performances par watt.
Les chiffres suggèrent que cette tendance prend de l’ampleur. Broadcom prévoit que ses revenus liés à l’IA doubleront pour atteindre 8,2 milliards de dollars au trimestre en cours, grâce à d’importants contrats avec OpenAI, Meta et Google. La société de recherche de marché TrendForce prévoit que les expéditions de processeurs d’IA personnalisés pourraient augmenter de 44 % en 2026, tandis que celles des GPU ne devraient croître que de 16 %.
Pourtant, même si les processeurs personnalisés gagnent du terrain, ils font face à une limitation critique que ni les fabricants de puces ni la plupart des analystes n’ont suffisamment abordée.
La contrainte tacite : la bande passante mémoire
Les GPU de Nvidia et les processeurs personnalisés de Broadcom partagent une exigence commune : d’énormes quantités de mémoire à haute bande passante (HBM). Ce type de mémoire spécialisé gère le transfert de données à des vitesses que les puces mémoire traditionnelles ne peuvent égaler, tout en consommant moins d’énergie et en introduisant un minimum de latence.
L’HBM n’est pas une caractéristique de luxe—c’est l’infrastructure essentielle qui empêche la performance des GPU et ASIC de devenir un goulot d’étranglement. Sans une capacité HBM suffisante, même les processeurs les plus puissants offrent des rendements diminués dans les environnements de centres de données.
Les implications sont frappantes. Micron Technology, un acteur majeur du marché mondial de la mémoire, estime que le marché de l’HBM passera de $35 milliard en 2025 à $100 milliard d’ici 2028. Cette trajectoire reflète le déséquilibre sévère entre l’offre actuelle d’HBM et la demande croissante des fabricants d’accélérateurs d’IA.
Pourquoi cela importe pour 2026
La pénurie d’approvisionnement est déjà visible dans les performances financières de Micron. La société a rapporté une augmentation de 57 % de son chiffre d’affaires d’une année sur l’autre, atteignant 13,6 milliards de dollars au premier trimestre de l’exercice 2026 (se terminant le 27 novembre), avec un bénéfice non-GAAP multiplié par 2,7 par rapport à l’année précédente, à 4,78 dollars par action.
Plus important encore, la direction de Micron a annoncé qu’elle avait « finalisé des accords sur le prix et le volume pour toute notre offre d’HBM pour 2026 », ce qui signifie que la société a vendu toute sa capacité de production pour l’année à venir. Cette combinaison de volumes plus élevés et de prix premium a conduit les analystes à prévoir une augmentation de 288 % du bénéfice de Micron, atteignant 32,14 dollars par action.
Pour les investisseurs suivant la tendance de l’infrastructure d’IA, cela révèle une vérité essentielle : ce sont les entreprises contrôlant la production d’HBM qui détiennent les clés du marché de l’accélération de l’IA, et non celles qui construisent les processeurs elles-mêmes. La valorisation de Micron—actuellement inférieure à 10 fois le bénéfice futur—reflète une fenêtre d’opportunité avant que le marché ne prenne pleinement conscience de cette dynamique.
Alors que l’adoption des GPU et ASIC s’accélère tout au long de 2026, la véritable contrainte ne sera pas la puissance de calcul—ce sera l’infrastructure mémoire permettant à cette puissance de réellement s’exprimer.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le véritable goulot d'étranglement qui alimente l'infrastructure Hot AI : pourquoi la mémoire, et non les processeurs, définit 2026
L’économie de l’IA de 15,7 trillions de dollars a besoin de plus que simplement de la puissance de calcul
L’intelligence artificielle continue de remodeler le paysage technologique, avec des projections industrielles suggérant que cette technologie pourrait injecter 15,7 trillions de dollars dans l’économie mondiale d’ici la fin de la décennie. Cette estimation se décompose en 6,6 trillions de dollars provenant des gains de productivité et 9,1 trillions de dollars issus des applications grand public. La course à la construction d’infrastructures d’IA—en particulier les centres de données—a créé une demande sans précédent pour du matériel spécialisé.
Depuis trois ans, la conversation tourne principalement autour des GPU. Nvidia a capturé plus de 90 % du marché des accélérateurs d’IA en proposant des unités de traitement graphique qui excellent dans les calculs parallèles nécessaires à l’entraînement de grands modèles linguistiques comme ChatGPT et Llama. La domination de l’entreprise semblait inébranlable, en faisant le choix par défaut pour les hyperscalers construisant leur infrastructure d’IA.
Mais voici ce que la plupart des investisseurs ont manqué : la véritable tendance chaude de l’IA ne concerne pas le processeur qui gagne.
Pourquoi les puces personnalisées ne résolvent pas tout
Un changement est déjà en cours. Les hyperscalers, notamment Alphabet, Meta Platforms, et d’autres, déploient de plus en plus de processeurs d’IA personnalisés conçus par Broadcom et Marvell Technology. Ces circuits intégrés spécifiques à l’application (ASICs) offrent des avantages par rapport aux GPU traditionnels—ils sont plus économes en énergie pour des tâches ciblées et offrent de meilleures performances par watt.
Les chiffres suggèrent que cette tendance prend de l’ampleur. Broadcom prévoit que ses revenus liés à l’IA doubleront pour atteindre 8,2 milliards de dollars au trimestre en cours, grâce à d’importants contrats avec OpenAI, Meta et Google. La société de recherche de marché TrendForce prévoit que les expéditions de processeurs d’IA personnalisés pourraient augmenter de 44 % en 2026, tandis que celles des GPU ne devraient croître que de 16 %.
Pourtant, même si les processeurs personnalisés gagnent du terrain, ils font face à une limitation critique que ni les fabricants de puces ni la plupart des analystes n’ont suffisamment abordée.
La contrainte tacite : la bande passante mémoire
Les GPU de Nvidia et les processeurs personnalisés de Broadcom partagent une exigence commune : d’énormes quantités de mémoire à haute bande passante (HBM). Ce type de mémoire spécialisé gère le transfert de données à des vitesses que les puces mémoire traditionnelles ne peuvent égaler, tout en consommant moins d’énergie et en introduisant un minimum de latence.
L’HBM n’est pas une caractéristique de luxe—c’est l’infrastructure essentielle qui empêche la performance des GPU et ASIC de devenir un goulot d’étranglement. Sans une capacité HBM suffisante, même les processeurs les plus puissants offrent des rendements diminués dans les environnements de centres de données.
Les implications sont frappantes. Micron Technology, un acteur majeur du marché mondial de la mémoire, estime que le marché de l’HBM passera de $35 milliard en 2025 à $100 milliard d’ici 2028. Cette trajectoire reflète le déséquilibre sévère entre l’offre actuelle d’HBM et la demande croissante des fabricants d’accélérateurs d’IA.
Pourquoi cela importe pour 2026
La pénurie d’approvisionnement est déjà visible dans les performances financières de Micron. La société a rapporté une augmentation de 57 % de son chiffre d’affaires d’une année sur l’autre, atteignant 13,6 milliards de dollars au premier trimestre de l’exercice 2026 (se terminant le 27 novembre), avec un bénéfice non-GAAP multiplié par 2,7 par rapport à l’année précédente, à 4,78 dollars par action.
Plus important encore, la direction de Micron a annoncé qu’elle avait « finalisé des accords sur le prix et le volume pour toute notre offre d’HBM pour 2026 », ce qui signifie que la société a vendu toute sa capacité de production pour l’année à venir. Cette combinaison de volumes plus élevés et de prix premium a conduit les analystes à prévoir une augmentation de 288 % du bénéfice de Micron, atteignant 32,14 dollars par action.
Pour les investisseurs suivant la tendance de l’infrastructure d’IA, cela révèle une vérité essentielle : ce sont les entreprises contrôlant la production d’HBM qui détiennent les clés du marché de l’accélération de l’IA, et non celles qui construisent les processeurs elles-mêmes. La valorisation de Micron—actuellement inférieure à 10 fois le bénéfice futur—reflète une fenêtre d’opportunité avant que le marché ne prenne pleinement conscience de cette dynamique.
Alors que l’adoption des GPU et ASIC s’accélère tout au long de 2026, la véritable contrainte ne sera pas la puissance de calcul—ce sera l’infrastructure mémoire permettant à cette puissance de réellement s’exprimer.