2026 se consolide en 3 grands paris où si l’un échoue, cela entraînera un effondrement à court terme de la bulle
1. centres de données
anthropic, Xai évolue rapidement vers 1M de GPU. les deux prévoient d’atteindre cet objectif d’ici le T2. les modèles entraînés sur cette infrastructure doivent confirmer que la loi de montée en puissance du calcul est toujours efficace. sinon, cela indiquera que nous devons explorer une nouvelle architecture de modèle. cela dépend aussi de l’infrastructure énergétique (power shell) qui est en cours d’extension, mais cela va poser problème pour la prochaine décennie, sans parler de cette année.
2. mémoire
nous n’avons cette année que suffisamment de mémoire pour supporter 15GW de GPU, alors que les hyperscalers visent 30-40GW dans les 2 prochaines années. nous sommes un peu juste ici — si Samsung, $MU ou sk hynix foirent leur production, cela bloquera le pari numéro 1. aussi, celui qui sécurisera la majorité de cette capacité mémoire pour créer des GPU remportera le plus dans cette capacité de production limitée, et pour l’instant c’est $NVDA .
3. infra plus économique et plus efficace
le dernier GPU de Nvidia, Vera Rubin, est 5X plus performant mais surtout 4X plus efficace en termes de calcul, ce qui signifie que les coûts d’inférence ont chuté — intelligence de pointe pour quelques centimes ! il y aura une abondance de puissance de calcul disponible pour entraîner mais surtout utiliser l’IA cette année, donc le paradoxe de Jevons doit faire ses preuves par une demande croissante. si cela échoue, les deux premiers paris s’effondreront. à mon avis, je suis le moins inquiet pour celui-ci — je pense que les agents de harnessing et le RL post-formation continueront à renforcer les modèles.
très optimiste
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
2026 se consolide en 3 grands paris où si l’un échoue, cela entraînera un effondrement à court terme de la bulle
1. centres de données
anthropic, Xai évolue rapidement vers 1M de GPU. les deux prévoient d’atteindre cet objectif d’ici le T2. les modèles entraînés sur cette infrastructure doivent confirmer que la loi de montée en puissance du calcul est toujours efficace. sinon, cela indiquera que nous devons explorer une nouvelle architecture de modèle. cela dépend aussi de l’infrastructure énergétique (power shell) qui est en cours d’extension, mais cela va poser problème pour la prochaine décennie, sans parler de cette année.
2. mémoire
nous n’avons cette année que suffisamment de mémoire pour supporter 15GW de GPU, alors que les hyperscalers visent 30-40GW dans les 2 prochaines années. nous sommes un peu juste ici — si Samsung, $MU ou sk hynix foirent leur production, cela bloquera le pari numéro 1. aussi, celui qui sécurisera la majorité de cette capacité mémoire pour créer des GPU remportera le plus dans cette capacité de production limitée, et pour l’instant c’est $NVDA
.
3. infra plus économique et plus efficace
le dernier GPU de Nvidia, Vera Rubin, est 5X plus performant mais surtout 4X plus efficace en termes de calcul, ce qui signifie que les coûts d’inférence ont chuté — intelligence de pointe pour quelques centimes ! il y aura une abondance de puissance de calcul disponible pour entraîner mais surtout utiliser l’IA cette année, donc le paradoxe de Jevons doit faire ses preuves par une demande croissante. si cela échoue, les deux premiers paris s’effondreront. à mon avis, je suis le moins inquiet pour celui-ci — je pense que les agents de harnessing et le RL post-formation continueront à renforcer les modèles.
très optimiste