L’ancien ingénieur de la NASA et expert en cloud chez Google, Taranis, a publié un article critiquant sévèrement l’idée d’implanter des centres de données dans l’espace, la qualifiant de « très mauvaise idée totalement irréaliste ». Fort d’un doctorat en électronique spatiale et de dix ans d’expérience chez Google, il démonte point par point, à travers les questions d’alimentation électrique, de dissipation thermique, de résistance aux radiations et de communication, les failles fatales de ce concept.
Le parcours de l’expert NASA et les enseignements du travail des astronautes à bord de l’ISS
(Source : Boeing)
Pour clarifier ses qualifications, l’auteur de l’article est un ancien ingénieur et scientifique de la NASA, titulaire d’un doctorat en électronique spatiale. Il a également travaillé dix ans chez Google, dans divers départements, dont YouTube et l’unité cloud chargée du déploiement de la puissance de calcul IA. Cette double expertise, à la croisée de l’ingénierie spatiale et du cloud computing, le rend particulièrement bien placé pour s’exprimer sur le sujet.
D’entrée de jeu, il affirme : « C’est vraiment une très mauvaise idée, cela n’a absolument aucun sens. » Les raisons sont multiples, mais en résumé, les équipements électroniques nécessaires au fonctionnement d’un centre de données — et en particulier ceux déployant des capacités IA sous forme de GPU et TPU — ne sont absolument pas adaptés à un fonctionnement dans l’espace. Il met en garde les lecteurs contre les jugements intuitifs s’ils n’ont jamais travaillé dans ce domaine : la réalité du fonctionnement du matériel spatial est loin d’être évidente.
Cet avertissement s’appuie sur son expérience concrète à la NASA. L’environnement spatial impose aux équipements électroniques des défis bien supérieurs à ce qu’on imagine couramment : même les astronautes à bord de la Station spatiale internationale (ISS) doivent gérer de nombreux problèmes techniques inexistants sur Terre. Chaque système de l’ISS est minutieusement conçu pour affronter le vide, les radiations et des écarts de température extrêmes, ce qui implique souvent des compromis sur la performance et des coûts colossaux.
Alimentation électrique : une ferme solaire de taille ISS ne peut alimenter que 200 GPU
L’argument principal en faveur de centres de données dans l’espace semble être l’abondance d’énergie. Mais l’ingénieur de la NASA précise que ce n’est pas si simple. Deux options existent : le solaire et le nucléaire. Le solaire suppose le déploiement de panneaux photovoltaïques, qui fonctionnent, mais pas mieux que sur Terre. La perte d’énergie à travers l’atmosphère terrestre n’est pas si importante, donc l’intuition sur la surface nécessaire reste correcte.
Le plus grand ensemble de panneaux solaires jamais déployé dans l’espace est celui de l’ISS, délivrant au maximum un peu plus de 200kW. Sa mise en place a requis plusieurs missions de navette et énormément de travail d’astronautes ; il couvre environ 2 500 m², soit plus de la moitié d’un terrain de football américain.
À titre d’exemple, une NVIDIA H200 requiert environ 0,7kW par puce. Ces GPU ne fonctionnent pas isolément, et la conversion d’énergie n’est pas parfaitement efficace, donc en pratique, 1kW par GPU est une meilleure estimation. Ainsi, une installation gigantesque de la taille de l’ISS pourrait alimenter environ 200 GPU.
Comparaison des besoins énergétiques
Panneaux solaires de l’ISS : puissance de pointe 200kW, surface de 2 500 m²
Un GPU H200 : 1kW de consommation réelle
Nombre de GPU alimentés par une installation de taille ISS : environ 200 (soit l’équivalent de 3 racks terrestres)
Projet de centre de données OpenAI en Norvège : 100 000 GPU
Pour atteindre la capacité d’OpenAI, il faudrait lancer 500 satellites de la taille de l’ISS. À titre de comparaison, un rack serveur standard contient 72 GPU, donc chaque satellite géant ne représenterait qu’environ trois racks. Le nucléaire n’aide pas : un générateur thermoélectrique à radio-isotopes (RTG) fournit typiquement 50 à 150W, même pas assez pour alimenter un seul GPU.
Cauchemar de la dissipation thermique : dans le vide, la convection ne fonctionne plus du tout
La première réaction de beaucoup de gens est : « L’espace est froid, donc le refroidissement doit être facile, non ? » Réponse de l’ingénieur NASA : « Euh… non… vraiment pas. »
Sur Terre, le refroidissement est relativement simple. La convection de l’air fonctionne bien : faire souffler de l’air sur un radiateur dissipe efficacement la chaleur. Pour des densités de puissance plus élevées, on utilise le refroidissement liquide pour transférer la chaleur vers de plus grands dissipateurs. Dans l’espace, il n’y a pas d’air. L’environnement est pratiquement un vide absolu, donc la convection est inexistante.
L’espace lui-même n’a pas de température ; seule la matière en a une. Dans le système Terre-Lune, la température moyenne de tout objet est à peu près la même que celle de la Terre. Si un satellite ne tourne pas, sa face à l’ombre du Soleil descend progressivement à environ 4 kelvin, à peine au-dessus du zéro absolu. Du côté ensoleillé, elle peut monter à plusieurs centaines de degrés Celsius. La gestion de la chaleur demande donc une conception extrêmement soignée.
L’auteur a déjà conçu un système de caméra pour l’espace où la gestion thermique était centrale. Il a conçu le système pour consommer au maximum 1 watt en pointe, descendant à 10 % à l’arrêt. Toute l’énergie se transforme en chaleur, qu’il faut dissiper via la fixation de la carte électronique au châssis.
Refroidir ne serait-ce qu’un seul H200 serait un cauchemar. Les radiateurs et ventilateurs sont inutiles ; même les systèmes à refroidissement liquide doivent transférer la chaleur vers des plaques radiatives, qui la dispersent ensuite par rayonnement dans l’espace. Le système de contrôle thermique actif (ATCS) de l’ISS utilise des boucles de refroidissement à l’ammoniac et d’immenses radiateurs, avec une limite de dissipation de 16kW — soit environ 16 GPU H200, à peine un quart d’un rack terrestre. Les radiateurs mesurent 13,6m x 3,12m, soit environ 42,5 m².
Avec une base de 200kW, il faudrait un système 12,5 fois plus grand, soit environ 531 m² — 2,6 fois la taille des panneaux solaires associés. Cela correspondrait à un satellite bien plus vaste que l’ISS, ne fournissant que l’équivalent de trois racks serveurs terrestres.
Menace des radiations : les puces GPU exposées comme des astronautes sans protection
(Source : Wikipédia)
On entre ici dans le domaine de doctorat de l’auteur. Supposons que l’alimentation et le refroidissement sont réglés, il reste le problème de la tolérance aux radiations. Dans l’espace, deux sources majeures de rayonnement : le Soleil et l’espace profond. Cela concerne principalement des particules chargées se déplaçant à une fraction significative de la vitesse de la lumière, des électrons aux noyaux atomiques, qui causent des dommages directs aux matériaux des puces.
Le scénario le plus courant est l’inversion de bit unique (SEU), où une particule traverse un transistor et génère une impulsion parasite. Si cela retourne un bit, c’est un SEU. Pire encore : le verrouillage par événement unique, quand l’impulsion entraîne une surtension entre rails d’alimentation, ce qui peut créer une connexion permanente entre des rails normalement isolés, grillant définitivement la porte logique.
Sur la durée, il faut aussi prendre en compte l’effet de dose totale. Les performances des puces se dégradent à force d’impacts répétés, les transistor MOSFET commutant plus lentement. En pratique, la fréquence maximale décroît, la consommation augmente.
GPU, TPU, et la RAM à large bande passante qu’ils utilisent, sont les pires candidats pour la tolérance aux radiations. Les transistors à petite géométrie sont très vulnérables aux SEU et aux verrouillages. Les véritables puces conçues pour l’espace utilisent des structures de porte différentes et de grandes géométries, offrant des performances comparables à un PowerPC de 2005. Il serait possible de fabriquer GPU/TPU ainsi, mais leur performance serait infime par rapport à la génération actuelle terrestre.
Goulot d’étranglement des communications et conclusion
La plupart des satellites communiquent avec le sol par radio, et il est difficile d’atteindre plus de 1Gbps de façon fiable. Sur Terre, des interconnexions rack-à-rack à 100Gbps sont courantes, et même cela est considéré comme le bas de gamme. On voit donc clairement que c’est un autre goulet d’étranglement majeur. L’ingénieur de la NASA conclut : « Je pense que si vous tenez vraiment à le faire, c’est à peine possible, mais ce serait d’une extrême complexité, pour un coût sans commune mesure avec un centre de données terrestre, et ne fournirait au mieux que des performances médiocres. Pour moi, c’est une idée catastrophiquement mauvaise. »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Un ancien scientifique de la NASA ridiculise Musk ! Construire des centres de données dans l’espace est encore plus absurde que les missions habitées.
L’ancien ingénieur de la NASA et expert en cloud chez Google, Taranis, a publié un article critiquant sévèrement l’idée d’implanter des centres de données dans l’espace, la qualifiant de « très mauvaise idée totalement irréaliste ». Fort d’un doctorat en électronique spatiale et de dix ans d’expérience chez Google, il démonte point par point, à travers les questions d’alimentation électrique, de dissipation thermique, de résistance aux radiations et de communication, les failles fatales de ce concept.
Le parcours de l’expert NASA et les enseignements du travail des astronautes à bord de l’ISS
(Source : Boeing)
Pour clarifier ses qualifications, l’auteur de l’article est un ancien ingénieur et scientifique de la NASA, titulaire d’un doctorat en électronique spatiale. Il a également travaillé dix ans chez Google, dans divers départements, dont YouTube et l’unité cloud chargée du déploiement de la puissance de calcul IA. Cette double expertise, à la croisée de l’ingénierie spatiale et du cloud computing, le rend particulièrement bien placé pour s’exprimer sur le sujet.
D’entrée de jeu, il affirme : « C’est vraiment une très mauvaise idée, cela n’a absolument aucun sens. » Les raisons sont multiples, mais en résumé, les équipements électroniques nécessaires au fonctionnement d’un centre de données — et en particulier ceux déployant des capacités IA sous forme de GPU et TPU — ne sont absolument pas adaptés à un fonctionnement dans l’espace. Il met en garde les lecteurs contre les jugements intuitifs s’ils n’ont jamais travaillé dans ce domaine : la réalité du fonctionnement du matériel spatial est loin d’être évidente.
Cet avertissement s’appuie sur son expérience concrète à la NASA. L’environnement spatial impose aux équipements électroniques des défis bien supérieurs à ce qu’on imagine couramment : même les astronautes à bord de la Station spatiale internationale (ISS) doivent gérer de nombreux problèmes techniques inexistants sur Terre. Chaque système de l’ISS est minutieusement conçu pour affronter le vide, les radiations et des écarts de température extrêmes, ce qui implique souvent des compromis sur la performance et des coûts colossaux.
Alimentation électrique : une ferme solaire de taille ISS ne peut alimenter que 200 GPU
L’argument principal en faveur de centres de données dans l’espace semble être l’abondance d’énergie. Mais l’ingénieur de la NASA précise que ce n’est pas si simple. Deux options existent : le solaire et le nucléaire. Le solaire suppose le déploiement de panneaux photovoltaïques, qui fonctionnent, mais pas mieux que sur Terre. La perte d’énergie à travers l’atmosphère terrestre n’est pas si importante, donc l’intuition sur la surface nécessaire reste correcte.
Le plus grand ensemble de panneaux solaires jamais déployé dans l’espace est celui de l’ISS, délivrant au maximum un peu plus de 200kW. Sa mise en place a requis plusieurs missions de navette et énormément de travail d’astronautes ; il couvre environ 2 500 m², soit plus de la moitié d’un terrain de football américain.
À titre d’exemple, une NVIDIA H200 requiert environ 0,7kW par puce. Ces GPU ne fonctionnent pas isolément, et la conversion d’énergie n’est pas parfaitement efficace, donc en pratique, 1kW par GPU est une meilleure estimation. Ainsi, une installation gigantesque de la taille de l’ISS pourrait alimenter environ 200 GPU.
Comparaison des besoins énergétiques
Panneaux solaires de l’ISS : puissance de pointe 200kW, surface de 2 500 m²
Un GPU H200 : 1kW de consommation réelle
Nombre de GPU alimentés par une installation de taille ISS : environ 200 (soit l’équivalent de 3 racks terrestres)
Projet de centre de données OpenAI en Norvège : 100 000 GPU
Pour atteindre la capacité d’OpenAI, il faudrait lancer 500 satellites de la taille de l’ISS. À titre de comparaison, un rack serveur standard contient 72 GPU, donc chaque satellite géant ne représenterait qu’environ trois racks. Le nucléaire n’aide pas : un générateur thermoélectrique à radio-isotopes (RTG) fournit typiquement 50 à 150W, même pas assez pour alimenter un seul GPU.
Cauchemar de la dissipation thermique : dans le vide, la convection ne fonctionne plus du tout
La première réaction de beaucoup de gens est : « L’espace est froid, donc le refroidissement doit être facile, non ? » Réponse de l’ingénieur NASA : « Euh… non… vraiment pas. »
Sur Terre, le refroidissement est relativement simple. La convection de l’air fonctionne bien : faire souffler de l’air sur un radiateur dissipe efficacement la chaleur. Pour des densités de puissance plus élevées, on utilise le refroidissement liquide pour transférer la chaleur vers de plus grands dissipateurs. Dans l’espace, il n’y a pas d’air. L’environnement est pratiquement un vide absolu, donc la convection est inexistante.
L’espace lui-même n’a pas de température ; seule la matière en a une. Dans le système Terre-Lune, la température moyenne de tout objet est à peu près la même que celle de la Terre. Si un satellite ne tourne pas, sa face à l’ombre du Soleil descend progressivement à environ 4 kelvin, à peine au-dessus du zéro absolu. Du côté ensoleillé, elle peut monter à plusieurs centaines de degrés Celsius. La gestion de la chaleur demande donc une conception extrêmement soignée.
L’auteur a déjà conçu un système de caméra pour l’espace où la gestion thermique était centrale. Il a conçu le système pour consommer au maximum 1 watt en pointe, descendant à 10 % à l’arrêt. Toute l’énergie se transforme en chaleur, qu’il faut dissiper via la fixation de la carte électronique au châssis.
Refroidir ne serait-ce qu’un seul H200 serait un cauchemar. Les radiateurs et ventilateurs sont inutiles ; même les systèmes à refroidissement liquide doivent transférer la chaleur vers des plaques radiatives, qui la dispersent ensuite par rayonnement dans l’espace. Le système de contrôle thermique actif (ATCS) de l’ISS utilise des boucles de refroidissement à l’ammoniac et d’immenses radiateurs, avec une limite de dissipation de 16kW — soit environ 16 GPU H200, à peine un quart d’un rack terrestre. Les radiateurs mesurent 13,6m x 3,12m, soit environ 42,5 m².
Avec une base de 200kW, il faudrait un système 12,5 fois plus grand, soit environ 531 m² — 2,6 fois la taille des panneaux solaires associés. Cela correspondrait à un satellite bien plus vaste que l’ISS, ne fournissant que l’équivalent de trois racks serveurs terrestres.
Menace des radiations : les puces GPU exposées comme des astronautes sans protection
(Source : Wikipédia)
On entre ici dans le domaine de doctorat de l’auteur. Supposons que l’alimentation et le refroidissement sont réglés, il reste le problème de la tolérance aux radiations. Dans l’espace, deux sources majeures de rayonnement : le Soleil et l’espace profond. Cela concerne principalement des particules chargées se déplaçant à une fraction significative de la vitesse de la lumière, des électrons aux noyaux atomiques, qui causent des dommages directs aux matériaux des puces.
Le scénario le plus courant est l’inversion de bit unique (SEU), où une particule traverse un transistor et génère une impulsion parasite. Si cela retourne un bit, c’est un SEU. Pire encore : le verrouillage par événement unique, quand l’impulsion entraîne une surtension entre rails d’alimentation, ce qui peut créer une connexion permanente entre des rails normalement isolés, grillant définitivement la porte logique.
Sur la durée, il faut aussi prendre en compte l’effet de dose totale. Les performances des puces se dégradent à force d’impacts répétés, les transistor MOSFET commutant plus lentement. En pratique, la fréquence maximale décroît, la consommation augmente.
GPU, TPU, et la RAM à large bande passante qu’ils utilisent, sont les pires candidats pour la tolérance aux radiations. Les transistors à petite géométrie sont très vulnérables aux SEU et aux verrouillages. Les véritables puces conçues pour l’espace utilisent des structures de porte différentes et de grandes géométries, offrant des performances comparables à un PowerPC de 2005. Il serait possible de fabriquer GPU/TPU ainsi, mais leur performance serait infime par rapport à la génération actuelle terrestre.
Goulot d’étranglement des communications et conclusion
La plupart des satellites communiquent avec le sol par radio, et il est difficile d’atteindre plus de 1Gbps de façon fiable. Sur Terre, des interconnexions rack-à-rack à 100Gbps sont courantes, et même cela est considéré comme le bas de gamme. On voit donc clairement que c’est un autre goulet d’étranglement majeur. L’ingénieur de la NASA conclut : « Je pense que si vous tenez vraiment à le faire, c’est à peine possible, mais ce serait d’une extrême complexité, pour un coût sans commune mesure avec un centre de données terrestre, et ne fournirait au mieux que des performances médiocres. Pour moi, c’est une idée catastrophiquement mauvaise. »