Elon Musk pense que cela sera possible “d’ici deux ans, trois au plus tard”. Sam Altman, d’OpenAI, estime, lui, que c’est “ridicule… nous n’en sommes pas encore là”. Du côté de Google, il est prévu de tester le concept l’année prochaine. Eric Schmidt, son ancien patron, a racheté une société de lancement de fusées pour poursuivre ce projet. Pour chacun d’entre eux, la question est de savoir si le meilleur endroit pour construire des datacenters pour le développement des intelligences artificielles n’est pas sur Terre, mais dans l’espace.
Coût de lancement, puissance de traitement et fiabilité
Il devient de plus en plus difficile de construire des datacenters terrestres. Selon Sightline Climate, un organisme de recherche, 30 à 50 % de la capacité mondiale qui devait être mise en service cette année pourrait être retardée, contre 26 % en 2025. Il y a plusieurs raisons à cela. L’obtention des permis de construire et les raccordements au réseau prennent du temps ; l’opposition de l’opinion publique, qui a conduit plusieurs États américains à proposer des moratoires sur les nouveaux projets, est forte ; et la demande en électricité est aussi en forte hausse. C’est pourquoi la mise en orbite d’une constellation de satellites capables de traiter de grandes quantités de données, là où l’énergie solaire est abondante, semble une solution prometteuse pour certains. Elon Musk vient de fusionner SpaceX, sa société de fusées, avec xAI, sa start-up spécialisée dans l’intelligence artificielle, dans ce but, et a demandé une licence pour construire un centre de données orbital composé d’un million de satellites. Mais est-ce judicieux ?
Elon Musk vient de fusionner SpaceX, sa société de fusées, avec xAI, sa start-up spécialisée dans l’intelligence artificielle, et a demandé une licence pour construire un centre de données orbital composé d’un million de satellites.
Le coût de lancement est l’obstacle le plus évident. SpaceX achemine des charges utiles en orbite au prix d’environ 1 500 dollars (1 288 euros) par kilogramme avec sa fusée Falcon Heavy, ou 3 400 dollars (2 920 euros) par kilogramme avec sa fusée Falcon 9. (Le coût réel pour SpaceX représente environ 25 % de cette somme.) Mais deux autres chiffres sont tout aussi importants : la puissance spécifique (combien de watts de puissance de traitement peuvent être fournis par kilogramme de satellite) et le coût du satellite (en dollars par watt de puissance de traitement). Ceux-ci dépendent en grande partie du poids et des performances des panneaux solaires et des radiateurs émettant de la chaleur. Une autre inconnue est l’impact des radiations sur la fiabilité des puces d’IA lorsqu’elles fonctionnent dans l’espace. Il est nécessaire d’estimer tous ces paramètres pour déterminer la faisabilité des centres de données orbitaux.
Starcloud, des tests d’IA orbitale in vivo
Andrew McCalip, ingénieur chez Varda, une start-up spatiale, a mis au point un calculateur en ligne (sur andrewmccalip.com) qui permet de comparer le coût d’un centre de données orbital d’une capacité donnée à celui d’un centre terrestre. Il estime que la construction d’un centre de données d’une capacité extrêmement élevée de 1 GW et son fonctionnement pendant cinq ans sur Terre coûtent 15,9 milliards de dollars (13,7 milliards d’euros). Un équivalent orbital, en supposant un coût de lancement de 500 dollars/kg, une puissance spécifique de 37 W/kg, un coût de satellite de 22 dollars/W et des orbites spéciales qui maintiennent les satellites à la lumière du jour 98 % du temps, coûterait la somme exorbitante de 51,1 milliards de dollars (43,9 milliards d’euros). (Ces totaux excluent le coût des puces d’IA, ou GPU, qui serait de 15 à 30 milliards de dollars, car les mêmes puces sont nécessaires dans les deux cas.) Alors, la Terre peut-elle sortir brillamment gagnante de cette situation ? Pas tout à fait.
Starcloud, une entreprise fondée en 2024 pour développer cette idée des datacenters orbitaux, a analysé les chiffres de l’IA en orbite – littéralement.
Starcloud, une entreprise fondée en 2024 pour développer cette idée des datacenters orbitaux, a analysé les chiffres de l’IA en orbite – littéralement. En novembre, l’entreprise a envoyé dans l’espace Starcloud-1, un satellite de la taille d’un réfrigérateur contenant un GPU Nvidia H100 ordinaire, du type de ceux utilisés dans les centres de données IA. Starcloud l’a utilisé pour entraîner un petit modèle linguistique d’IA, NanoGPT, sur les œuvres de Shakespeare, et pour répondre à certaines questions tout en exécutant Gemma, un grand modèle linguistique open source créé par Google. Ce protocole a fourni des données précieuses sur la fiabilité des puces d’IA dans des conditions orbitales. La société a également montré une bonne maîtrise des autres paramètres essentiels.
Conception et lancement surévalués ?
Commençons par la puissance spécifique. Le chiffre de 37 W/kg avancé par Andrew McCalip provient des milliers de satellites utilisés dans la constellation Starlink de SpaceX, considérée comme à la pointe de la technologie, qui fournit un accès Internet haut débit aux utilisateurs du monde entier. Mais les satellites Starlink doivent accomplir des tâches que les satellites IA n’ont pas à accomplir. Ils ont besoin d’antennes coûteuses et “à réseau phasé” pour communiquer avec le sol, et doivent avoir une orientation stable à tout moment. Les satellites IA, en revanche, n’auraient pas besoin de communiquer avec le sol, mais uniquement avec leurs voisins, à l’aide de liaisons laser. La puissance de traitement pourrait donc représenter la majorité de leur masse.
Le centre de données orbital de 1 GW coûterait 16,7 milliards de dollars, soit seulement 5 % de plus que le centre de données terrestre.
Et sans avoir besoin d’une orientation aussi précise, ils pourraient être équipés de panneaux solaires légèrement flexibles, ce qui réduirait leur masse et augmenterait encore leur puissance spécifique. Elon Musk a déclaré qu’il pensait qu’une puissance spécifique de 100 W/kg était réalisable pour un satellite d’IA, et certains estiment qu’en utilisant des cellules solaires plus efficaces, il serait même possible d’atteindre à l’avenir 150 W/kg. Philip Johnston, le directeur de Starcloud, affirme que son entreprise vise une puissance spécifique de 70 W/kg pour ses prochains satellites, sur la base d’hypothèses qu’elle considère comme assez prudentes.
En ce qui concerne le coût des satellites, Philip Johnston indique que Starcloud prévoit de dépenser pour sa conception “moins de 5 dollars par watt”, hors coût des GPU. Andrew McCalip estime que les satellites actuels de Starlink coûtent environ 22 dollars/W, contre 32 dollars/W pour la version originale. Là encore, un satellite d’IA devrait coûter moins cher à construire, hors GPU, car il ne nécessite pas de composants de communication coûteux. En déplaçant les curseurs de la calculatrice d’Andrew McCalip vers une puissance spécifique de 70 W/kg et un coût de satellite de 5 dollars/W, les chiffres sont alors très différents : le centre de données orbital de 1 GW coûterait désormais 16,7 milliards de dollars (14,4 milliards d’euros), soit seulement 5 % de plus que le centre de données terrestre.
Réutilisation et fiabilité améliorée
Pour y parvenir, il faut toutefois émettre un certain nombre d’hypothèses optimistes. Tout d’abord, un prix de lancement de 500 dollars/kg, soit environ un tiers du prix actuel. Mais si la nouvelle fusée Starship de SpaceX commence à bien fonctionner, les coûts de lancement pourraient baisser rapidement. Comme Starship est conçue pour être entièrement réutilisable, le prix d’envoi d’un kilogramme en orbite pourrait baisser à 100-200 dollars, selon Philip Johnston. (Le coût réel pour SpaceX serait bien inférieur, peut-être dans les 20 dollars/kg.) Si l’on entre un prix de lancement de 200 dollars par kilo dans la calculatrice d’Andrew McCalip, le coût du centre de données orbital de 1 gigawatt tombe à 12,1 milliards de dollars (10,4 milliards d’euros), soit moins que celui d’un centre terrestre. En bref, l’idée n’est peut-être pas aussi folle qu’elle en a l’air.
L’une des leçons tirées de Starcloud-1 est que “les GPU fonctionnent mieux dans l’espace que nous ne l’avions prévu.”
Une autre inconnue est le refroidissement. Le premier satellite de Starcloud ne pouvait pas faire fonctionner son GPU 24 heures sur 24, car (comme cela avait été anticipé) il chauffait trop. La société prévoit de lancer cette année un deuxième satellite d’essai, Starcloud-2, afin d’évaluer la conception d’un radiateur déployable destiné à assurer le refroidissement. Philip Johnston affirme qu’il s’agira du “plus grand radiateur commercial déployable dans l’espace”, dont la taille ne sera surpassée que par celle du radiateur de la Station spatiale internationale, mais qui offrira une dissipation thermique dix fois supérieure par kilogramme. Les estimations de coûts de Starcloud partent du principe que ce radiateur fonctionnera comme prévu.
D’autres hypothèses sont peut-être trop pessimistes. D’une part, le calculateur d’Andrew McCalip suppose que jusqu’à 9 % des GPU lancés en orbite tomberont en panne chaque année. Mais l’une des leçons tirées de Starcloud-1, selon Philip Johnston, est que “les GPU fonctionnent mieux dans l’espace que nous ne l’avions prévu”. Il hésite cependant à communiquer les chiffres exacts. Mais si seulement 5 % des GPU tombaient en panne chaque année, moins de satellites seraient nécessaires et le coût du centre de données orbital serait ramené à 11,1 milliards de dollars (9,6 milliards d’euros).
Baisse de coût des installations terrestres
Bien sûr, les coûts des datacenters terrestres peuvent également baisser, et ces réductions pourraient être plus faciles à concrétiser que la construction de centres dans l’espace. Andrew McCalip part du principe que les datacenters terrestres utilisent des générateurs au gaz naturel pour produire de l’électricité, mais l’énergie solaire serait moins coûteuse et permettrait de réduire le coût total de 1 à 2 milliards de dollars. La construction pourrait également être beaucoup moins coûteuse en dehors des États-Unis, en particulier dans une économie à bas salaires et à fort ensoleillement, comme l’Inde.
Pour l’instant, il faut surtout voir si Starship peut fonctionner de manière fiable et être réutilisable. Elon Musk évoque la possibilité de datacenters orbitaux alors qu’il se prépare à introduire SpaceX en bourse, dans le courant de l’année prochaine. De son côté, Starcloud anticipe ce qui devrait se passer dans quelques années, en partant du principe que Starship ouvrira de nouvelles perspectives grâce à des lancements à faible coût. Le prochain vol d’essai de Starship, le 12e, devrait avoir lieu ce mois-ci. De nombreux acteurs du secteur de l’IA le suivront avec attention.
The Economist
© 2026 The Economist Newspaper Limited. All rights reserved. Source The Economist, traduction Le nouvel Economiste, publié sous licence. L’article en version originale : www.economist.com.
Maggie Aderin-Pocock : "La nouvelle ère spatiale, une période vraiment passionnante"
L’Internet par satellite, terre de conquête européenne
Un datacenter à 35 milliards d’euros dans la Brie
EDF lance un projet de datacenter avec OpCore en Seine-et-Marne
Datacenters, les antidotes à la surchauffe
L’armée se dote d’un supercalculateur dédié à l’IA à Suresnes