Satellites GPU et IA orbitale : les promesses des data-centers dans l’espace
Les satellites GPU de Starcloud annoncent l’ère des data-centers IA en orbite : énergie solaire quasi gratuite, traitement on-orbit, nouveaux usages… et grosses questions.
Les GPU ne sont plus seulement dans les data-centers terrestres : avec Starcloud-1, une jeune pousse soutenue par NVIDIA et Y Combinator, ils tournent désormais en orbite.
L’objectif est clair :
transformer les satellites en mini data-centers IA capables de traiter les données directement dans l’espace… et, à terme, bâtir de véritables fermes de calcul orbitales.
Dans cet article, on regarde ce que sont ces “satellites GPU”, ce que fait concrètement Starcloud aujourd’hui, et ce que cela pourrait changer pour l’IA, l’énergie… et le business.
1. Starcloud, c’est qui exactement ?
Starcloud est une startup basée à Redmond (États-Unis), passée par Y Combinator, qui veut construire des centres de données dans l’espace pour l’IA.
Leur pitch :
- utiliser l’énergie solaire continue en orbite (quasi 24/7) ;
- profiter du vide spatial comme “radiateur infini” pour refroidir les GPU ;
- s’affranchir des contraintes terrestres : foncier, raccordement au réseau, eau pour le refroidissement, permis, etc.
Selon Starcloud, des data-centers en orbite pourraient offrir jusqu’à ~90 % de coûts d’électricité en moins par rapport à la Terre, une fois le satellite lancé.
2. Starcloud-1 : le premier satellite GPU “data-center”
2.1. Le premier H100 dans l’espace
En novembre 2025, Starcloud-1 est lancé en orbite basse par SpaceX.
C’est un petit satellite de 60 kg, gros comme un mini-frigo, mais avec un record à bord :
- premier GPU NVIDIA H100 jamais déployé dans l’espace ;
- puissance de calcul annoncée : 100× plus élevée que tout ce qui avait volé jusque-là pour de l’IA.
Le satellite est basé sur le bus Corvus-Micro d’Astro Digital, placé en orbite très basse (≈325–350 km), pour une mission de démonstration d’environ 11 mois avant désorbitation contrôlée.
2.2. Ce que fait vraiment ce GPU là-haut
Starcloud-1 n’est pas (encore) un “AWS dans l’espace”, mais un démonstrateur de cas d’usage :
- traitement en temps réel de données d’observation de la Terre, par exemple celles de satellites radar (SAR) type Capella ;
- exécution de modèles IA lourds directement à bord (vision, détection d’objets, segmentation, etc.) ;
- tests de modèles de langage open source Gemma en orbite pour de l’IA générative / agentique côté satellite.
L’idée : au lieu de descendre des téraoctets d’images brutes sur Terre pour traitement, on filtre et analyse en orbite, puis on ne transmet que les insights (alertes, cartes, statistiques).
3. Starcloud-2 : du démonstrateur au “mini cloud” spatial
Le plan ne s’arrête pas à ce premier satellite.
3.1. Un cluster GPU et du stockage en 2026
Starcloud annonce déjà Starcloud-2, prévu pour 2026 :
- un cluster de GPU (plusieurs accélérateurs) ;
- du stockage persistant embarqué ;
- une connexion permanente (24/7) ;
- des systèmes propriétaires de gestion d’énergie et de refroidissement.
La promesse :
- pour les utilisateurs en orbite (stations, constellations) :
traitement en temps réel de gros volumes de données (imagerie, télémétrie, vidéo) sans engorger les liaisons descendantes ; - pour les utilisateurs au sol :
un cloud “premium”, souverain par design, où les données sont stockées et traitées hors de toute juridiction nationale directe.
3.2. Vers un cloud public… dans l’espace
Starcloud a aussi signé un partenariat avec Crusoe, fournisseur d’infrastructures IA, pour déployer le premier cloud public en orbite :
- Crusoe Cloud doit tourner sur un satellite Starcloud dont le lancement est prévu fin 2026 ;
- objectif : offrir des capacités GPU accessibles au public dès 2027, avec des coûts énergétiques annoncés jusqu’à 10× plus faibles qu’au sol.
Dit autrement : on parle de véritables instances GPU “orbit-as-a-service”.
4. Pourquoi mettre des GPU en orbite ? Les promesses techniques
4.1. Énergie quasi gratuite, refroidissement naturel
Les arguments de Starcloud & co :
- Énergie solaire continue en orbite héliosynchrone → pas de cycles jour/nuit classiques, panneaux toujours au soleil, facteur de charge énorme ;
- pas d’atmosphère → refroidissement radiatif vers le vide spatial, sans tours aéroréfrigérantes ni eau ;
- plus besoin de trouver des terrains, de gérer des permis environnementaux ou des raccordements haute tension.
Dans leurs projections, une fois le coût du lancement amorti, on obtient :
- des coûts énergétiques totaux jusqu’à 10× plus bas que pour un hyperscaler terrestre ;
- la possibilité de monter à terme à des data-centers orbitaux de plusieurs gigawatts grâce à des pans entiers de panneaux solaires et radiateurs se déployant automatiquement.
4.2. Traitement “on-orbit” : moins de latence… pour l’espace
Pour les services spatiaux, les satellites GPU changent la donne :
- Observation de la Terre : détection de navires, d’incendies, d’inondations, d’objets en mer, tri des images utiles ↔ inutiles avant descente.
- Surveillance environnementale & climat : agrégation multi-satellites, modèles de prévision embarqués, alertes quasi temps réel.
- Opérations spatiales : détection de débris, suivi d’orbites, navigation autonome, docking robotisé.
Là, ce n’est pas la latence Terre ↔ satellite qui pose problème, mais la latence entre satellites :
avoir un GPU en orbite permet de traiter les données au plus près de leur source.
5. IA orbitale : quelles applications business à moyen terme ?
Pour les acteurs économiques, ces satellites GPU ouvrent plusieurs pistes.
5.1. Nouvelle génération d’analytics spatiales
Les fournisseurs de données spatiales peuvent proposer :
- des flux d’alertes “prêtes à consommer” (risques climatiques, agriculture, maritime, sécurité) ;
- des API qui renvoient directement des objets détectés, des cartes ou des indicateurs, plutôt que des tuiles d’images brutes ;
- des services de surveillance continue de zones sensibles avec moins de trafic radio nécessaire.
Cela réduit :
- les coûts de bande passante,
- la dépendance aux stations sol,
- le temps entre acquisition et insight (de plusieurs heures à quelques minutes).
5.2. Sauvegarde souveraine & “cold storage” orbital
En parallèle, Starcloud évoque déjà l’idée de stockage de données en orbite :
- “coffres-forts de données” hors sol, utiles pour des États ou des institutions souhaitant un tiers de confiance extra-territorial ;
- sauvegarde de jeux de données critiques (modèles IA, archives nationales, données scientifiques) avec redondance spatiale.
On entre là sur un terrain très politique, autour de la souveraineté des données et du droit applicable à ces infrastructures orbitales.
5.3. IA grande échelle : préfiguration de futurs entraînements en orbite
À long terme, la vision de Starcloud est simple :
les plus grands entraînements de modèles IA pourraient se faire directement dans l’espace, là où l’énergie solaire est abondante et le refroidissement plus simple.
Pour les grands laboratoires d’IA (ou les États), cela pourrait devenir un levier stratégique pour éviter :
- de saturer les réseaux électriques nationaux ;
- d’entrer en concurrence directe avec les usages “classiques” (industrie, logements) pour la même électricité.
6. Les limites et défis (énormes) de l’IA orbitale
Avant de s’emballer, il y a une longue liste de points durs.
6.1. Coût, risques techniques et maintenance
Même avec des coûts de lancement en baisse, il reste :
- le prix du hardware durci pour l’espace ;
- le risque de panne d’un GPU à plusieurs centaines de kilomètres… impossible à réparer sans mission dédiée ;
- les contraintes de radiation, cycles thermiques, vibrations au lancement.
Starcloud-1 est avant tout un test de viabilité : prouver qu’un H100 peut fonctionner dans ces conditions est déjà un exploit.
6.2. Latence pour les usages “web” et cloud classiques
Pour des usages SaaS classiques (micro-services, bases de données, gaming, etc.), la latence aller-retour Terre–orbite reste un frein :
- quelques dizaines de millisecondes supplémentaires par aller-retour ;
- nécessité de passer par des stations sol ou des constellations de relais.
C’est acceptable pour :
- du batch, de l’analytique, de l’entraînement de modèles ;
- certains workloads tolérants à la latence.
Beaucoup moins pour :
- du temps réel “ultra sensible” (trading haute fréquence, gaming cloud, etc.).
6.3. Enjeux réglementaires, environnement et débris spatiaux
Multiplier les data-centers en orbite pose des questions :
- débris spatiaux : que faire des centaines de satellites en fin de vie ?
- cadre légal : qui est responsable en cas d’incident (collision, fuite de données, usage malveillant) ?
- impact environnemental global : les lancements restent très émetteurs en CO₂, même si l’exploitation est ensuite très “verte”.
Les premiers projets (Starcloud, Google Project Suncatcher, etc.) affirment intégrer des stratégies de désorbitation et de limitation des débris, mais le débat ne fait que commencer.
7. Pour les fondateurs et acteurs européens : menace ou opportunité ?
Même si Starcloud est américaine, l’IA orbitale ouvre quelques pistes pour les acteurs européens.
7.1. Spacetech & edge AI
Des startups européennes comme EDGX ou Aitech travaillent déjà sur des modules Jetson Orin durcis pour l’orbite, capables de délivrer des dizaines voire centaines de TOPS en vol.
Il y a de la place pour :
- des solutions concurrentes ou complémentaires aux plateformes Starcloud ;
- des services logiciels (OS spatiaux, orchestrateurs, frameworks MLOps pour satellites, sécurité).
7.2. Produits “powered by orbital AI”
Pour des boîtes spécialisées en :
- observation de la Terre,
- climat, agriculture, maritime, défense,
- assurance, finance (risques climatiques, catastrophes),
les GPU orbitaux deviennent un argument produit :
- délais de traitement plus courts ;
- coûts de données plus bas ;
- capacité à lancer des services qui n’étaient pas rentables avec un modèle uniquement “au sol”.
7.3. Souveraineté : trouver sa place
Côté politiques publiques, l’Europe doit choisir :
- s’appuyer sur des offres orbitale US (Starcloud, Crusoe, Google…) ;
- soutenir ses propres constellations IA pour ne pas répliquer la dépendance actuelle aux grands clouds ;
- intégrer l’orbital dans ses réflexions sur l’AI Act, la souveraineté numérique et l’espace comme infrastructure critique.
8. En résumé : les promesses des satellites GPU de Starcloud
Si on condense :
- Starcloud-1 a mis en orbite le premier NVIDIA H100, démontrant qu’un GPU de data-center peut fonctionner dans l’espace, environ 100× plus puissant que ce qui existait jusque-là.
- Starcloud-2 doit suivre en 2026 avec un cluster GPU + stockage pensé comme mini-cloud, pour des clients spatiaux et terrestres.
- La promesse clé : énergie abondante, refroidissement simplifié, coûts d’exploitation beaucoup plus bas, permettant à terme des data-centers orbitaux de plusieurs gigawatts.
- Les cas d’usage immédiats sont surtout dans l’observation de la Terre, la défense, le climat, l’espace lui-même (suivi de débris, opérations autonomes).
- Les défis restent immenses : coût, fiabilité, latence, réglementation, débris, mais la démonstration de Starcloud-1 montre que l’on vient de franchir un seuil symbolique.
Les satellites GPU de Starcloud ne vont pas remplacer demain les data-centers sur Terre.
Mais ils ouvrent une nouvelle dimension dans la carte de l’infrastructure : l’orbite basse comme zone critique pour l’IA, au croisement de l’énergie, de la souveraineté et du commerce spatial.
9. Sources
- Starcloud – Data Centers in Space
https://www.starcloud.com/ - Starcloud – Starcloud-2: In-Space GPU Cluster & Cloud Computing
https://www.starcloud.com/starcloud-2 - Y Combinator – Starcloud: Data centers in space
https://www.ycombinator.com/companies/starcloud - NVIDIA Blog – How Starcloud Is Bringing Data Centers to Outer Space
https://blogs.nvidia.com/blog/starcloud/ - DataCenterDynamics – Starcloud-1 satellite reaches space, with Nvidia H100 GPU now operating in orbit
https://www.datacenterdynamics.com/en/news/starcloud-1-satellite-reaches-space-with-nvidia-h100-gpu-now-operating-in-orbit/ - IEEE Spectrum – NVIDIA H100 GPU successfully operates in space on Starcloud-1
https://spectrum.ieee.org/nvidia-h100-space - Tom’s Hardware – Nvidia’s H100 GPUs are going to space – Crusoe and Starcloud pioneer space-based AI compute cloud data centers
https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers - Blocks & Files – Starcloud pitches orbital datacenters as cheaper, cooler AI compute
https://blocksandfiles.com/2025/10/23/starcloud-orbiting-datacenters/ - Tom’s Hardware – Self-assembling data centers in space are becoming reality as Rendezvous Robotics partners with Starcloud
https://www.tomshardware.com/tech-industry/artificial-intelligence/self-assembling-data-centers-in-space-are-becoming-reality-as-rendezvous-robotics-partners-with-starcloud-elon-musk-chimes-in-that-spacex-will-be-doing-this - RS Components – How Is Edge AI Being Used in the Aerospace Industry?
https://www.rs-online.com/designspark/how-is-edge-ai-being-used-in-the-aerospace-industry - Tech.eu – Belgian spacetech EDGX raises €2.3M to bring edge computing to space
https://tech.eu/2025/08/11/belgian-spacetech-edgx-raises-2-3m-to-bring-edge-computing-to-space/ - CAVU Aerospace – The Challenge of AI Processing in Space
https://cavuaerospace.uk/articles/the-challenge-of-ai-processing-in-space/