Les datacenters dans l’espace sont-ils une bonne ou mauvaise idée ? Une étude de l’UE conclut que c’est réalisable
Comme Microsoft avec son projet de centre de données sous-marins avant de l’abandonner
L’idée phare derrière un centre de données dans l’espace est de « profiter de l’énergie infinie du soleil » pour les besoins en alimentation électrique. L'étude ASCEND de l'UE, d'un montant de 2,1 millions de dollars, a conclu que l’approche est techniquement, économiquement et écologiquement réalisable. L’originalité de l’approche n’est pas sans faire penser au projet de centre de données sous-marin de Microsoft débuté en 2016 et qui vient de se solder par un abandon.
L'essor de l'intelligence artificielle fait grimper en flèche la demande de centres de données pour suivre le rythme de croissance du secteur technologique. Conséquence : selon l'Agence internationale de l'énergie, la consommation mondiale totale d'électricité des centres de données pourrait atteindre plus de 1000 térawattheures en 2026, ce qui équivaut à peu près à la consommation d'électricité du Japon. Ce sont là des raisons d’être de réflexions telles que les centres de données dans l’espace.
Les installations que l'étude envisage de lancer dans l'espace devraient être en orbite à une altitude d'environ 1400 kilomètres, soit environ trois fois l'altitude de la Station spatiale internationale. ASCEND viserait à déployer 13 blocs de construction de centres de données spatiaux d'une capacité totale de 10 mégawatts en 2036, afin d'atteindre le point de départ de la commercialisation des services en nuage.
Chaque bloc de construction - d'une surface de 6300 mètres carrés - comprend une capacité pour son propre service de centre de données et est lancé à l'intérieur d'un véhicule spatial. Afin d'avoir un impact significatif sur la consommation d'énergie du secteur numérique. L'objectif du projet est de déployer 1300 blocs de construction d'ici 2050 pour atteindre 1 gigawatt.
« Le refroidissement est un problème majeur, le rayonnement en est un autre. Sans atmosphère pour absorber les radiations, celles-ci vont frapper ces serveurs beaucoup plus fréquemment que sur Terre. Le blindage est possible, mais il est également coûteux et lourd », souligne un internaute quant à ce qui concerne les raisons pour lesquelles le projet est susceptible de se solder par un échec.
L’originalité de l’approche n’est pas sans faire penser au projet de centre de données sous-marin de Microsoft qui vient de se solder par un abandon
Lancé en 2016, le projet Natick visait à déterminer si les centres de données pouvaient être installés et exploités sous l'eau. Microsoft vient d’y mettre fin, d’après des rapports qui suggèrent que l’approche de datacenter sous la mer s’avère plus coûteuse.
Pourquoi le projet Natick ? Le projet s’appuyait sur une remarque de Microsoft que le cloud computing continue de gagner en importance, représentant à la fois un catalyseur de croissance économique, mais aussi comme consommateur de ressources mondiales. Ainsi, le projet était destiné à aider à façonner une autre perspective dans la gestion du cloud pour mieux servir les utilisateurs dans les zones proches de cours d'eau. Microsoft voyait dans le déploiement en eaux profondes une solution au refroidissement, aux énergies renouvelables, mais aussi à une empreinte environnementale moindre.
Microsoft réfléchissait en sus à la possibilité de l'associer à un autre système pour pouvoir l'alimenter en électricité, par exemple une turbine ou un système générant de l'énergie marémotrice.
Il faut rappeler que les centres de données contiennent de nombreux serveurs qui génèrent beaucoup de chaleur. Lorsque la chaleur est trop forte, les serveurs plantent. Raison pour laquelle ils sont placés dans des zones où l'air conditionné fonctionne en permanence. C’est en cela que le projet Natick apparaissait comme une solution à la fois être écologique et économique dans la mesure où il n'y aurait plus à payer cette lourde facture.
Quels en sont les avantages ? Microsoft parlait d'une rapidité de mise en service (la capacité de déployer un centre de données du début à la fin en 90 jours) qui devait permettre une réponse rapide à la demande du marché, un déploiement rapide en cas de catastrophe naturelle ou d'évènements de grande envergure comme les compétitions internationales. Il faut en sus compter sur la latence (le temps mis par une donnée pour aller de la source à sa destination) : « la moitié de la population vit à moins de 200 km de l'océan. Alors, déployer des centres de données en mer accroît la proximité entre le centre de données et la population, réduisant ainsi la latence de façon considérable et fournissant une meilleure réponse ».
Source : Thalesalenia
Et vous ?
Datacenter dans l’espace : bonne ou mauvaise idée ? Quelles sont les raisons pour lesquelles vous pensez que l’approche est susceptible de se solder par un échec ? Quelles sont à contrario celles pour lesquelles vous pensez que c’est une piste à creuser à fond ?
Voir aussi :
Tous les datacenters et bureaux d'Apple dans le monde sont alimentés à 100 % en énergies renouvelables, pour lutter contre le changement climatique
Google aurait utilisé 100 % d'énergies renouvelables pour alimenter tous ses bureaux et Datacenter en 2017, d'après son premier vice-président
Les infrastructures IT pourraient être alimentées en énergie électrique issue de réacteurs de fusion nucléaire d'ici à 2033
Partager