Introduction
A l’échelle mondiale, l’empreinte écologique du secteur numérique est conséquente. Il émet aujourd’hui 1,4 milliards de tonnes de gaz à effet de serre (GES)[1] par an et on estime qu’en fonction des critères environnementaux regardés, les data centers représentent environ 15[2]% de l’empreinte du numérique. L’impact environnemental de ces centres de données provient à la fois de la fabrication des équipements informatiques (notamment l’extraction des métaux et la transformation en composants électroniques), de leur utilisation et de la gestion de leur fin de vie.
Toutefois, il est à noter que l’apparition de la virtualisation, l’amélioration de l’efficacité énergétique des serveurs, et le fait que la migration vers le cloud semble tendre vers l’optimisation de l’empreinte énergie / GES (compte tenu du taux de mutualisation important des datacenters de type ‘hyperscale’), ont permis de contenir la croissance globale de la consommation en électricité des data centers entre 2010 et 2018 après des années de hausse (d’après une étude parue dans Science en mars 2020). Et cette tendance pourrait perdurer jusqu’à horizon 2023 (mais probablement pas au-delà).
En parallèle, l’essor de la 5G et du Edge Computing vont profondément modifier les architectures IT et les cas d’usages des centres de données, poussant à augmenter les besoins en data centers (au moins en nombre).
Pour anticiper cette croissance de la demande en data centers, tout en essayant de réduire leur impact environnemental, plusieurs initiatives ont vu le jour et on peut distinguer cinq grands leviers d’action pour réduire cet impact : l’optimisation des infrastructures hébergées en datacenters (PUE), des systèmes de refroidissement, l’efficacité énergétique des infrastructures, la réutilisation de la chaleur dégagée et enfin le taux d’utilisation des serveurs.
Optimiser les infrastructures hébergées dans les datacenters
Lorsqu’il s’agit d’optimiser les infrastructures hébergées dans les datacenters, plusieurs pistes sont envisageables. Une première consiste à privilégier les infrastructures offrant un meilleur rapport puissance de calcul/consommation électrique. On fait notamment référence ici à des serveurs au format Blade (lorsque le volume de calcul le justifie) qui mutualisent certains composants (réseau stockage, Ethernet, alimentation) au sein d’un même châssis (un châssis pouvant généralement accueillir jusqu’à 8 serveurs Blade).
Une autre méthode serait de mesurer la consommation instantanée de chaque élément. En effet, en utilisant des PDU (Power Distribution Unit) capables de mesurer la consommation de chaque prise utilisée, on pourrait établir des métriques fiables, qui pourront servir par la suite de socle pour une future stratégie d’optimisation de la consommation du data center. Cette optimisation aurait pour but de diminuer l’énergie consommée et de limiter les émissions de GES.
En outre, on pourrait également limiter le renouvellement des équipements pour avoir un impact bénéfique sur la consommation globale d’énergie du data center, sur l’ensemble du cycle de vie des équipements. En effet, la fabrication d’un nouvel équipement est couteuse en énergie et ne peut pas toujours être compensée par le caractère plus écologique de ses composants. L’idée serait donc de mettre davantage en lumière l’importance des business cases associés à ces renouvellements, afin de limiter des renouvellements coûteux en énergie et apportant peu de valeur ajoutée à l’entreprise.
Aussi, les patterns d’architecture frugale doivent être privilégiés. Par exemple, dans le cas de déploiements multisites, on pourrait favoriser l’utilisation d’architectures actives/passives, en utilisant le moins d’équipements en activité possible sur le site passif. Aujourd’hui, afin de limiter le risque d’un arrêt prolongé de l’activité, ces architectures sont souvent actives en même temps sur deux sites différents, consommant ainsi deux fois de l’énergie. Or ce risque d’arrêt prolongé de l’activité peut être drastiquement limité grâce à l’Infrastructure as Code (IaC), qui permet de programmer à l’avance la configuration et le déploiement de serveurs. Le redémarrage de l’activité sur un site passif peut ainsi être automatisé, pour que dans le cas d’une panne sur le site actif, l’architecture du site passif puisse être redémarrée en l’espace de quelques minutes.
Enfin, on pourrait également éviter les sauvegardes et les réplications de données à faible valeur ajoutée dans une optique de sobriété des données.
Réfléchir à de nouveaux systèmes de refroidissement afin d’optimiser le PUE
Le PUE est le rapport entre le total de l’énergie consommée par le data center et le total de l’énergie utilisé par ses équipements informatiques. Selon l’Uptime Institute dans son rapport de 2019, le PUE[3] moyen des centres de calcul privés, qui se définissent comme des environnements cloud spécifiques à un utilisateur final ou à un groupe, est de 1,67 en 2019, ce qui signifie que pour 1 kW consommé par les équipements informatiques, le data center consomme au total 1,67 kW.
Dans l’idéal, le PUE devrait être proche de 1 (à l’image de certains datacenters hyperscale qui se rapprochent de la valeur 1.1) et pour y parvenir, certaines entreprises ont cherché à développer de nouvelles méthodes de refroidissement, moins gourmandes en énergie. Cela est pertinent car le refroidissement des data centers représente aujourd’hui 40 à 50%[4] de l’énergie qu’ils consomment (le PUE ayant été historiquement amélioré grâce à la mise en œuvre d’allées chaudes et froides).
Une première méthode est le free-cooling : Il s’agit ici d’implanter les data centers dans des endroits où il fait froid (pays nordiques, sous terre etc.), afin de profiter de l’air frais pour les refroidir naturellement et minimiser ainsi l’utilisation de la climatisation.
Par exemple, la société américano-norvégienne Kolos[5], a choisi de construire un gigantesque data center en Arctique à Ballangen, au nord de la Norvège. De nombreux projets de construction de centres de données ont également vu le jour au Danemark, où les géants du web (Google, Facebook, Apple) se mettent à implanter leurs infrastructures d’hébergement de données.
Une autre idée est celle lancée par Microsoft[6] en 2018, le projet Natick, qui consistait à créer un data center sous-marin dans l’archipel des orcades en Ecosse. Il hébergeait 864 serveurs, tous refroidis naturellement par l’eau de mer. Récemment, un premier bilan a été établi sur cette expérience, qui est plutôt positif. En plus d’être refroidi à l’aide d’une énergie renouvelable, le data center sous-marin ne présenterait que 12% du taux habituel de défaillance observé sur Terre et serait donc plus fiable. Par contre, le risque de corrosion et élevé, et la maintenance est de fait complexifiée.
Cependant, ces deux solutions ne sont pas envisageables pour toutes les entreprises, car les centres de données doivent, dans certains cas, se trouver à proximité des utilisateurs pour garantir une performance maximale et aussi parce que certains pays exigent que les données soient stockées sur le territoire de résidence des utilisateurs.
Une autre méthode est le refroidissement par évaporation[7], qui pourrait convenir à des pays où il fait chaud et où les données doivent être hébergées sur le même territoire. Cette technologie consiste à déplacer l’air chaud sur un tampon de refroidissement mouillé, en nid d’abeille. L’air chaud passe ensuite à travers le refroidisseur en nid d’abeilles, qui absorbe la chaleur et la refroidit naturellement en humidifiant l’air. L’air frais est ensuite propulsé dans l’atmosphère. La température voulue est ainsi obtenue, sans besoin de réfrigération mécanique, permettant ainsi de réduire la consommation d’énergie et d’atteindre un PUE avoisinant 1,088[8]. Toutefois cette méthode a des limites, car si elle permet une diminution de la consommation d’électricité, elle entraine néanmoins une augmentation de la consommation d’eau.
Pour refroidir les data centers, la méthode de l’immersion dans l’huile gagne également en popularité. Ici, au lieu de réchauffer l’air du data center tout entier, les équipements informatiques sont directement plongés dans de l’huile. En effet, à l’inverse de l’eau, l’huile a l’avantage de ne pas conduire l’électricité. D’ailleurs, avec cette méthode, les serveurs sont également protégés de l’oxydation, des polluants chimiques, de l’humidité ou encore des chocs thermiques. Certains data centers ayant mis en place cette solution, encore en phase d’expérimentation, atteignent déjà des PUE de 1,04[9].
Cependant cette technologie s’accompagne de plus de complexité lors de la maintenance, nécessite davantage de place au sol qu’une solution en racks et peut entrainer des coûts importants. En effet, si aucun surcoût n’a été observé lors de la mise en place de cette solution dans un data center neuf, il en est autrement pour des datacenters déjà construits (coûts d’aménagement, de développement etc.).
Pour finir, il convient de noter les limites des perspectives d’amélioration de la consommation d’électricité via le PUE. En effet, comme l’indique l’Uptime Institue dans son rapport de 2019 : « Improvements in data center facility energy efficiency have flattened out and even deteriorated slightly in the past two years”.
Les data centers peuvent permettre d’absorber une offre excédentaire d’électricité
Les data centers peuvent permettre de contribuer à équilibrer les systèmes électriques produisant une offre excédentaire d’électricité.
Prenons l’exemple de l’Irlande, où l’impact local des centres de données est extrêmement important. L’énergie éolienne y représente une part significative de la production totale d’électricité (28% en 2018)[10].
Or, une grande partie de cette énergie éolienne est générée la nuit lorsque la demande d’électricité est faible dans les secteurs résidentiels et commerciaux. Avec une demande relativement constante d’un jour à l’autre, les data centers peuvent alors absorber l’offre excédentaire d’électricité et ainsi optimiser l’utilisation de l’électricité provenant de l’énergie éolienne.
Réutiliser la chaleur dégagée pour soutenir des activités autres que l’hébergement de données
Une autre manière d’envisager la réduction de l’impact environnemental consiste à réutiliser la chaleur fatale dégagée par le data center et à la réinjecter ailleurs. Certes, la quantité de chaleur fatale émise n’aura pas changée, mais le fait de l’utiliser dans différentes activités, permet une meilleure circularité de l’énergie (c’est autant d’énergie en moins pour les activités desservies).
Aujourd’hui, la grande majorité des centres de données ne réutilisent pas la chaleur fatale, alors même qu’elle pourrait servir à d’autres usages. C’est pour cette raison que certaines entreprises se sont penchées sur la question de la réutilisation de la forte quantité de chaleur émise par les data centers.
Prenons l’exemple de Natixis[11], qui se sert des serveurs de ses data centers dans l’est parisien, pour chauffer les bassins du centre aquatique de Val d’Europe, ce qui évite à Val d’Europe d’avoir leur propre source d’énergie.
La mairie de Paris de son côté, traite ce sujet avec le raisonnement inverse. Au lieu de réutiliser les ressources de data centers existants, l’idée serait de libérer de l’espace pour accueillir de l’informatique. En effet, elle prévoit actuellement d’aménager un local dans les sous-sols de la piscine de la Buttes aux cailles, afin de les louer à Stimergy, une startup capable de récupérer la chaleur des serveurs et de la réinjecter dans d’autres usages. A terme, les serveurs permettront de réchauffer l’eau des bassins de la piscine. A travers le même système, la start-up Stimergy chauffe d’ores et déjà l’eau des douches du gymnase de l’université de Lyon Jean-Moulin. Elle alimente également en eau chaude les radiateurs d’une vingtaine de logements sociaux à Grenoble.
Un autre concept intéressant a vu le jour, qui va au-delà des enjeux énergétiques et climatiques, étant donné qu’il adresse des enjeux de résilience et d’amélioration du niveau de vie des agriculteurs. C’est celui du fournisseur de data centers Datafarm.io[12], qui travaille en partenariat avec des fermes agricoles françaises. Le principe est le suivant : de l’énergie est produite par méthanisation agricole et alimente les data centers. La chaleur fatale dégagée par le fonctionnement des datacenters est restituée à l’agriculteur, qui peut l’utiliser pour ses propres activités (chauffage et refroidissement des exploitations agricoles, séchage, fabrication de yaourts etc.).
Augmenter le taux d’utilisation des infrastructures des data centers
Il est à noter que le principal impact environnemental des centres de données, sur lequel l’humain pourrait avoir une action directe, c’est avant tout l’usage qu’il en fait, autrement dit, la façon dont il utilise les infrastructures informatiques se trouvant à l’intérieur. En effet, 90% des GES des data centers sont émis lors des phases d’utilisation[13].
Aujourd’hui, le taux d’utilisation des infrastructures informatiques dans les data centers, qui se définit comme le rapport entre la quantité provisionnée et la quantité réellement utilisée, pourrait être optimisé. Par exemple en France, dans certains data centers, il avoisine les 10-30%[14] pour plusieurs raisons : l’anticipation de pics de charge nécessitant davantage d’infrastructures, des contraintes règlementaires dans certains secteurs comme la banque, la finance et la santé etc.
Il serait impossible d’envisager un taux d’utilisation à 100%, mais il y a tout de même ici une certaine marge de manœuvre pour faire monter ce taux et réduire ainsi l’empreinte écologique des centres de données.
Un premier levier pour faire augmenter le taux d’utilisation des infrastructures IT serait de se pencher sur le problème des « matériels fantômes » présents dans les data centers. Il s’agit de matériel informatique (serveur, stockage, réseau) qui n’est plus utilisé, mais qui n’est pas décommissionné pour autant et qui continue ainsi à consommer de l’énergie.
Cela arrive par exemple lorsqu’une entreprise, par oubli, continue de faire tourner des applications sur des serveurs, alors que ces applications sont obsolètes (ce sont des versions anciennes de l’application) et pourraient être désactivées.
Une façon de réduire le nombre de matériels inutilisés, serait de surveiller davantage le matériel effectivement utilisé et d’en informer les gestionnaires de centres de données.
Aussi, dans certains data centers, un nombre important d’infrastructures IT tournent quasiment 24/7, en ne s’adaptant aucunement aux périodes creuses et aux pics de trafic. Ainsi, certaines machines tournent parfois inutilement et consomment de l’énergie.
Or, cela pourrait être en partie évité, à travers la mutualisation de l’utilisation des infrastructures IT. Il s’agirait ici d’utiliser des fonctions de réduction de consommation des clusters de virtualisation. En effet, certaines solutions de virtualisation permettent une optimisation et une réduction automatique du nombre de serveurs allumés (notamment la nuit).
C’est d’ailleurs ce que fait Facebook avec son système « Autoscale » qui réduit automatiquement le nombre de serveurs allumés durant les heures creuses et économise ainsi 10 à 15% d’énergie[15].
On pourrait également favoriser des architectures applicatives supportant une augmentation (ou réduction en période creuse) des ressources en réponse à l’activité supportée.
Le développement de l’intelligence artificielle aura probablement un rôle à jouer dans la réduction des usages à faible valeur ajoutée. Elle permet d’ores et déjà d’optimiser la gestion de l’utilisation des infrastructures IT et d’augmenter l’efficacité énergétique de certains datacenters.
Par exemple, Google, se sert de réseaux de neurones, leur permettant d’adapter le fonctionnement de certains serveurs en temps réel et de réduire ainsi la consommation d’énergie.
Conclusion
La prise de conscience des enjeux environnementaux du numérique semble désormais bien plus largement partagée, à la fois au sein de la société et au sein des organisations.
Par ailleurs, les pouvoirs publics appuient de plus en plus les initiatives environnementales des entreprises. Un exemple récent est l’adoption d’un amendement[16] consistant à réduire le tarif de TICFE (Taxe Intérieure sur la Consommation Finale d’Electricité) des entreprises, à condition qu’elles mettent en œuvre un système de management de l’énergie et qu’elles adhèrent à un programme de mutualisation de bonnes pratiques de gestion énergétique des centres de données.
Développer la sobriété numérique en entreprise (en adressant les usages, ainsi que les solutions techniques) est un moyen de répondre aux enjeux environnementaux, et ce champ doit notamment être investigué sur le segment des datacenters.
Nous espérons que cette rapide analyse permettra de contribuer à la sensibilisation sur les enjeux environnementaux du numérique, et incitera au déclenchement d’études d’impact précises et la mise en œuvre de plans d’action à la hauteur des enjeux !
Sources :
[1] https://www.greenit.fr/etude-empreinte-environnementale-du-numerique-mondial/
[2] https://www.numerama.com/tech/644650-reconcilier-data-centers-et-ecologie-le-defi-dinfomaniak.html
[3] https://uptimeinstitute.com/2019-data-center-industry-survey-results
[4] https://www.planetoscope.com/electronique/230-energie-consommee-par-les-data-centers.html
[5] https://www.latribune.fr/technos-medias/l-arctique-s-apprete-a-accueillir-le-plus-grand-data-center-au- monde-748006.html
[6] https://video.lefigaro.fr/figaro/video/microsoft-immerge-un-data-center-pres-d-un-archipel- ecossais/5794679225001/
[7] http://www.ecocooling.fr/applications/refroidissement-evaporatif-de-data-center/
[8] http://www.ecocooling.fr/french/wp-content/uploads/2018/04/EcoCooling-IT-Sales-Manual-2018-1.pdf
[9] https://soundcloud.com/user-587551995/les-insiders-02-data-center-et-impacts-climatiques
[10] https://www.iea.org/commentaries/data-centres-and-energy-from-global-headlines-to-local-headaches
[11] https://bfmbusiness.bfmtv.com/entreprise/a-paris-cette-start-up-chauffe-l-eau-des-piscines-avec-ses- datacenters-957195.html
[12] https://datafarm.io/index.html
[13] Source étude Green IT 2019, en résonnance avec les ordres de grandeur annoncés par l’ADEME
[14] https://www.apl-datacenter.com/wp-content/uploads/2017/07/livre-blanc-indicateurs-performance-
%C3%A9nerg%C3%A9tique-environnementale-des-data-centers.pdf
[15] https://www.lebigdata.fr/data-centers-environnement
[16] https://twitter.com/ebothorel/status/1327564182502465536?s=21