Au cœur de la matérialité de nos données : visite contée du data center Normandie d’Orange

On pense assez peu aux impacts matériels et donc environnementaux quand on parle des données, et pourtant celles-ci doivent être transportées et stockées. Cette visite de data center nous rappelle que nos données sont tout sauf virtuelles, malgré des efforts conséquents d’optimisation.

 

data center orange

 

Le temps est maussade en ce jeudi 21 décembre. À l’approche de ces deux énormes blocs de béton cerclés de clôtures, de portails et de caméras, on ne peut pas dire que je sois particulièrement égayé par cet environnement de haute sécurité. Mais je suis assez excité à l’idée de pouvoir rentrer à l’intérieur d’un de ces fameux data centers à très haute disponibilité. J’arrive à la guérite d’accueil avec le groupe de chanceux invités par Orange et NWX pour visiter le data center Normandie. Recueil des pièces d’identité et distribution du livret d’accueil de rigueur, nous pouvons entrer dans l’enceinte accompagnés par le responsable des lieux. Après avoir passé un certain nombre de grilles et de portes contrôlées, nous commençons la visite par un tour d’horizon chiffré de l’installation.

Le groupe Orange a fait le choix d’héberger ses données et celles de ses clients dans ses propres infrastructures, dans le but de remplir trois objectifs : 

  • Une solution souveraine
  • Une qualité de service
  • Une réduction de son impact environnemental

L’entreprise comptait 12 datacenters en 2012 et veut réduire ce nombre à 3 en 2030 (deux en Normandie et un en Centre Val de Loire). Le challenge est important pour le groupe dont 7 % de la facture énergétique provient de ses data centers.
Nous apprenons que le choix de l’implantation sur ce campus de 18 ha est loin d’être anodin : 

  • Accès aux réseaux télécoms
  • Faibles risques environnementaux
  • Conditions météorologiques optimales pour le free cooling (refroidissement naturel grâce à l’air extérieur)
  • Capacité de distribution électrique (L’installation nécessite deux arrivées RTE en 90 000 V, pour une capacité totale sur le site de 45 MW).

Au total, les bâtiments occupent 2x20 000 m2 au sol sur 4 niveaux, pour un total à date de 7 600m2 de salles informatiques. Le reste de l’espace est occupé par bon nombre d’équipements essentiels au fonctionnement du data center et au respect de ces critères de disponibilité et de sécurité : 

  • Près d’une vingtaine de groupes électrogènes sur le site (en cas de coupure, le site doit pouvoir fonctionner en autonomie pendant 72h).
  • De nombreux postes de transformation de l’électricité (les serveurs supportent mal le 90 000 V).
  • Des installations permettant le refroidissement naturel.
  • Des installations anti-incendie.
  • Des équipements permettant le passage des différents câblages.
  • Des climatisations permettant le refroidissement quand le free cooling est impossible.
  • Tous les équipements précédents systématiquement redondés.


Le data center est refroidi 85 % du temps par le free cooling. L’air extérieur est filtré puis envoyé sous pression en sous-sol des salles informatiques. L’air plus froid va remonter par différentiel de pression et par aspiration des salles informatiques, et l’air chaud sera envoyé en sortie vers le plafond (la fameuse chaleur fatale). Cette chaleur est aujourd’hui récupérée sur un des deux bâtiments. Sur le second, des projets sont à l’étude avec des sites voisins mais les problématiques de distance limitent la viabilité de réseaux de chaleur. Ce système de free cooling permet au data center d'Orange d’afficher un PUE (Power Usage Effectiveness) de 1.3, bien en deçà de la moyenne française de 1.8. L’équipement n’utilise quasiment pas d’eau.

Le free cooling est impossible 5 % du temps en raison des pics de chaleur (au-delà de 27°C à l’extérieur) qui empêchent d’assurer une température dans les salles informatiques entre 16 et 26°C. Les 10 % restants, la climatisation est nécessaire en raison du taux d’humidité d’extérieur : elle sert alors à assécher l’air. Cette augmentation du taux de l’humidité de l’air est la principale conséquence ressentie du changement climatique au niveau du data center.

Avec toutes ces informations, il nous tarde alors de voir ces installations de nos propres yeux. Un petit passage par le hall d’accueil pour observer la maquette Lego du bâtiment, et nous nous dirigeons vers l’enceinte encore plus sécurisée : badge et empreinte sont indispensables pour rentrer au cœur du bâtiment. La première chose que l’on peut contempler est une succession labyrinthique de couloirs, le silence est perturbant. Les différentes salles renfermant les installations précédemment listées s’enchaînent entre deux portes blindées insonorisées, tout est organisé au centimètre, les repères de couleurs nous permettraient presque de retrouver notre chemin seul !

Nous entrons alors dans une des salles renfermant un des groupes électrogènes. Ma représentation mentale de ce genre d’engins ne m’avait pas préparé à la dimension de la machine : elle occupe le centre d’une pièce où nous pouvons facilement entrer à une vingtaine tout autour. Avec une consommation de 645 L à l’heure en fonctionnement, on est loin de nos représentations habituelles du groupe électrogène. 
Place ensuite à la pièce centrale : surchaussures et bouchons d’oreille sont de mise, la salle informatique ressemble un peu à une salle blanche de l’industrie pharmaceutique, mais avec des alignements de serveurs qui produisent un ronron de 80 dB. Beaucoup d’espace entre les différentes baies permettent la circulation de l’air, mais on pourrait quand même largement troquer notre tenue hivernale pour un t-shirt.

La visite s’achève, et on peut dire qu’on ressort pleinement conscient du lourd tribut matériel que représente l’explosion du volume de nos données, tribut qui pourra difficilement être atténué davantage par nos efforts d’optimisation.

Visite vécue et contée par Edouard Fournier