You are currently viewing Le plus grand centre de données au monde

Le plus grand centre de données au monde

This article is also available in: Anglais Arabe Allemand

Un serveur est un matériel informatique, un logiciel ou un périphérique qui offre une assistance à une autre unité informatique, un client, en fournissant des informations ou des ressources informatiques. Lorsque des centaines et des milliers de ces serveurs sont connectés via des commutateurs réseau et des routeurs dans le même emplacement physique, ils composent un cluster également appelé batterie de serveurs. Une batterie de serveurs est destinée à fournir une puissance de traitement et une capacité de stockage excédentaires pour les machines et les applications qui ont besoin de ressources informatiques étendues.

En 1991, le tout premier serveur Web a été lancé au Stanford Linear Accelerator Center en Californie. Le nombre de serveurs Web atteignait 10 000 à la fin de 1994. La même année, le World Wide Web Consortium (W3C) a été fondé pour gérer et normaliser les progrès des technologies Web.

De nos jours, le serveur Apache est l’environnement de serveur Web le plus utilisé dans le développement Web, gérant près de 70% de tous les sites accessibles (Thota et al., 2017).

En 2001, RLX Technologies a lancé le tout premier serveur lame commercial sur le marché. Ils ont été développés par Christopher Hipp et David Kirkeby pour un projet de l’industrie, mais leur efficacité a conduit à la commercialisation.

Un serveur lame se compose généralement d’un châssis, ou d’une conception semblable à une boîte, contenant de nombreuses cartes de circuits minces, connues sous le nom de lames. Chaque lame est associée à un logiciel dont les données sont stockées dans un périphérique de mémoire.

Les serveurs lames présentent plus d’avantages en matière d’accessibilité et de convivialité, car ils se concentrent principalement sur une seule application et consomment moins d’alimentation et de stockage. Les entreprises peuvent allouer un serveur lame unique à une fonction critique d’exploitation, ce qui est très crucial pour l’organisation.

À mesure que les progrès réalisés dans les architectures de serveurs augmentaient, une plus grande attention était accordée à la maintenance et à la gestion des serveurs. La gestion des serveurs comprend les opérations et les fonctions effectuées pour maintenir les performances idéales d’un serveur. Des stratégies ont été conçues pour observer les programmes de serveur en cours d’exécution et surveiller leurs problèmes, corriger ces erreurs et les victimes, mettre à niveau le logiciel du serveur, mettre en place les services et planifier l’allocation des ressources, tout cela a été considéré comme les principaux objectifs de la gestion du serveur.

L’invention de la gestion à distance a conduit à la maintenance virtuelle des batteries de serveurs.

À mesure que le nombre de batteries de serveurs augmente, elles sont censées répondre à des normes élevées de puissance de calcul, d’évolutivité et d’efficacité. Le matériel est susceptible de devenir obsolète à mesure que la virtualisation prend le relais. Le cloud computing a déjà conduit les organisations à convertir leurs systèmes en environnements virtuels. L’informatique mobile a également facilité l’accès aux données, aux logiciels et à d’autres ressources informatiques avec un environnement informatique léger et facilement accessible. Au cours de la prochaine décennie, les technologies avancées telles que les bureaux virtuels, les bibliothèques numériques, les services des fournisseurs Internet mondiaux et la migration open source changeront complètement la donne des batteries de serveurs.

Alors que le monde progresse vers la technologie cloud, les batteries de serveurs deviennent de plus en plus surdimensionnées depuis que la demande de puissance de calcul accrue augmente.

Les constructeurs de cloud tels que Microsoft, Apple, Equinix, Google et Facebook investissent d’énormes sommes d’argent dans la construction de ces fermes pour établir une supériorité les unes sur les autres et répondre aux besoins de l’heure. En dehors de cela, de nombreuses autres raisons prouvent la faisabilité de telles batteries de serveurs. Premièrement, l’économie passe au numérique (Xu et al., 2018). Chaque secteur de l’économie a maintenant une présence en ligne et cela devrait augmenter, ce qui nécessitera le stockage de plus grandes quantités de données. Deuxièmement, l’informatique en nuage a trouvé une acceptation générale pour une majorité d’entreprises et la charge de travail devrait passer des serveurs internes aux fournisseurs de services en nuage.

Les données statistiques montrent qu’il existe un total de 504 fermes hyperscales et qu’il y en a 40% aux États-Unis d’Amérique. Cependant, le plus grand développement et la plus grande croissance ont eu lieu en Europe, au Royaume-Uni, au Japon, en Chine, en Asie-Pacifique et en Australie. L’Australie représente 32 % du total (Tang et coll., 2016).

Les géants technologiques qui possèdent ces installations gigantesques suivent une pratique courante. Ils louent plus de 70% de ces capacités à des opérateurs de centres de données commerciaux. Les installations du centre de données devraient augmenter pendant une bonne partie de l’avenir proche.

Ces centres de données à grande échelle et hyperscale sont une voie à suivre pour l’humanité. Mais ils ont un inconvénient sous-jacent. Ces centres de données ont une énorme empreinte carbone qui doit être prise en charge avant qu’il ne soit trop tard. L’empreinte carbone de ces géants technologiques est un signe d’inquiétude.

La manière d’aller de l’avant pour résoudre ce problème est de rendre les opérations aussi efficaces que possible. À cette fin, les entreprises de données utilisent des aaires, des systèmes de refroidissement efficaces, introduisant l’automatisation dans la mesure du possible, etc. Ces pratiques ont porté leurs fruits sous la forme d’une consommation d’énergie relativement constante au cours de la dernière décennie. Du côté positif, à mesure que de plus en plus d’entreprises sous-traitent leur capacité de traitement des données à ces entreprises, leur consommation d’énergie diminue certainement. Cependant, il y aura un point optimal, après quoi toute autre entreprise qui décidera d’externaliser ses opérations à ces entreprises aura besoin de plus de puissance, ce qui signifie plus de carbone.

Did you like this article?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Spread & Share

Laisser un commentaire