This article is also available in: Englisch Arabisch Französisch
Ein Server ist Computerhardware, -software oder -gerät, das einer anderen Computereinheit, einem Client, durch Bereitstellung von Informationen oder Computerressourcen Unterstützung bietet. Wenn Hunderte und Tausende solcher Server über Netzwerk-Switches und Router am gleichen physischen Standort verbunden sind, bilden sie einen Cluster, der auch als Serverfarm bezeichnet wird. Eine Serverfarm soll überschüssige Rechenleistung und Speicherkapazität für Maschinen und Anwendungen bereitstellen, die umfangreiche Rechenressourcen benötigen.
1991 wurde der erste Webserver im Stanford Linear Accelerator Center in Kalifornien gestartet. Die Zahl der Webserver erreichte Ende 1994 10 000. Im selben Jahr wurde das World Wide Web Consortium (W3C) gegründet, um die Fortschritte in web technologies zu verwalten und zu standardisieren.
Heutzutage ist Apache Server die am häufigsten verwendete Webserver-Umgebung in der Web-Entwicklung und verarbeitet fast 70% aller zugänglichen Websites (Thota et al., 2017).
2001 brachte RLX Technologies den ersten kommerziellen Blade-Server auf den Markt. Sie wurden von Christopher Hipp und David Kirkeby für ein Industrieprojekt entwickelt, aber ihre Effizienz führte zur Kommerzialisierung.
Ein Blade-Server besteht in der Regel aus einem Gehäuse oder einem kastenartigen Design, das zahlreiche dünne Leiterplatten enthält, die als Blades bezeichnet werden. Jedes Blade ist mit Software verbunden, deren Daten in einem Speichergerät gespeichert sind.
Blade-Server haben mehr Vorteile für Barrierefreiheit und Benutzerfreundlichkeit, da sie sich in erster Linie auf eine einzelne Anwendung konzentrieren und weniger Stromversorgung als auch Speicher verbrauchen. Unternehmen können einen einzelnen Blade-Server insgesamt einer betriebskritischen Funktion zuordnen, die für die Organisation von entscheidender Bedeutung ist.
Mit zunehmender Weiterentwicklung der Serverarchitekturen wurde der Wartung und Verwaltung von Servern mehr Aufmerksamkeit geschenkt. Die Serververwaltung umfasst Vorgänge und Funktionen, die ausgeführt werden, um die optimale Leistung eines Servers aufrechtzuerhalten. Es wurden Strategien entwickelt, um die darauf ausgeführten Serverprogramme zu beobachten und ihre Probleme zu überwachen, diese Fehler und Verluste zu beheben, die Serversoftware zu aktualisieren, die Dienste einzurichten und die Zuweisung von Ressourcen zu planen, all dies wurden als Hauptziele der Serververwaltung betrachtet.
Die Erfindung der Remote-Verwaltung führte zur virtuellen Wartung von Serverfarmen.
Wenn die Anzahl der Serverfarmen zunimmt, wird erwartet, dass sie hohe Standards in Bezug auf Rechenleistung, Skalierbarkeit und Effizienz erfüllen. Hardware wird wahrscheinlich veraltet, wenn die Virtualisierung übernimmt. Cloud Computing hat Unternehmen bereits dazu veranlasst, ihre Systeme in virtuelle Umgebungen umzuwandeln. Mobile Computing hat auch den Zugriff auf Daten, Software und andere Rechenressourcen mit einer leichten und leicht zugänglichen Computerumgebung erleichtert. In den nächsten zehn Jahren werden fortschrittliche Technologien wie virtuelle Desktops, digitale Bibliotheken, globale Internetproviderdienste und Open-Source-Migration das Spiel der Serverfarmen vollständig verändern.
Während sich die Welt auf dem Weg zur Cloud-Technologie entwickelt, werden die Serverfarmen immer größer, da die Nachfrage nach erhöhter Rechenleistung steigt.
Cloud-Bauer wie Microsoft, Apple, Equinix, Google und Facebook investieren riesige Geldsummen in den Bau dieser Farmen, um Überlegenheit übereinander herzustellen und den Bedarf der Stunde zu decken. Abgesehen davon beweisen viele andere Gründe die Machbarkeit solcher Serverfarmen. Erstens wird die Wirtschaft digital (Xu et al., 2018). Jeder Wirtschaftszweig ist jetzt online präsent, und es wird erwartet, dass dies zunimmt, was die Speicherung größerer Datenmengen erfordern wird. Zweitens hat Cloud Computing eine allgemeine Akzeptanz für die Mehrheit der Unternehmen gefunden, und es wird erwartet, dass sich die Arbeitslast von internen Servern und Cloud-Dienstanbietern verlagert.
Die statistischen Daten zeigen, dass es insgesamt 504 Hyperscale Farmen gibt, und es gibt 40% davon in den Vereinigten Staaten von Amerika. Die größte Entwicklung und das größte Wachstum hat jedoch in Europa, Großbritannien, Japan, China, Asien-Pazifik und Australien stattgefunden. Auf Australien entfallen 32 % der Gesamtsumme (Tang et al., 2016).
Die technologischen Giganten, die diese humongous Einrichtungen besitzen, folgen einer gängigen Praxis. Sie vermieten mehr als 70 % dieser Kapazitäten an Betreiber kommerzieller Rechenzentren. Die Einrichtungen des Rechenzentrums werden voraussichtlich in naher Zukunft zunehmen.
Diese Super-Skalen und hyperscale Rechenzentren sind ein Weg nach vorn für die Menschheit. Aber sie haben eine grundlegende Kehrseite. Diese Rechenzentren haben einen riesigen CO2-Fußabdruck, um den man sich kümmern muss, bevor es zu spät ist. Der CO2-Fußabdruck dieser technologischen Giganten ist ein Zeichen der Sorge.
Der Weg zur Lösung dieses Problems besteht darin, die Operationen so effizient wie möglich zu gestalten. Zu diesem Zweck setzen die Datenunternehmen ewer, effiziente Kühlsysteme ein, führen Automatisierung, wo immer möglich, usw. ein. Diese Praktiken haben in den letzten zehn Jahren in Form eines relativ konstanten Stromverbrauchs Früchte getragen. Auf der anderen Seite, da mehr Unternehmen ihre Datenverarbeitungskapazitäten an diese Unternehmen auslagern, nimmt ihr Stromverbrauch sicherlich ab. Es wird jedoch einen optimalen Punkt geben, nach dem alle weiteren Unternehmen, die sich entscheiden, ihre Geschäftstätigkeit an diese Unternehmen auszulagern, zusätzliche Energie benötigen, was mehr Kohlenstoff bedeutet.