This article is also available in: Arabic German French
Serverfarm
Eine Serverfarm ist ein Netzwerk aus mehreren Computern, die in einen Cluster integriert sind und Funktionen bietet, die ein einzelner Computer nicht bereitstellen kann, und sie sind extrem teuer zu erstellen und zu betreiben. Eine Anwendung für Serverfarmen ist das Hosten von Webfarmen, die als WebFarm bezeichnet wird. Aufgrund der hohen Kosten, die mit dem Konstruktionsparameter verbunden sind, ist ihre Leistung nicht optimal. (Mitrani, (Januar 2013))
Das Erstellen von Hyper-Scale-Serverfarmen kann eine mühsame und zeitaufwändige Aufgabe sein. Es wird weit über zwei Jahre dauern, bis 100 Serverfarmen funktionsfähig sein können.
Übergroße Serverfarmen
Während sich die Welt in Richtung Cloud-Technologie entwickelt, werden die Serverfarmen immer größer, da auch die Nachfrage nach erhöhter Rechenleistung gestiegen ist. Die Kapazität des Rechenzentrums nimmt zu, und die globale Servertopographie verändert sie.
Cloud-Bauer wie Microsoft, Apple, Equinix, Google und Facebook investieren viel Geld in den Bau dieser Farmen, um Überlegenheit übereinander herzustellen. Abgesehen davon können viele andere Gründe die Machbarkeit solcher Serverfarmen belegen. Da die Wirtschaft digital wird, verfügt jeder Sektor über eine Online-Präsenz, die den Bedarf an großen Datenspeicherfähigkeiten erhöht hat. Zweitens besteht nun ein Konsens zwischen den Unternehmen, dass die Arbeitsbelastung voraussichtlich von internen Servern auf Cloud-Dienstanbieter verlagert wird.
Die Einrichtung großer Rechenzentren ermöglicht es, die relativen Kosten der Infrastruktur zu senken, und wenn man bedenkt, dass der Wichtigste Parameter für diese Farmen die Kosten pro Megawatt ist, ist die Leistung eine Hauptursache für angefallene Kosten. Übergroße Serverfarmen ermöglichen außerdem eine größere Zentralisierung und erhöhen die Rentabilität.
Hyper-Scale-Serverfarmen
Hyperscale ist ein Verweis auf die Fähigkeit der Computerarchitektur, Antworten auf die steigende Nachfrage zu erzeugen. Computer basieren auf einer Reihe von Knoten, die Ressourcen enthalten. Die Skalierung der Computerarchitektur bedeutet die Verbesserung von Leistung, Fähigkeiten, Infrastruktur und/oder Speicher. Die Skalierung kann ein starkes System erstellen, das die Anforderungen erfüllt. Der Begriff Hyper gibt an, dass die Skalierung in diesen Netzwerken massiv und schnell ist. Traditionell gab es einen Trend der Skalierung, was bedeutete, dass die Computerleistung und Effizienz verbessert wurden, um die Nachfrage zu erfüllen. Derzeit wird die von vielen Unternehmen angewandte Methode jedoch als Scale-out bezeichnet, was das Hinzufügen weiterer Computer zum integrierten Netzwerk erfordert, wodurch die Nettorechenfunktionen verbessert werden. Hyper-Scaling ist der Übergang in die Zukunft, wo Daten übertragen, erfasst und schneller verarbeitet werden als je zuvor. Diese Skalierung ist teuer und muss sehr effizient sein, weshalb der Hauptsteuerungsparameter in diesen Systemen derzeit die Grenzen der Automatisierung sind. (Kidd, 2018)
Die Konsequenz
Es gibt heute mehr als 500 Hyper-Scale-Farmen auf der Welt. Während die Definition einer Hyper-Scale-Farm mehrdeutig ist, hat Synergy seine Kriterien für die Klassifizierung der Größe des Unternehmens unter Berücksichtigung seiner Aktivitäten in Cloud-Technologie, E-Commerce, sozialen Netzwerken und Rechenkapazitäten. Die Anlagen werden in Tausenden oder zehntausend Computern gemessen.
Die statistischen Daten zeigen, dass es insgesamt 504 Hyper-Scale-Farmen gibt, und es gibt 40% davon in den Vereinigten Staaten von Amerika. Die größte Entwicklung und das größte Wachstum hat jedoch in Europa, Großbritannien, Japan, China, Asien-Pazifik und Australien stattgefunden. Auf Australien entfallen 32 % der Gesamtsumme.
Die technologischen Giganten, die diese humongous Einrichtungen besitzen, folgen einer gängigen Praxis. Sie vermieten mehr als 70% dieser Kapazitäten an Betreiber kommerzieller Rechenzentren. Die Einrichtungen in Rechenzentren werden voraussichtlich in zukunftt zunehmen. (Sverdlik, 2019)
Diese Super-Skalen und hyper-scale Rechenzentren sind ein Weg nach vorn für die Menschheit. Aber sie haben eine grundlegende Kehrseite. Diese Rechenzentren haben einen enormen CO2-Fußabdruck, um den man sich kümmern muss, bevor es zu spät ist.
Der Weg zur Lösung dieses Problems besteht darin, die Operationen so effizient wie möglich zu gestalten. Zu diesem Zweck setzen die Datenunternehmen ewer, effiziente Kühlsysteme ein, führen Automatisierung, wo immer möglich, usw. ein. Diese Praktiken haben in den letzten zehn Jahren in Form eines relativ konstanten Stromverbrauchs Früchte getragen. Im Aufwärtstrend: Da immer mehr Unternehmen ihre Datenverarbeitungskapazitäten auslagern, nimmt ihr Stromverbrauch sicherlich ab.
Es wird jedoch einen optimalen Punkt geben, nach dem alle weiteren Unternehmen, die sich entscheiden, ihre Geschäftstätigkeit an diese Unternehmen auszulagern, zusätzliche Energie benötigen, was mehr Kohlenstoff bedeutet. Es gab Versuche und Behauptungen über die Entkohlung der Energieproduktion für diese Rechenzentren, aber keines der drei großen Unternehmen hat fossile Brennstoffe vollständig aus dem Weg gelassen.