This article is also available in: Englisch Arabisch Französisch
Serverfarm
Ein Serverfarm ist ein Netzwerk aus mehreren Computern, sterben in einem Cluster integriert sind und Funktionen bietet, die ein einzelner Computer nicht bereitstellen kann, und sie sind extrem teuer zu erstellen und zu betreiben. Eine Anwendung für Serverfarmen ist das Hosten von Webfarmen, die als WebFarm wird. Aufgrund der hohen Kosten, die mit dem Konstruktionsparameter verbunden, ist ihre Leistung nicht optimal. (Mitrani, (Januar 2013))
Das Erstellen von Hyper-Scale-Serverfarmen kann ein mühsame und zeitarbeite Aufgabe sein. Es wird weit über zwei Jahre dauern, bis 100 Serverfarmen funktionsfähig sein kann.
Übergroße Serverfarmen
Während der Welt in Richtung Cloud-Technologie entwickelt, werden die Serverfarmen immer größer, da auch die Nachfrage nach erhöhter Rechenleistung. Die Kapazität des Rechenzentrums nimmt zu, und die globale Servertopographie verändert sie.
Cloud-Bauer wie Microsoft, Apple, Equinix, Google und Facebook investieren viel Geld in den Bau dieser Farmen, um Überlegenheit übereinander. Abgesehen davon kann viele andere Gründe die Machbarkeit solcher Serverfarmen belegen. Da die Wirtschaft digital wird, verfügt jeder Sektor über eine Online-Präsenz, die den Bedarf an großen Datenspeicherfähigkeiten erhöht hat. Zweitens besteht nun ein Konsens zwischen den Unternehmen, dass die Arbeit voraussichtlich von internen Servern auf Cloud-Dienstanbieter nwird.
Die Einrichtung großer Rechenzentren ermöglicht es, die relativen Kosten der Infrastruktur zu senken, und wenn man, das ist der wichtigste Parameter für diese Farmen die Kosten pro Megawatt ist, ist die Leistung eine Hauptgestellte für angefallene Kosten. Übergroße Serverfarmen ermöglichen außerdem eine größere Zentralisierung und erhöhen die Rentabilität.
Hyper-Scale-Serverfarmen
Hyperscale ist ein Verweis auf die Fähigkeit der Computerarchitektur, Antworten auf die steigende Nachfrage zu erzeugen. Computer-Gestützt auf eine Reihe von Knoten, die Ressourcen enthalten. Die Skalierung der Computerarchitektur bedeutet die Verbesserung von Leistung, Fähigkeiten, Infrastruktur und/oder Speicher. Die Skalierung kann ein starkes System erstellen, das die Anforderungen erfüllt. Der Begriff Hyper gibt an, dass die Skalierung in diesem Netzwerken massiv und schnell ist. Traditionell gab es ein Trend der Skalierung, war, dass die Computerleistung und Effizienz verbessert wurden, um die Nachfrage zu erfüllen. Derzeit wird die von vielen angewandten Unternehmen methode aber als Scale-out bezeichnet, was das Hinzufügen Computer zum integrierten Netzwerk erfordert, wodurch die Nettorechenfunktionen verbessert werden. Hyper-Scaling ist der Übergang in der Zukunft, wo Daten übertragen, erfasst und schneller verarbeitet werden als je zuvor. Diese Skalierung ist teuer und muss sehr effizient sein, weshalb der Hauptsteuerungsparameter in diesen Systemen derzeit die Grenzen der Automatisierung sind. (Kidd, 2018)
Die Konsequenz
Es gibt heute mehr als 500 Hyper-Scale-Farmen auf der Welt. Während der Definition einer Hyper-Scale-Farm mehrdeutig ist, hat Synergy seine Kriterien für die Klassifizierung der Größe des Unternehmens unter Berücksichtigung seiner Aktivitäten in Cloud-Technologie, E-Commerce, Soziale Netzwerke und Rechenkapazitäten. Die Anlagen werden in Tausendn oder 10tausend Computern gemessen.
Die statistischen Daten zeigen, dass es insgesamt 504 Hyper-Scale-Farmen gibt, und es gibt 40% davon in den Vereinigten Staaten von Amerika. Die größte Entwicklung und das größte Wachstum hat aber in Europa, Großbritannien, Japan, China, Asien-Pazifik und Australien. Auf Australien entfallen 32 % der Gesamtsumme.
Die technologischen Giganten, die diese humongous Einrichtungen besitzen, folgen eine gängige Praxis. Sie vermieten mehr als 70% dieses Kapazitäten an Betreiber kommerzieller Rechenzentren. Die Einrichtungen in Rechenzentren werden voraussichtlich in zukunftt zunehmen. (Sverdlik, 2019)
Diese Super-Skalen und hyper-skalaN-Zentren sind ein Weg nach vorn für die Menschheit. Aber sie haben eine grundlegende Kehrseite. Diese Rechenzentren haben einen enormen CO2-Fußabdruck, um den mann sich kümmern muss, bevor es zu spät ist.
Der Weg zur Lösung dieses Probleme gibt darin, die Operationen so effizient wie möglich zu gestalten. Zu diesem Zweck setzen die Datenunternehmen ewer, effiziente Kühlsysteme ein, führen Automatisierung, wo immer möglich, etc. ein. Diese Praktiken haben in den letzten zehn Jahren in Form eines relativ konstanten Stromverbrauchs S. getragen. Im Aufsteiger: Da immer mehr Unternehmen ihre Datenverarbeitungskapazitäten auslagern, nimmt ihr Stromverbrauch sicher ab.
Es wird aber ein optimalen Punkt geben, nach dem alle weiteren Unternehmen, die sich entscheiden Kohlenstoff, ihre Geschäftstätigkeit an diesem Unternehmen auslagern, zusätzliche Energie benötigen, wurde mehr bedeutet. Es gab Versuche und Behauptungen über die Entkohlung der Energieproduktion für diese Rechenzentren, aber keines der drei großen Unternehmen hat fossile Brennstoffe vollständig aus dem Weg gelassen.