Rechenzentren: Think big - von Thomas Pavel, Director Sales EMEA, LSI.

Mega Datacenter ebnen den Weg zu neuen IT-Infrastrukturen in Unternehmen. 

Nur wenige Menschen dürfen sie betreten, aber jeder Internetnutzer greift täglich auf sie zu: Mega-Rechenzentren. Betreiber wie Facebook, Google oder United Internet bieten über sie unzählige internet-basierte Dienste an. Amazon und viele Wettbewerber ermöglichen Unternehmen über diese riesigen Rechenzentren, die Vorteile von Cloud Computing zu nutzen. Mega Datacenter (MDC) machen inzwischen 25 Prozent des weltweiten Servermarkts aus.

So sind sie die treibende Kraft für IT-Innovationen geworden und entwickeln sich rapide weiter, um mit den Anforderungen der explosionsartigen Datenzunahme Schritt zu halten. Unternehmen orientieren sich daher an MDC und wollen MDC-Architekturen für ihre eigenen privaten Clouds, Computing-Cluster und Analyseanwendungen für Big Data nachahmen. Denn MDC setzen die Maßstäbe hinsichtlich Leistung, Kosteneffizienz, skalierbaren Implementierungen und Umsatzgenerierung aus Daten.

Anatomie eines MDC

Ein Teil des Geheimnisses ist, dass die Anatomie eines MDC weniger komplex ist, als man annehmen könnte. Große Betreiber verwenden nur eine Handvoll unterschiedlicher Plattformen, die für unterschiedliche Aufgaben optimiert sind, wie Speicherung, Datenbanken, Analysen/ Suche/Graphenanalysen oder Webserver. Die Größe der Rechenzentren ist kaum noch vorstellbar – MDC umfassen im Allgemeinen 200.000 bis 1.000.000 Server und 1,5 bis 10 Millionen Laufwerke.

MDC-Server werden in großen Clustern von 20 bis 2.000 Serverknoten verwaltet. Abhängig von seiner speziellen Aufgabe enthält ein Server zum Beispiel nur Bootspeicher, nur direkt zugeordnete Laufwerke oder nur durch RAID replizierten Speicher für Datenbank- und Transaktionsdaten. Anwendungen führen die Rechenzentren auf dem Cluster aus. Das heißt auch: Ein fehlerhafter Knoten kann die Leistung des gesamten Clusters beeinträchtigen. Wenn ein Server Probleme bereitet, ist es oft der effektivste Weg, ihn vorläufig ganz abzuschalten, damit die übrigen 99 Prozent bei voller Geschwindigkeit arbeiten können.

MDC-Betriebssysteme und -Infrastrukturen sind Open-Source-Lösungen – und die meisten Weiterentwicklungen an MDC werden wieder der Community zur Verfügung gestellt. Die Betreiber stellen ihre Hardware oft selbst zusammen oder spezifizieren sie zumindest selbst. Da es sich bei MDC-Netzwerken im Allgemeinen um statische Konfigurationen handelt, bei denen die Minimierung der Transaktionslatenz im Vordergrund steht, verwenden MDC-Architekten SDN-Infrastrukturen (Software Defined Network), um die Leistung zu verbessern und die Kosten zu senken. Da MDC so riesig sind, benötigen sie eine „Lights-Out-Infrastruktur“.

Das heißt, die Administratoren haben nur vergleichsweise einfache manuelle Wartungsaufgaben. Ansonsten hält die Infrastruktur mithilfe von automatisierten Skripts selbst ihren Betrieb aufrecht. Betreiber von MDC minimieren ihre Infrastrukturkosten so weit wie nur möglich. Dies führt dazu, dass MDC-Architekten alles eliminieren, was nicht für die zentralen Anwendungen benötigt wird, selbst wenn es kostenlos bereitgestellt wird. Ein Rechenbeispiel: Wenn 200.000 Server je eine überflüssige LED aufweisen, sind dies 10.000 US-Dollar unnötige Kosten für die LEDs und 26.000 Watt Energieverbrauch im Jahr. Das entspricht 26 Föhns oder Wasserkochern, die rund um die Uhr laufen.

Homogenität ist alles

Was können Unternehmen von aktuellen Mega-Rechenzentren lernen? Das Erste ist die Verwendung homogener Infrastrukturen, die leicht zu warten und zu verwalten sind. Investitionen müssen vor allem in Optimierungen und Effizienz fließen. Übergeordnetes Ziel muss es sein, die Kosten für Infrastruktur und ihre Verwaltung und Wartung sowie für Strom und Kühlung zu verringern und möglichst stark automatisierte und skalierbare interne Verwaltung zu erreichen.

Eines der wichtigsten Infrastruktur-Subsysteme ist der Speicher. Storage wirkt sich direkt auf die Anwendungsleistung und Serverauslastung aus. MDC setzen Maßstäbe dabei, Speicher zu optimieren, eine Flut von Daten zu verwalten, einen hochverfügbaren Betrieb sicherzustellen und gesetzliche Anforderungen an die Aufbewahrung von Daten und den Standort der Datenspeicherung zu erfüllen. MDC nutzen ausschließlich Direct-Attached Storage (DAS), keine SANs (Storage Area Networks) oder NAS (Network Attached Storage). Der Grund: DAS ist einfacher sowie günstiger in der Anschaffung und Wartung, bedeutet weniger Latenz für den Prozessor und bietet höhere Leistung. Es wird immer wieder betont, dass viele Mega-Rechenzentren ganz normale, handelsübliche SATA-Festplatten und SSDs (Solid-State-Drives) für DAS verwenden. Darüber hinaus stellen sie aber fast immer eine SAS-Infrastruktur (Serial-Attached SCSI) bereit, die auch SATA-Geräte unterstützt, um die Gesamtleistung des Speichersystems zu verbessern und die Verwaltung zu vereinfachen.

Bei der Bewertung von Speicherlösungen haben sich Unternehmen lange auf IOPs und MByte/s als wichtigste Messdaten konzentriert. MDC-Architekten haben aber erkannt, dass Anwendungen, die IOPs auf SSDs forcieren, schnell an unüberwindliche Grenzen stoßen – die Spitzenwerte liegen häufig unter 200.000 IOPs – und dass die Leistung in MByte/s nur geringen Einfluss auf die tatsächlichen Antwortzeiten hat. Was wirklich mit Anwendungsleistung, erreichten Ergebnissen und Serverauslastung korreliert ist, ist die I/O-Latenz. Genauer gesagt:

Die Latenzzeiten beim Schreiben haben massive Auswirkung auf die Datenbankleistung.

MDC erreichen hohe Leistungssteigerungen zu kontrollierten Kosten, indem sie mehr SSDs, SSD-Caching oder beides implementieren. Die Lese-/Schreib-Latenz für rotierende Festplatten liegt im Allgemeinen um die 10 Millisekunden. Die durchschnittliche Lese-Latenz für SSDs hingegen liegt bei etwa 200 Mikrosekunden und die Schreib-Latenz bei etwa 100 Mikrosekunden – also nur bei einem Bruchteil der Zeit. Liegt der Flash-Speicher auf PCIe-Karten, reduziert dies die Latenz sogar noch weiter – auf einige Dutzend Mikrosekunden. SSDs können Festplatten ergänzen, um die Anwendungsleistung und die Anzahl unterstützter Benutzer zu verbessern. Im Ergebnis bringen Server und Anwendungen die vier- bis zehnfache Leistung als in klassischen Architekturen, wie sie bis heute in den meisten Unternehmen zu finden sind.

SSD cacht „Hot Data“ am PCIe-Bus

SSD-Caching erreicht die geringste Latenz bei direktem Anschluss an den PCIe-Bus eines Servers. Intelligente Caching-Software stellt fest, auf welche Daten Anwender oder Systeme am häufigsten zugreifen oder welche in einem bestimmten Zeitraum am wichtigsten sind („Hot Data“). Geeignete Systeme, beispielsweise von LSI, platzieren diese Daten in Flash-Speicher mit geringer Latenz, auf den die Anwendungen direkt zugreifen.

Einige Beschleunigungskarten mit Flash-Caching unterstützen mehrere Terabytes SSD-Speicher, sodass sie gesamte Datenbanken oder Working-Sets als „Hot Data“ zwischenspeichern können. Auf diese Daten können die Anwendungen bei jeglichem Workload schnell zugreifen. Weil der Weg der Daten nicht über das viel langsamere Netzwerk führt, ist der Datenverkehr auch nicht von Engpässen oder Verzögerungen bedroht.

In Unternehmen geht es bei Entscheidungen zur Verwendung von SSDs hauptsächlich um die Speicherebene und die Kosten pro GByte oder pro I/O-Vorgang. SSDs sind außerdem zuverlässiger, weniger störend, leichter zu verwalten, schneller zu replizieren und neu zu erstellen sowie energiesparender als Festplatten. Die überlegene Leistung von SSDs ermöglicht umfangreichere Ergebnisse mit weniger Servern, Softwarelizenzen und Serviceverträgen, sodass die Gesamtbetriebskosten gesenkt werden.

Pionierarbeit für das Rechenzentrum der Zukunft

MDC leisten Pionierarbeit. Sie entwickeln Anwendungslösungen, die weit höher skaliert werden können als jedes käufliche Produkt. Beispiele sind Hadoop-Analysen und davon abgeleitete Anwendungen sowie Clustersysteme für Abfragen und Datenbanken wie Cassandra und Google Dremel. Diese Anwendungen inspirieren mittlerweile auch kommerzielle Lösungen.

Erste Initiativen versprechen, Architekturen, Kostenvorteile und effiziente Verwaltung von MDC auf den Markt für Unternehmen zu bringen. Zwei Beispiele: Open Compute verspricht eine minimalistische, günstige, leicht skalierbare Hardware-Infrastruktur für Rechenzentren mit Computing-Clustern. Ähnlich verspricht OpenStack-Software die automatisierte, clusterbasierte Verwaltung von MDC auch Rechenzentren in Unternehmen zugänglich zu machen. Dabei verwalten Rechenzentrumsbetreiber Pools von Computing-, Speicher- und Netzwerkressourcen automatisch – der Heilige Gral des Software Defined Datacenter. Einige Rechenzentrums-Architekten vermuten, dass diese Lösungen die Gesamtbetriebskosten um bis zu 70 Prozent senken können.

Außerdem gibt es zurzeit eine MDC-Bewegung, die sich bemüht, Server auf Rack-Ebene zu zerteilen. Die Initiatoren wollen Prozessor, Arbeitsspeicher, Speicher, Netzwerk und Stromversorgung voneinander trennen und ihre Lebenszyklen separat voneinander verwalten – auch dies, um mit weniger Budget mehr Leistung zu erzielen. Indem sich IT-Architekten in Unternehmen auf die Optimierungen auf Rack- oder Rechenzentrumsebene konzentrieren statt auf die herkömmlich betrachteten Kosten einzelner Komponenten, erhalten sie leistungsstärkere Systeme mit geringeren Anschaffungs- und Verwaltungskosten.

 

TMF Group, a leading provider of critical administrative services for global businesses, turned to...
Strengthening its cloud credentials as part of its mission to champion the broader UK tech sector...
Nearly all UK IT managers surveyed (98%) state cloud investment is an organisational priority for...
LetsGetChecked is a global healthcare solutions company that provides the tools to manage health...
Node4 to the rescue.
Commvault provides cloud-first organisations with greater choice and flexibility to protect and...
On the morning of September 20, Executive Director of the Board of Huawei and CEO of Huawei Cloud...
Global IT Business-to-Business (B2B) revenues, coming from data centers, IT services and devices,...