Rechenzentren verwandeln sich zusehends von einer traditionellen verteilten Infrastruktur in eine konsolidierte, Service-orientierte Struktur. Das Geschäftsszenario ist verlockend, da eine Konsolidierung ihrer Rechenzentren es Organisationen ermöglicht, fortschrittlichere Protokolle und Verwaltungsstrategien zur Optimierung der Bandbreitenauslastung und der Leistung von Netzwerk und Applikationen zu implementieren. Es bietet ebenso die Möglichkeit, Applikationen zu virtualisieren, wodurch weitere Vorteile entstehen.
Konsolidierungsplanung zur optimalen Nutzung der Vorteile
Zum Umsetzen der Vorteile müssen sich Organisationen bei der Verwaltung der konsolidierten Architektur genau an entsprechende Leistungsmesswerte halten.
Die Kosten bei falscher Durchführung
• Durchschnittliche Kosten durch Ausfallzeiten eines Rechenzentrums pro Minute: 5.600 $ ((4.100 €)
• Durchschnittlich gemeldete Ausfallzeit: 90 Minuten
• Durchschnittliche Kosten des Ausfalls: 505.000 $ (370.000 €)
Forrester Consulting 20111
Um alle Vorteile einer Konsolidierung zu erreichen und zur Vermeidung von teurer Ausfallzeit müssen die Organisationen einem klaren Prozess folgen:
• Erlangen eines tiefen Verständnisses von ihrem bestehenden Netzwerk, Ihren Applikationen, Services und Ihrer Leistung gemessen an Richtwerten
• Festlegen der Messwerte für die gewünschte Leistung des konsolidierten Rechenzentrums
• Planen des Übergangs
• Durchführen des Übergangs mit minimaler Ausfallzeit
• Überwachen und Verwalten der aktualisierten Architektur, um sicherzustellen, dass sie die notwendigen Messwerte erreicht
Eindeutige Benchmark-Tests sind dabei entscheidend. Ohne Messwerte für die Leistung vor und nach der Konsolidierung können Organisationen den ROI nicht messen. Diese müssen die Auswirkungen auf alle Projektbeteiligten auswerten – Leiter von Geschäftsbereichen, IT und Arbeitspersonal, Firmenverwaltung und Endbenutzer.
Organisationen müssen sich auf drei Bereiche konzentrieren: Berichterstattung, Leistungsverwaltung und Personal. Im weiteren Verlauf dieses Artikels werden die ersten beiden – Berichterstattung und Leistungsverwaltung – ausführlicher behandelt.
Berichterstattung
Bei der Konsolidierung von Rechenzentren werden Ressourcen, die vorher über das gesamte Unternehmen verteilt waren, in einen gemeinsamen Pool aufgenommen. Als Ergebnis müssen Geschäftsbereiche, die vorher die eigenen Netzwerke, Applikationen und Services verwaltet und betrieben haben, jetzt die Kontrolle an ein zentrales Team abgeben.
Die Geschäftsbereiche werden damit zu internen Kunden des konsolidierten Rechenzentrums. Für die Fortsetzung des Supports muss ihnen zugesichert werden, dass die kritischen Applikationen gleiche oder bessere Leistung erbringen als zu Zeiten der eigenen Kontrolle durch den Geschäftsbereich. Die Folge ist der Abschluss von internen Service Level Agreements zwischen dem Rechenzentrum und den Geschäftsbereichen. Messwerte wie Applikationsverfügbarkeit und Endbenutzer-Reaktionszeit für Transaktionen zwischen Desktop und Rechenzentrum sollten zum Erbringen des notwendigen Nachweises regelmäßig zusammengefasst, verfolgt und berichtet werden, um die Leiter der Geschäftsbereiche zufriedenzustellen.
Leistungsverwaltung
Obwohl die Konsolidierung von Rechenzentren und die oft damit verbundene Virtualisierung der Applikationen die Unternehmensstruktur modernisiert, sorgen sie für eine komplexere Verwaltung. Sowie mehr Services virtualisiert werden, wird es zunehmend schwieriger, auf einen Blick die Verwendung der Applikation vom Rechenzentrum zum Desktop zu sehen, da ein einzelner physischer Server mehrere Rechner betreiben kann. Da alle Datenbankserver, Applikationsserver, E-Mail-Server, Druckserver und Dateiserver dieselbe Hardware teilen, wird das Nachverfolgen der Leistung von Netzwerk, Applikation und Service erheblich schwieriger.
Die Wahl der richtigen Verwaltungstools ist eine weitere Herausforderung. Die meisten älteren Leistungsverwaltungstools zeigen die beste Leistung in einem Silo, da sie sich auf eine spezifische Applikation, einen bestimmten Service oder geographischen bzw. logischen Teil des Netzwerks fokussieren. Dies ist vielleicht in einer verteilten Architektur geeignet, obwohl Probleme zwischen einem NMS ohne umfassende Informationen und komplexe Tools zur Datenpaketerfassung auftreten können. Dadurch werden aber Probleme in einem konsolidierten Rechenzentrum verursacht, bei dem die Zahl der Silos durch das Hinzufügen von Leistungsverwaltungstools für die Applikationsvirtualisierung, die noch nicht mit älteren Leistungsverwaltungstools integriert wurden, wächst.
In dieser Situation müssen sich Netzwerkingenieure auf eine Palette verschiedener Tools verlassen, jedes mit eigenen Fähigkeiten und eigener Benutzeroberfläche. Sie müssen ihre Erfahrung anwenden, um manuell Informationen in Bezug zu bringen, Probleme zu identifizieren, zu isolieren und zu lösen.
Im günstigsten Fall wird die Leistungsverwaltung ähnlich wie in einer dezentralisierten Umgebung ausgeführt und dabei aus den zusammengestellten Informationen und dem Personal Nutzen gezogen. Im schlimmsten Fall ist das Resultat eine gegenseitige Schuldzuweisung zwischen den Geschäftsbereichen und den IT-Teams und reduziert die Effektivität der Behebung einer Anomalie, was Probleme sowohl für Endbenutzer als auch für die Verwaltung schafft.
Um diese Probleme anzugehen, müssen Organisationen einen besseren Weg zur Verwaltung von Leistung und Berichterstattung finden.
Konsolidierung der Leistungsverwaltung
Unternehmen benötigen eine End-to-End-Lösung mit der entsprechenden Skalierbarkeit, Breite und Tiefe, um die Informationen erhalten, integrieren, darstellen und sicherstellen zu können, die eine tatsächliche Wiedergabe der Leistung der Netzwerke, Applikationen und Services des Geschäftsbereichs, der IT und am wichtigsten aus der Sicht des Endbenutzers ermöglichen.
Eine Lösung zur konsolidierten Leistungsverwaltung liefert an alle Beteiligten Informationen über alle Aspekte des Netzwerks. Dies unterstützt eine effiziente Problemlösung ohne Schuldzuweisung und liefert die Daten zur Berechnung der Berichterstattung und Messwerte für die Verwaltung, wie z. B. SLA-Leistung, Verwendung und Verrechnung.
Die Messung der Leistung aus Benutzerperspektive wird durch die zusätzliche abstrakte Schicht erschwert, die eine Applikationvirtualisierung mit sich bringt. In der Regel sind weniger physische Nachweise verfügbar als in traditionellen Umgebungen, in denen Server und Applikationen eng miteinander verknüpft sind.
Sie erfordert die Übernahme neuer Methoden zur Überwachung und Konfiguration durch den Netzwerkingenieur, da weniger Support für physische Switches und Router notwendig ist.
Transparenz und Sicherheit innerhalb der virtuellen Umgebung sind von enormer Wichtigkeit. Vor, während und nach der Migration ist die Nutzung von SNMP, Net Flow und virtuellen Taps zum Überwachen des Zustands, der Anbindung, und der Verwendung dieser jetzt virtuellen Systeme entscheidend.
Lösungen von Fluke Networks, die vom Endbenutzer zum Rechenzentrum messen, ermöglichen dem Netzwerkingenieur das Verständnis darüber, was im Netzwerk aus der Perspektive eines Endbenutzers vorgeht. Dadurch werden Probleme schneller identifiziert und aufgelöst.
Sie können Transparenz hinsichtlich der vordergründigen Leistung in Form einer Zusammenfassung pro Standort mit Vergleichen pro Benutzer schaffen sowie Einblick in die Interaktionen des Benutzers innerhalb einer Sitzung und pro veröffentlichte Messwerte zur Applikationsleistung bieten. Dies spart Zeit bei der Fehlersuche und hilft dem Netzwerkingenieur, bei der Verwaltung der Leistung einer solchen Applikationsbereitstellung proaktiv zu werden.