Hybrid ist in: Mit einem Speicher-Mix aus SSD und HDD Punkten

In Unternehmen häufen sich immer größere Datenberge an, doch nicht alle Informationen müssen hochperformant verfügbar sein. Daher bietet sich eine Kombination aus kostengünstigem langsamen mit teurem aber dafür schnellem Speicher an. Intelligente Storage-Lösungen sorgen für das automatische Tiering zwischen den Laufwerken und so für bessere Zugriffszeiten. Von Warren Reid, Director Marketing EMEA bei Dot Hill.

  • 11 years ago Posted in

Kosten, Geschwindigkeit und Zuverlässigkeit. Das sind die wichtigsten Entscheidungsfaktoren für IT-Verantwortliche, wenn sie ein neues Datenspeichersystem aufsetzen wollen. Genauer betrachtet nimmt die Geschwindigkeit wohl die oberste Priorität ein. Immerhin wünscht sich jeder Anwender, möglichst in Echtzeit auf Daten zugreifen zu können.


Genau das versprechen Solid State Disks (SSDs). So wird eine Datendurchsatzrate von einer Million IOPS (Input/output per second) sicherlich bald zum SSD-Standard. Besonders wünschenswert ist der extrem schnelle Speicher bei geschäftskritischen Anwendungen – Datenzugriff ohne merkliche Latenz kommt beim Anwender immer gut an.

Doch auch aus Unternehmenssicht winken hier deutliche Vorteile. Im Finanzsektor etwa können schon Verzögerungen von wenigen Sekunden einen Verlust in Millionenhöhe bedeuten. Ein klares Argument für die Flash-Technologie. Denn hoch performanter Speicher birgt viele Vorteile, angefangen bei den schnellen Antwortzeiten der Anwendungen bis hin zur Unternehmensflexibilität.

 

Doch Geschwindigkeit ist leider nicht billig. Gartner schätzt in seinem Paper „Solid-State Drives Will Complement, Not Replace, Hard-Disk Drives in Data Centers”, dass selbst in zehn Jahren der Preis pro Gigabyte für unternehmensfähige SSDs immer noch das Fünfundzwanzigfache von Hard Disk Drives (HDD) betragen wird. Nicht jedes Unternehmen verfügt über das IT-Budget, um sich derlei Ausgaben leisten zu können. Erst recht, wenn der sofortige Zugriff auf sämtliche Daten nicht unbedingt notwendig erscheint.

 

Die traditionelle Festplattentechnologie bietet von daher eine willkommene Alternative. Sie ist kostengünstiger und verfügt über relativ hohe Kapazität, das jedoch deutlich zu Lasten der Performance. Letzter Aspekt erscheint jedoch nur bedingt problematisch, weil oft große Teile der Daten gar nicht schnell verfügbar sein müssen. Hierzu zählen etwa alte E-Mails oder Sicherungskopien, die internen oder externen Compliance-Zwecken dienen. Für diesen Zweck reicht HDD also völlig aus.    

 

Der goldene Mittelweg

Unternehmen haben deshalb damit begonnen, beide Richtungen zu vereinen, was jedoch eines sorgfältig konzipierten Balanceaktes bedarf. Dies führt zu einer immer stärkeren Verbreitung des Hybrid-Speichers, den auch viele Analysten empfehlen. Dieser ist abzugrenzen von rein Flash-basierten Lösungen, die als externe Netzwerk-Arrays oder intern innerhalb eines Application Servers betrieben werden können. Durch die Kombination von Flash- und traditionellem Festplattenspeichers können Daten priorisiert und je nach Erfordernis im schnellen oder langsameren Speicher abgelegt werden. Wobei diese Einstufung auch nicht in Stein gemeißelt sein muss. Der Ablageort lässt sich jederzeit abändern, etwa wenn ein bestimmtes Set an Daten – etwa aus dem Bereich Finanzen – regelmäßig zum Monats-, Quartals- oder Jahresende benötigt wird. 

 

Die Vorteile hybrider Speicher liegen zwar auf der Hand, doch gerade kleinere und stark ausgelastete Teams haben stellenweise Probleme, diesen Ansatz zu verfolgen. Hier fehlt die Zeit, sich mit der Frage auseinanderzusetzen, welche Daten unmittelbar abrufbar sein müssen und welche nicht. Mit Blick auf virtualisierte Informationen fällt es ihnen auch schwer vorauszusagen, wann welche Daten am häufigsten angefragt werden. Als passende Antwort auf diese Herausforderung gewann Auto Tiering schnell an Relevanz. Denn diese Technologie analysiert den Workload und verlagert die Daten je nach Gebrauchshäufigkeit auf die effektivsten Speichermedien. Sie arbeitet selbstständig, sagt Zugriffsmuster voraus, ebenso wie die kurz- und auch langfristig benötigte Speicherkapazität. Eigentlich ideal, doch die Realität sieht oft anders aus. Viele herkömmliche Systeme am Markt migrieren derzeit die Daten zwischen den Tiers in Batch-Prozessen zu festgelegten Zeiten. Von Echtzeit kann hier also keine Rede sein. Dieses Problem soll neue Technologien für intelligentes Tiering beheben. Hierbei handelt es sich um hybride Systeme, die HDD und SSD miteinander kombinieren und so massive Investitionen in SSD-Technologien obsolet machen. Denn die Praxis zeigt, dass in der Regel fünf bis zehn Prozent des kompletten Speichers als SSD genügen, um wichtige Daten schneller im Normalbetrieb zur Verfügung zu stellen.

 

Weil diese Systeme darauf ausgelegt sind, verschiedene Anforderungen hinsichtlich Zugriff und Workload abzubilden, arbeiten sie auch wesentlich intuitiver. Sie bestehen aus mindestens zwei oder mehreren Tiers, beispielsweise SSD in Kombination mit sowohl Enterprise- als auch Nearline-SAS-Laufwerken. Dank intelligenter Algorithmen verschieben sie nur jene Daten auf die schnelle SSD-Ebene, bei denen sicher ist, dass HDD den Anforderungen nicht gerecht werden kann. Auch im Nachgang wird dieses Datenset weiter überwacht und sinkt der Bedarf, wieder auf eine kostengünstigere tiefere Ebene zurückgepackt. Auf diese Weise eingesetzt wird SSD zum Schlüsselfaktor für Anwendungsbeschleunigung.  In solche Umgebungen werden zudem Storage-Features wie etwa Thin Provisioning oder auch Snapshots integriert, die speziell auf die hybride Architektur abgestimmt sind, damit die Performance nicht leidet. Auto-Tiering-Systeme sollten natürlich auch einfach zu installieren sein und unkompliziert betrieben werden können.

 

Allein schon aus dem Grund, weil Unternehmen nur selten über  entsprechende Spezialisten verfügen. Zudem wollen sie sich nicht mit der Frage auseinandersetzen müssen, welche Daten welchem Speicher zugeordnet werden sollten. Mit Auto-Tiering haben sie stattdessen die Möglichkeit, sich voll und ganz auf das Geschäft zu konzentrieren. Währenddessen sorgt das Speichersystem dafür, dass eventuelle Peaks beim Datendurchsatz abgefedert und so interne wie externe Service Level Agreements (SLAs) eingehalten werden.

 

Flash als alleinige Lösung

Natürlich gibt es auch alternative Wege, Flash-Speicher zu implementieren, immer verbunden mit unterschiedlichen Vor- und Nachteilen. Setzen Unternehmen auf externe Flash-Speicher-Arrays, müssen die Anwender vorab konkret bestimmen, wie viel sie von dieser teuren Speichervariante wirklich benötigen. Und selbst dann ist es immer noch ihre Aufgabe zu priorisieren, welche Art der Daten wo abgelegt wird und wann es zu Ausnahmen sowie Änderungen kommen soll. Ein weiterer möglicher Ansatz: Der Flash-Speicher wird intern in den aktuellen Server verschoben, anstatt ihn im Storage Area Network anzusiedeln. In diesem Szenario bildet Flash einen Cache, wobei dies in der Regel die Beschleunigung jeglicher I/O-Transaktion bedeutet, egal welche Priorität die Daten haben. Manche Anbieter versprechen hier Abhilfe: Ihre Tools für virtualisierte Umgebungen erlauben es, rückblickend zu analysieren, welche virtuelle Maschine (VM) den größten Workload verzeichnete.

 

So kann individuell eingeteilt werden, welche VM eventuell Vorrang bei der Flash-Nutzung erhalten soll. Ähnlich den Batch-Prozessen vieler Auto-Tiering-Lösungen basiert dieser Ansatz auf der Vermutung, dass die VM-Auslastung täglich gleich ist. Insofern eignet er sich lediglich zur Steigerung der Anwendungs-Performance bei vorhersehbaren Workloads. Hinzu kommt, dass durch die Verlagerung des Speichers in den Server ein „Single Point of Failure“ geschaffen wird, der letztlich das ganze System gefährden kann. Was dagegen hilft ist die Umgebung zu clustern, um zwischen den Server-Knoten Cache-Kohärenz sicherzustellen.

 

Tagtäglich wird eine Unmenge von Daten produziert. Diese riesige Menge wächst unaufhörlich an und die Vorhersagen für die kommenden Jahre sehen in dieser Entwicklung kaum eine Veränderung. Somit steigt auch die Herausforderung, diese Informationen verfügbar zu halten. Für viele Unternehmen erscheint daher der einfache und ausfallsichere Ansatz einer automatisierten Hybrid-Lösung als effektivster Weg zur Flash-Implementierung. Sie versprechen die größte Flexibilität, um den Ansprüchen der Anwender hinsichtlich des Speicherns, Abrufens und Teilens von Daten Herr zu werden. So schaffen sie es am Ende auch, die Schlüsselfaktoren Kosten, Geschwindigkeit und Zuverlässigkeit kompromisslos zu vereinen.

 

 

 

 

 

Exos X20 and IronWolf Pro 20TB CMR-based HDDs help organizations maximize the value of data.
Quest Software has signed a definitive agreement with Clearlake Capital Group, L.P. (together with...
Infinidat has achieved significant milestones in an aggressive expansion of its channel...
Collaboration will safeguard HPC storage systems and customer data with Panasas hardware-based...
Peraton, a leading mission capability integrator and transformative enterprise IT provider, has...
Helping customers plan for software failure, data loss and downtime.
Cloud Computing and Disaster Recovery specialist, virtualDCS has been named as the first UK-based...
SharePlex 10.1.2 enables customers to move data in near real-time to MySQL and PostgreSQL.