pNFS, SSD und Big Data

Der Erfinder von RAID, Garth Gibson, und Steve Conway von IDC zu pNFS, SSD und Big Data. Der Gründer, wissenschaftliche Leiter und einer der Gründungsväter der RAID-Technologie, Dr. Garth Gibson, sowie Steve Conway, Vizepräsident Forschung in der High-Performance-Computing-Gruppe von IDC, haben kürzlich über die HPC-Trends und Kräfte diskutiert, die den HPC-Storage-Markt beeinflussen.

Während dieser Diskussion, in deren Mittelpunkt viele interessante Trends des High-Performance-Storage standen, galt die Aufmerksamkeit dieser beiden Schwergewichte der Branche insbesondere der Frage welche Rolle paralleles NFS (pNFS) und Solide-State-Disks (SSD) künftig bei HPC-Storage-Deployments einnehmen werden. Zudem wurde das Big-Data-Konzept angesprochen.

Garth Gibson hat an der University of California in Berkeley in Informatik promoviert und damals “A Case for Redundant Arrays of Inexpensive Disks (RAID)“ veröffentlicht, ein bahnbrechender Artikel, in dem das Konzept der Redundanz für den Schutz von Daten vorgestellt wurde. Dieser fundamentale Ansatz des Datenschutzes ist bis zum heutigen Tag der Branchenstandard. Im Jahr 1991 gründete er an der Carnegie Mellon University (CMU) das „Parallel Data Laboratory“, eines der führenden akademischen Forschungslabors des Landes, das sich mit Speichersystemen befasste. Seine visionäre Arbeit zum Thema Computer-Storage wurde mit unzähligen Branchenauszeichnungen belohnt, u. a. dem InfoWorld CTO 25-Award für seine Bemühungen um die Entwicklung und den Einsatz des Parallel NFS (pNFS)-Standards für das Daten-Filesharing.

Steve Conway spielt eine wichtige Rolle bei der Leitung und Implementierung der H PC-Forschung auf dem weltweiten Markt für technische Server und Supercomputer. Mit 25 Jahren Erfahrung in der HPC- und IT-Branche entwickelt Steve Conway wichtige IDC-Studien, Berichte und Whitepaper, er organisiert und fördert das HPC-User-Forum und bietet den Anwendern, Lieferanten und den vielen anderen Mitgliedern der HPC-Community Denkanstöße und praktische Leitfäden.

Der pNFS-Standard

NFS ist der echte offene Standard für Network Attached Storage (NAS) in allen IT-Umgebungen. Seit der Einführung in den 1980er Jahren ermöglicht NFS IT-Administratoren die zentralisierte Speicherung von Daten und den gemeinsamen Zugriff darauf. Aber NFS stammt aus einer anderen Ära, in der Mainframes und UNIX-Workstations vorherrschend waren. Seither haben sich die Rechnerumgebungen drastisch verändert. Heutzutage bestehen die meisten Infrastrukturen aus großen Serverfarmen, die unter Linux laufen und oft virtualisiert sind. Hunderte, manchmal Tausende,  Multi-Thread-, Multi-Core-Server, die auf die selben Daten gleichzeitig zugreifen müssen sind keine Seltenheit mehr. Und das Wachstum und der Wert der Daten nehmen nicht ab. Das ursprüngliche NFS-Protkoll wird in solchen Umgebungen schnell an seine Grenzen gebracht.

Im Rahmen des NFS v4.1-Standards gehört pNFS zu den wichtigsten Änderungen seit der Einführung von NFS. Durch den parallelen Zugriff auf mehrere Datenserver, wie  z.B. dem Panasas ActiveStor, bietet pNFS eine höhere Performance, höhere Skalierbarkeit und ein vereinfachtes Management gegenüber den alten NFS-Dateiservern, wobei die Betriebskosten (TCO) für die Datenspeicherung gleichzeitig sinken. Dr. Gibson und Steve Conway untersuchen wie sich die pNFS-Performance und Skalierbarkeit in Mehrwert für IT-Organisationen und Endbenutzer übersetzen lassen, wobei schnellere Ergebnisse, die effiziente Ausnutzung der Speicherkapazität, bessere Interoperabilität, sinkende Verwaltungskosten und Investitionsschutz im Vordergrund stehen.

Solid-State-Technologie für HPC

Dr. Gibson und Steve Conway stimmen überein, dass die Tatsache, dass SSDs in den vergangenen Jahren in den Fokus gerückt sind, vorrangig auf die sinkenden Kosten zurückzuführen ist. Mit der wachsenden Nutzung von USB-Speichersticks, Smartphones und Tablets ist der Preis für NAND-Flash-Speicher in den vergangenen zehn Jahren beträchtlich gesunken. Zwischen den 1970er und frühen 2000er Jahren waren SSDs im Verhältnis US$/GB extrem teuer und daher wurden sie vorrangig von Regierungen und für militärische Anwendungen eingesetzt. Heute kann man ‚consumer grade‘ SSDs problemlos im Einzelhandel für unter einem Dollar pro GB bekommen. Hierdurch haben auch die Speicheranbieter mehr Optionen für ihre Komponenten, und können schnellere Lösungen in allen Preissegmenten entwickeln. Weiterhin spekulieren die beiden über den künftigen Einsatz der SSDs für die parallele High-Performance-Speicherung, und sie sprechen über die einzigartigen Implementierungsmöglichkeiten von SSDs und Enterprise-SATA in ActiveStor 14, dem Imageträger von Panasas, und die praktischen Vorteile einer solchen Implementierung. Mittlerweile hat sich die SSD-Technologie in Enterprise-Speichersystemen durchgesetzt. SSDs sind extrem schnell, allerdings zu teuer für High-Capacity-Deployments, daher ist der effiziente Einsatz dieser Technologie wichtig für maximierte Performance und gleichzeitig sinkende Kosten. Panasas nutzt SSDs um optimierte, High-Performance Speichersysteme für gemischte Workloads – wie hohen Durchsatz für große Dateien, als auch hohe IOPS für kleine Dateien zu liefern. In dem Produkt von Panasas werden die SSDs als vollständig integrierter Storage-Tier im Dateisystem implementiert, wobei die SSDs zur Optimierung der Metadaten und kleinen Dateien dienen.

 

Big Data

Das Phänomen der Big Data wird bleiben und es wird mit unzähligen Kategorien bedacht -Panasas beschreibt es einfach als die Nutzung unstrukturierter Daten und die Umsetzung in Vorteile für Unternehmen. Der Big-Data-Markt setzt sich aus vier unterschiedlichen Anwendungssegmenten mit abweichenden Anforderungen an Performance und Skalierbarkeit zusammen. Die vier Big-Data-Segmente sind: 1) Design (Entwicklung, Kollaboration), 2) Entdecken/ Discover (Core-Simulation - Verdrängung physikalischer Experimente), 3) Entscheiden/Decide (Analytik), und 4) Ablegen/Deposit (Web 2.0 und Datawarehouse). Die ActiveStor Scale-Out-NAS-Systeme von Panasas richten sich zusammen mit PanFS, dem parallelen High-Performance-Dateisystem von Pansas, insbesondere an die Segmente Design und Discover.

Für Big Data werden moderne Tools, Software und Systeme für die Erfassung, Speicherung, das Management und die Analyse dieser Daten benötigt, und alles innerhalb eines Zeitrahmens, der dem eigentlichen Wert der Daten gerecht wird. Gibson und Conway erläutern, welchen Anteil die Big Data an den Wettbewerbsvorteilen jener Unternehmen haben, die ihre Daten kapitalisieren, um ihre Design- und Discovery-Anstrengungen voranzutreiben. Sie erläutern, dass die Erfindung der Big Data schnell den Weg aus den Labors in das kommerzielle Umfeld vieler Branchen gefunden hat -Energie, Wissenschaft, Finanzen und Fertigung. Diese Migration ist auf die massiven technologischen Vorteile zurückzuführen, unter anderem: schnellere und billigere CPU-Leistung, Cluster-Computing, preiswerte SATA-Speicher, erhöhte Netzwerk-Performance, wodurch auch Unternehmen Rechenprobleme lösen können für die bisher teuere Supercomputer benötigt wurden. Und das heißt - was heute HPC heißt, wird in Kürze eine Mainstream-Technologie geworden sein.

 

Nutzen Sie die seltene Chance

Es ist keine Seltenheit, dass Vordenker der Branche miteinander über wichtige HPC-Entwicklungen und Trends reden und ihre eigene Sicht auf sich entwickelnde Produkte und Technologien preisgeben. Es ist jedoch eine Seltenheit, dass ‚wir‘ dabeisitzen und zuhören. Und genau dazu laden uns Dr. Garth Gibson und Steve Conway von IDC in dieser dreiteiligen Videoreihe ein. Sehen Sie zu, während diese beiden klug über einige der wichtigsten Vorteile von HPC-Storage, technischem Computing, sich entwickelnden Standards, neuen technologischen Anwendungen und dem aktuellen Konzept der Big Data sprechen.

Diese Videos haben für jeden etwas zu bieten - für den erfahrenen Techniker ebenso wie für diejenigen, die mehr über zukünftige Entwicklungen und die dazugehörige Terminologie erfahren möchten. Einfach zurücklehnen und genießen!

http://dcsdach.info/news_full.php?id=27462&title=pNFS-nach-Garth-und-IDC

http://dcsdach.info/news_full.php?id=27463&title=Die-Welt-der-SSDnach-Garth-und-IDC

http://dcsdach.info/news_full.php?id=27464&title=Big-Data-nachGarth-und-IDC

New state-of-the-art data centre features Vultr’s first AMD GPU supercompute cluster.
Only a quarter (25%) think their approach to the cloud is carefully considered and successful.
Moving to AWS Cloud will enable The Co-operative Bank to adopt cutting edge IT Infrastructure.
The global airline group will upgrade the value of its data and get its AI & generative AI ready...
Barracuda Networks’s award-winning Email Protection and Cloud Backup security solutions will be...
Leading company in renewables to leverage HPE’s unique turnkey AI infrastructure solution to...
The four-year project extension focuses on cloud transformation and enhanced operational efficiency...
Businesses in the UK are risking slower development as they fail to fully embrace technologies that...