Die Werbebotschaften der Anbieter von heute sind mitunter unverständlich und führen ins Nichts, was schnell frustrierend werden kann. Zuerst einmal sollten wir den Begriff „Big Data“ abgrenzen, denn er kann sich auf zwei unterschiedliche Dinge beziehen: die Technologien zum Managen von Big Data wie z. B. Analysetools, Objektdaten, etc. oder die tatsächlichen Datenbestände, die auf individueller Nutzerebene seit kurzem erheblich wachsen. In den meisten Branchen wie der verarbeitenden Industrie, der Bildung und auch im staatlichen Bereich sind vor allem unstrukturierte Daten wie E-Mails, Videos und Bilddateien die wichtigsten Faktoren, die zur massiven Vergrößerung der Datenbestände beitragen.
Bei beiden Begriffen geht es jedoch letztendlich um große Datenvolumina, die Herausforderungen, die die diese mit sich bringen, sowie um mögliche Strategien, um sie besser zu managen. In diesem Sinne ist Big Data eigentlich gar nichts Neues, denn Unternehmen kämpfen, schon seit die IT zu einem der wichtigsten geschäftskritischen Faktoren avanciert ist, mit wachsenden Datenmengen. Von der Maximierung von Festplattenkapazitäten bis hin zu IT-Administratoren, die Terabytes oder sogar Petabytes managen müssen, ohne dabei Effizienz einbüßen zu dürfen, sind wachsende Datenbestände schon immer ein Problem gewesen.
Das bedeutet, dass zwar einige Technologien besser als andere dazu geeignet sind, die einzigartigen Anforderungen zu erfüllen, die durch die noch nie dagewesenen Datenvolumina entstanden sind, doch der Vertrieb kann nach wie vor seine bereits erlernten Fähigkeiten anwenden, um mit Kaufinteressenten und Kunden, die ihre Daten besser managen wollen, ins Gespräch zu kommen. Endnutzer versuchen nach wie vor, mehr mit weniger zu erreichen. Das Problem liegt allerdings darin, dass Big Data einige neue Herausforderungen mit sich bringt, weil ältere Lösungen umfangreiche Datenbestände einfach nicht managen können, ohne dass dabei Abstriche an anderen Aspekten
wie Skalierbarkeit, Flexibilität, Kosten, etc. gemacht werden müssen.
Laut Gartners Vorhersage werden bis 2015 20 % der 1000 größten globalen Unternehmen eine Managementstrategie für ihre „Informationsinfrastruktur“ einführen, die im Wesentlichen dem Anwendungsmanagement entspricht. Das ist auch einer der Aspekte des Infrastructure Performance Managements oder IPM, das vorsieht, Rechenzentren mit einem ganz neuen Fokus zu betrachten, nämlich angefangen bei der Infrastruktur als Ganzes, gefolgt von einem Drill-Down und der Fokussierung auf einzelne Elemente, die optimiert werden müssen.
Das Schlüsselwort heißt Performance - alle Reseller, die die Entwicklung hin zur Big Data für sich nutzen wollen, sollten mit Ihren Kunden über Infrastruktur- und Anwendungsperformance reden. Viele Unternehmen suchen nach wie vor nach Managementlösungen, die benutzerfreundlich, rentabel, zukunftsfähig, etc., sind. Das ist dieselbe Checkliste wie noch vor 10 Jahren. Es geht nach wie vor um Performance, einzig die Herausforderungen sind größer geworden. Wenn Reseller einem Unternehmen also schon einmal dabei geholfen haben, wachsende Datenbestände zu managen, können sie die neue Gelegenheit recht einfach nutzen: Wenn sie gemeinsam mit Unternehmen, die mit der Herausforderung Big Data zu kämpfen haben, eine neue Infrastruktur planen, sollten sie sicherstellen, dass das gleiche Performance-Level wie bei der alten Infrastruktur, über die weniger Daten gemanagt wurden, erreicht oder es sogar verbessert wird.
Endnutzer erwarten eine gleiche oder sogar höhere Performance, was nur durch eine effiziente Infrastruktur erreicht werden kann, die unter der Last zusätzlicher Daten nicht zusammenbricht. Bisher versuchten Endnutzer den Anforderungen, die die wachsenden Datenbestände an ihre Systeme stellten, gerecht zu werden, indem sie ihre Anwendungen mit unnötigen Servern, Switches, Fabric und Speicherelementen überdimensionierten. Doch heutzutage ist diese relativ einfache Lösung durch knappe Budgets keine Option mehr.
Reseller wiederum können dieses Problem angehen, wenn sie wissen, welche Mittel einem Kunden zur Verfügung stehen, welche Anforderungen er stellt und wenn sie verstehen, welches System / welche Anwendung was wie gut ausführt. Bei Big Data ist das Infrastructure Performance Management der Ausgangspunkt, von dem aus man sich ein Gesamtbild der Umgebung machen kann. Von hier aus sollte man die Aufmerksamkeit jedoch auf die wachsenden Anwendungen richten, da es einfacher ist, einzelne Anwendungen zu managen und die entstehenden Kosten einzuschätzen. Der Vertrieb sollte jede Verkaufsgelegenheit, die sich im Zusammenhang mit Big Data ergibt, zielgerichtet fokussieren und sich auf die Elemente konzentrieren, die verbessert werden müssen, statt Zeit, Energie und Ressourcen darauf zu verschwenden, die ganze Infrastruktur umbauen zu wollen, obwohl einige Bereiche perfekt funktionieren.
Zunächst kann Big Data sicherlich einschüchternd wirken, doch mit der richtigen Herangehensweise kann sie auch das Geschäft erheblich ankurbeln.