Für Enterprise-Kunden verändert Flash-Storage alles, heißt es bei Analysten wie IDC und den Storage-Herstellern. Horst Heftberger, Geschäftsführer Hitachi Data Systems, sprach mit dem Report über einen generellen Wandel in der IT.
Report: Herr Heftberger, welche Veränderungen erwarten Sie für den Storage-Bereich? Worauf können sich Unternehmen gefasst machen?
Horst Heftberger: Wir sehen jetzt schon ungeahnte Mengen an Informationen aus dem Bereich Social Media auf uns zukommen, die in den Unternehmen behandelt werden müssen. Für uns heißt das, Technologie zu Verfügung zu stellen, die aus diesen vielen Informationen die richtigen Schlüsse zieht. Hitachi hat dazu eine einheitliche Plattform für alle Daten angekündigt. Dabei werden unterschiedliche Informationen aus Blockdaten, Filedaten und Objektdaten in einem konsolidierten Storage zu Verfügung gestellt, der auch als Plattform für alle Applikationen dienen wird. Bisher hatte man ja Daten stets für die Geschäftsplanung analysiert, oder um Entscheidungen und Geschäftsentwicklungen im Nachhinein zu unterstreichen. Mit den neueren, hochperformanten Lösungen werden aus Daten Echtzeitanalysen generiert. In einem großen Business-Intelligence-Projekt, das wir in diesen Tagen in Österreich abschließen konnten, werden aus Echtzeitdaten Schlüsse gezogen, die sofort umgesetzt werden. Diese Technologie bewerkstelligen wir mit unserer Unified-Compute-Plattform, auf der sich Storage, Server und Netzwerk in einem Stack befinden. Es wird dazu in Zukunft auch einen Paradigmenwechsel in den Datacenters geben. So werden Sie einzeln keinen Storage-Administrator, Serverbetreuer oder Netzwerkspezialisten mehr brauchen, sondern einen Ressourcemanager, der IT-Ressourcen jenen Businessanwendungen zuteilt, die sie gerade benötigen.
Report: Wie verlaufen die Entwicklungen bei Speichermedien derzeit?
Heftberger: Wir stehen aktuell bei 3,2-Terabyte-Flashmodulen. Ich gehe davon aus, dass es im nächsten Jahr bereits 6,4-Terabyte-Module geben wird. Die Kapazitäten gehen nach wie vor in die Höhe, während die Preise in einem großen zweistelligen Bereich pro Jahr rapide sinken. Das versetzt uns in die Lage, Businessapplikationen zu einem Bruchteil der Zeit zu bearbeiten. Hitachi schafft mit dem neuen „Unified Storage VM All-Flash System” bis zu 1 Million I/Os pro Sekunde. Vor einem halben Jahr noch befanden sich solche Lösungen im sechsstelligen Bereich. Das HUS VM integriert als konsolidierte Plattform Hitachi Accelerated Flash Storage mit der Speichervirtualisierung der Enterprise-Klasse.
Report: Was hat der Mittelstand davon?
Heftberger: Wir sehen viele kleine Unternehmen und Mittelbetriebe in Österreich, für die es ebenfalls immer wichtiger wird, mit aktuellen Informationen rasch auf Kundenanforderungen reagieren zu können. Die HUS VM ist ein System mit Enterprise-Features, aber einer modularen Bestückung hinsichtlich Preis und Leistung. Die Lösungen sind mit Excellerated-Flash-Technologie ausgestattet. Das heißt: Sie können ihre Systeme mit 3,2-Terabyte-Modulen bis zu einer Größe von 300 Terabyte ausschließlich mit Flash bestücken. Das sind dann richtige Brummer, trotz eines vergleichweise geringen Preises. Sie sind momentan wesentlich schneller als Produkte des Mitbewerbs. Wir haben auch in Österreich einige Systeme schon erfolgreich installiert.
Report: Flash-Storage ist dennoch wesentlich teuer als herkömmliche Plattentechnologien.
Heftberger: Je nach Modellen ist Flash derzeit noch um den Faktor fünf bis zehn teurer. Sie können davon ausgehen, dass dies in den nächsten vier bis fünf Jahren massiv fallen wird. Ein Treiber dafür sind In-Memory-Computing-Lösungen wie SAP HANA. Jeder große oder mittelständische Kunde hat heute SAP im Einsatz. Es ist zu erwarten, dass viele dieser Unternehmen in den nächsten fünf Jahren auch zu HANA-Kunden werden. Um umfangreiche Datenmengen in Sekundenschnelle zu analysieren, brauchen sie Flashtechnologie. Hitachi hat bereits seine Lösungen für den Einsatz mit SAP HANA zertifiziert. Auch werden generell unstrukturierte Daten in die Analysen mehr und mehr einbezogen. Wichtig dazu ist die Verwaltung von Archivdaten auf der gleichen Managementebene wie deren Auswertung. Von Maschinen erzeugte Daten, wie etwa durch Sensoren oder Kameras, werden überhaupt das Datenwachstum exponentiell in die Höhe treiben. Dazu brauchen wir immer bessere und zugleich günstigere Speicherlösungen.