Riesendaten, schnelle Speicher

Riesendaten, schnelle Speicher Foto: Thinkstock

Wie umfangreiche Datenmengen in Sekundenschnelle verarbeitet werden. Wie Storagelösungen heute aussehen sollten. Wohin sich Management und Analyse von Daten entwickeln.

Die Unternehmens-IT als Getriebene von Fachabteilungen und Geschäftsführung – dieses Bild ist IT-Leitern und Technikverantwortlichen allzu vertraut. Parallel zu Geschäftsmodellen und Zielgruppenansprache befinden sich auch IT- und Rechenzentrumsinfrastruktur im ständigen Wandel. »Die Anforderungen für bestimmte Services oder Applikationen – etwa, ob sie auch schnell genug laufen – kommen aus den unterschiedlichsten Geschäftseinheiten. Dementsprechend muss dahinter alles bereitstehen, damit die gewünschten Dinge funktionieren«, beobachtet Alexander Spörker, Geschäftsführer Hitachi Vantara.

Für die Storage-Hersteller und -Lieferanten ändern sich teilweise auch die Ansprechpersonen in den Unternehmen. Zu den Kontakten der IT-Abteilung gesellen sich prinzipiell auch Geschäftsführung und die Fachabteilungen selbst. Auch der thematische Zugang verändert sich. Über die Technologieebene hinaus werden mehr und mehr Bedarf und Lösungen im Bereich Datenmanagement diskutiert. »Daten waren ja immer schon der Fokus bei Storage. Nun geht es darum, aus den Daten tatsächlich mehr zu machen«, spricht er Big-Data-Lösungen und Data-Analytics an. Hitachi beherrsche die Werkzeuge für die wachsende Datenflut sehr gut, bekräftigt der Österreich-Geschäftsführer. Weltweit hält das Unternehmen die meisten Patente dazu.

Mit Hitachis Plattform Pentaho können unterschiedlichste Datenquellen – im Unternehmen gespeicherte ebenso wie unstrukturiertes Material von Sensoren, Kameras, Mikrofonen oder aus dem Web – sinnvoll miteinander vermengt und analysiert werden. »Stellt man die richtigen Fragen, lassen sich daraus Antworten und auch völlig Neues herausziehen«, ist Spörker vom Nutzen der Verknüpfung von der alten mit der neuen Datenwelt überzeugt.



Foto: Alexander Spörker, Hitachi Vantara: »Wir bieten mit unseren Lösungen die Mobilität der Daten in Unternehmen – das Finden und Analysieren des vorhandenen Datenschatzes von unterschiedlichsten Anwendungen aus.«

Auch wenn Unternehmen mit Pentaho ihre Daten in der Wolke aggregieren können, üblich ist das in Österreich noch nicht. Die Wirtschaft ist großteils noch nicht bereit, ihre eigenen Daten in Cloud-Services zu entlassen. In den USA und in anderen Regionen ist dies anders. Dort nutzen viele die Cloud-Plattformen von Google, Amazon oder Microsoft. »Es gibt sehr wohl auch Kunden in Österreich, die auf unterschiedlichste Cloud-Varianten setzen. Das Gros der Unternehmen aber möchte seine Assets, seine IT, noch nicht in eine Public Cloud stecken«, berichtet Spörker.

Um also das Beste aus dem unaufhaltbaren Datenwachstum machen zu können, empfiehlt der Experte eine strukturierte Anreicherung der Daten, die gespeichert werden. Spörker macht dazu drei Philosophien bei Storage aus: Zum einen werden die Mengen mit klassischem Highend-Storage über All-Flash, Virtualisierung und Software-defined verarbeitet. Hier geht es um eine einfache Verwaltung, um Verfügbarkeit und vor allem um Performance. Der zweite Bereich betrifft den Kapazitätsbedarf bei Storage mit integrierten – Stichwort »Hyperconverged« – Lösungen. Hier geht es nicht um Datenarchivierung oder Backup, sondern einfach um die Prozesse, um Services laufen zu lassen. Schließlich nimmt Object Content den dritten Trend ein: Hierbei wird jedes Datenformat mit Metadaten versehen, um Informationen zu einem späteren Zeitpunkt nutzbar zu gestalten. Spörker zufolge ist dieser dritte Ansatz jener mit der stärksten Tendenz bei Storage-Lösungen derzeit. »Damit kann der Datenschatz, den die Unternehmen bereits haben und der sich auch ständig erweitert, bestmöglich genutzt werden.« Es ist in der Tat ein Paradigmenwechsel im Indizieren des »Erdöls« der heutigen Zeit. Daten wurden früher anwendungsspezifisch gespeichert und in Insellösungen analysiert. Mit Object Storage werde dagegen »alles in einen Topf geschmissen«. Das Konglomerat könne dann aber neutral aus jeder Applikation heraus genutzt werden, um neue Services daraus zu bauen.

Ein Beispiel aus der Praxis: Ein Kunde aus dem Gesundheitsbereich arbeitet bereits seit längerer Zeit mit der Anreicherung von internen Patientendaten mit Informationen und Metadaten. Das Unternehmen hat sich auf Basis der Object-Storage-Plattform HCP und Content Intelligence, die darauf aufbaut, kurzerhand selbst ein »Medical Repository« gebaut. Patientendaten werden darin nicht nur sinnvoll und logisch abgelegt, sondern können mittels Enterprise-Search-Funktion auch wieder schnell gefunden werden – Rechteverwaltung und Privacy-Einstellungen inklusive. Fazit: Mit den richtigen Softwaretools können aus einem Datengrab, wie es Spörker scherzhaft nennt, die vitalsten Services entstehen.



Siehe dazu auch folgende Kommentare, Interviews und Reportagen:

Der Speicher-Spagat
Vier Ansätze, wie CIOs Daten-Sicherheit und -Verfügbarkeit gleichermaßen gewährleisten - von Mario Zimmermann, Country Manager Veeam Österreich.

Datenverarbeitung für Analytik, KI und Machine Learning
Markus Grau, Principal Systems Engineer bei Pure Storage, über Cloud und KI-Trends in Verbindung mit Storage-Lösungen seines Unternehmens.

»Executive Lounge« zum Thema Datenschutz
Wie für mehr Sicherheit im Unternehmen sorgen? Hacker, IT- und Sicherheitsexperten diskutierten bei der 3. Executive Lounge von TCI Consult über den Dächern Wiens.

Daten, das neue Gold
»Data is the lifeblood of every business«. Das hat die NetApp Insight in Berlin wieder nachdrücklich aufgezeigt. Das Motto: »Change the World with Data«.

Last modified onDienstag, 09 Januar 2018 13:20
back to top