Definiert durch Software

Die unternehmenseigene IT-Infrastruktur, programmierbar wie ein Einzelsystem – und das nicht manuell, sondern per Software. Eine finanzierbare Wunschvorstellung? Die unternehmenseigene IT-Infrastruktur, programmierbar wie ein Einzelsystem – und das nicht manuell, sondern per Software. Eine finanzierbare Wunschvorstellung?

Hypes wie Cloud Computing oder Big Data sind in der Businesswelt längst angekommen. Jetzt ist »Software Defined« angesagt. VMware, EMC, HP und NetApp luden zu einem Media Briefing.

Artikel von Karin Legat

Die unternehmenseigene IT-Infrastruktur, programmierbar wie ein Einzelsystem – und das nicht manuell, sondern per Software. Eine finanzierbare Wunschvorstellung? Schon längst nicht mehr. In den letzten Jahren hat Virtualisierung die IT in den Rechenzentren dramatisch verändert. Heute ist »Software Defined« der Hype. Dieses Konzept umfasst nicht nur Speicher und Datenverarbeitung, sondern auch Netzbetrieb. Datencenter, Netzwerke und Speicher werden virtualisiert. »Dann kann man sie abstrahieren und verheiraten«, bringt es Goran Petrovic, Networking Business Unit Manager bei HP, auf den Punkt.

Die Geschwindigkeit der IT-Anforderungen steigt. »Wir haben daher die Architektur des Datacenters überdacht und das Software Defined Datacenter etabliert«, beschreibt Alexander Spörker, Country Manager VMware, die Lösung. IT-Services werden von der zugrundeliegenden Hardware abstrahiert, in Pools zusammengefasst und die Verwaltung automatisiert. Die bestehende IT Infrastruktur kann vollständig erhalten bleiben. »Warum machen wir das? Nichts passiert heute mehr ohne IT«, ist Spörker überzeugt. »Vor rund zehn Jahren haben wir damit begonnen, Hardware in einem Pool zusammenzufassen. Das erweitern wir jetzt auf die Komponenten Speicher und Netzwerk. Wir versuchen, die gesamte Intelligenz in den Softwarelayer zu integrieren. Virtuelle Maschinen können in wenigen Minuten zur Verfügung gestellt werden.« Der Kommunikationsaufwand im Netzwerk kann dabei um 70 % reduziert werden. vSAN lautet die VMware-Lösung für die virtuelle Daten­ ebene. Diese clustert die lokalen Server Disks und Flash Disks. Virtuelle Maschinen erhalten Zugang zu Shared Storage, was eine schnelle und granulare Skalierung von Rechen- und Speicher-Ressourcen erlaubt.

Definierte Netzwerke

Viele Netzwerke bauen auf Architekturen auf, die 20 Jahre alt sind und bei denen jedes einzelne Netzwerk manuell angegriffen und konfiguriert werden muss. »Wir gehen davon aus, dass bis 2020 die Devices, die über Netzwerke kommunizieren, auf 50 Mrd. steigen. Vor einigen Jahren standen wir bei 30 Mrd.«, so Petrovic. Das ist mit heutigen Netzwerken nicht umzusetzen. Mit Blick auf Cloud Computing und Desktopvirtualisierung ist eine grundlegende Änderung der Netzwerkarchitektur erforderlich. »Wir entkoppeln die Daten- von der Kontrollebene. Die physikalische Ebene ist künftig nur mehr für den Datentransport verantwortlich.« Ein Vergleich: Das Straßennetz, der Transportlayer, bleibt erhalten. Aber es besteht eine darüber liegende Instanz, die den Straßenverkehr regelt. Software Defined Network stellt universelle und programmierbare Netzwerkknoten zur Weiterleitung von Daten bereit und abstrahiert physische Funktionen in virtuelle Services. Die Hardware muss nicht mehr manuell konfiguriert werden.

Flexible Speicher

Die Entkoppelung spielt auch bei Software Defined Storage eine entscheidende Rolle. EMC hat mit ViPR einen neuen Vorstoß in Richtung offener Speicherinfrastruktur vorgenommen. »Der ViPR-Controller abstrahiert physische Speicherressourcen in einen virtuellen Speicherpool, fasst ähnliche Ressourcen in virtuelle Speicherarrays zusammen und vereinheitlicht den Zugang. Die Kontrollebene, auf der Speicher gemanagt wird, ist dabei von der Datenebene getrennt«, informiert Country Manager Martin Hammerschmid. Dass SDS längst keine Zukunftsvision mehr ist, zeigt auch NetApp mit seinem Storage-Betriebssystem clustered Data ON-TAP. »Im Mittelpunkt steht dabei eine linear ausbaufähige Clustertechnologie, welche die Storage-Virtualisierung auf ein neues Niveau bringt und zu virtualisierten Storage-Services raffiniert«, so Ewald Glöckl, Director Austria NetApp. Kern der Clustertechnologie sind Storage Virtual Machines, die jeden Zugriff auf Daten oder Services seitens der Endanwender oder Server Hosts entkoppelt von der Hardware steuern. Die Vorteile: unterbrechungsfreier Betrieb, hohe Effizienz und nahtlose Skalierbarkeit bei regelgesteuerter Zuweisung von Ressourcen – ganz im Sinne von SDS.

Last modified onDienstag, 21 Januar 2014 15:49
back to top