Der Trend zu «Software-defined» ist nicht aufzuhalten. Davon profitieren nicht nur die Administration von IT-Ressourcen. Für Experten steht Software-defined IT für die Zukunft, wie Unternehmen generell aufgestellt sind.
Von Karin Legat
Im privaten Umfeld ist »soft« meist negativ besetzt. Mit dem Begriff werden fehlende Härte, Strenge und Stärke verbunden. In der IT jedoch steht soft für die Zukunft. Virtualisierung ändert die IT in den Rechenzentren dramatisch. Wo früher in Tagen und Monaten gedacht wurde, zählen heute Minuten und Sekunden. Ein Blick über die bisherigen IT-Grenzen ist gefragt. Via Cloud finden immer mehr Unternehmen Zugang zur »Software-defined Family«, das heißt: softwarebasierte Networks, Storage und Datacenter. Software-defined Networking, SDN, ermöglicht laut Cisco die zentrale Steuerung und Programmierung aller Netzwerkkomponenten, um Änderungen automatisieren und orchestrieren zu können. Software-defined Storage, SDS, abstrahiert Storage-Ressourcen und ermöglicht damit Pooling, Replikation und bedarfsorientierte Verteilung. Das Software-defined Datacenter bildet die Überstruktur. Es ermöglicht die Automatisierung und kontinuierliche Verwaltung logischer Computing-, Storage- und Netzwerkservices. Die einzelnen Komponenten werden über einen Softwarelayer miteinander verbunden.
Softe Wirkung
»Einer der wesentlichen Gründe, warum ein Software-defined Datacenter Sinn macht, ist der Gewinn an Flexibilität. Wobei wir sehen, dass es zunehmend die hohe und vor allem schnelle Flexibilität ist, die den Markt in Richtung Software-Defined-Infrastruktur treibt«, betont Manfred Köteles, Geschäftsführer Bacher Systems. »Gerade in Organisationen, die kundengetrieben immer wieder neue IT-Services hochziehen, bedeutet eine hochgradig agile IT-Infrastruktur, wie sie etwa auf Basis der führenden konvergierten Infrastrukturlösung ›FlexPod‹ von uns implementiert wird, eine wesentliche Grundlage, um mit dem Takt des Business mitschwingenzu können«, so Köteles. In einem Software-defined Datacenter ermöglicht die richtliniengesteuerte Automatisierung das Provisioning und die kontinuierliche Verwaltung logischer Computing-, Storage- und Netzwerkservices. Das Ergebnis ist eine noch nie dagewesene Agilität und Effizienz der IT, die über die nötige Flexibilität verfügt, um die Hardware und die Anwendungen von heute und morgen zu unterstützen. »Zum heutigen Tag gilt: Schnelligkeit und Kosteneffizienz«, betont auch Robert Kurz, Global Services Lead Central and Eastern Europe EMC, und spricht den Faktor »Time to Resolve« an. »Auf Basis Software-defined lassen sich bei der Fehlersuche die IT-Wartungszeiten um 20 Prozent reduzieren«, zitiert er aus einer Untersuchung des Marktforschers IDC. »Damit kann sich meine IT-Mannschaft auf neue Aktivitäten konzentrieren und als Unternehmer kann ich mich besser am Markt positionieren.« IDC zufolge sind bereits rund 70 Prozent aller Server virtualisiert – Tendenz steigend. Erforderlich für die Virtualisierungs- und Automatisierungssoftware sind neue Konzepte, entsprechendes Know-how und Erfahrung. Das Unternehmen muss »cloud ready« werden, beginnend bei der IT-Architektur, aber immer stärker auch bei Support und dem automationsunterstützten Betrieb der IT-Infrastruktur. Die Virtualisierung auf der Serverseite ist heute laut Peter Öhlinger, Head of Portfolio und Solution Design bei T-Systems Österreich, bereits Standard. Eine ähnliche Entwicklung ist auch bei Netzen absehbar. Bis 2020 wird mit einer Virtualisierung von mehr als 50 Prozent der Netzwerke gerechnet. Bei Software-defined Networking ist Cisco in Österreich einer der Hauptansprechpartner. Mit EMC und VMware wird der gesamte Software-defined Stack angeboten. EMC befasst sich dabei mit Storage und VMware mit der Datenautomation. Ulrich Hamm, Consulting System Engineer Datacenter bei Cisco, zur Partnerschaft: »Die gemeinsam entwickelte Lösung Vblock wird bei immer mehr Kunden eingesetzt. Damit werden auf einfache Weise Infrastrukturen virtualisiert und Private-Cloud-Lösungen eingeführt.«
Die neue IT-Welt
»Im Kundennetzwerk stehen Server und Storagesysteme durch IP- und Netzwerkadressen in Abhängigkeit zueinander«, zeigt T-Systems-Experte Öhlinger auf. »Ich kann das nicht 1:1 mit verdrahteten Abhängigkeiten in das Datacenter des Providers transportieren. Mit Software-defined werden diese Abhängigkeiten entkoppelt. Die App-Landschaft wird virtuell abgebildet, eingekapselt und transportiert. Bei T-Systems ist die Netzwerkvirtualisierung daher ein Trend thema.« Die Revolution findet allerdings im Hintergrund statt. Änderungen sind nur für Systemadministratoren auf technischer Ebene sichtbar. Der Storage-Bereich wird mittelfristig ebenfalls auf den Soft-Zug aufspringen. Der Grund: das exponentielle Datenwachstum, immer neue Zugriffsmethoden und hohe Ansprüche an Verfügbarkeit und Flexibilität. Tiered-Storage ist der Lösungsansatz im Speicherbereich. Verschiedene Disk-Klassen werden zu einem virtuellen Laufwerk zusammengeschaltet. Das Management entscheidet automatisch, welche Daten auf schnelle und welche auf langsame Drives gelagert werden. Damit können Unternehmen teure Arrays klein halten. ViPR ist hier die Lösung von EMC. ViPR-Speicher können von physischen Arrays in einen einzigen Speicherpool abstrahiert werden, der die individuellen Merkmale und den Wert der einzelnen Arrays beibehält. Speicherressourcen, Performance und Auslastung, einschließlich Messungen und Chargeback werden zentral über physischen und virtuellen Speicher gemanagt.
Bacher Systems ist für Datacenter-Architekturen sattelfest. »Wir bieten eine umfassende Palette für das Rechenzentrum der Zukunft, das Next-Generation-Datacenter. Das reicht von Server und Storage, Datacenter-Netzwerk bis hin zu Security-Virtualisierung. Unseren Fokus legen wir besonders darauf, die passende Automatisierung mit zu konzipieren und zu implementieren. Dies steht als integrierte FlexPod-Lösung einsatzfertig zur Verfügung«, so Manfred Köteles.
VMware wiederum abstrahiert IT-Services von der zugrundeliegenden Hardware. Die Lösung für die virtuelle Datenebene lautet vSAN. Der Ansatz von Cisco geht über das klassische Software-defined Networking hinaus. »Auch die darunterliegende physikalische Infrastruktur wird einbezogen«, betont Ulrich Hamm. Nur dadurch lasse sich die notwendige Performance, Skalierbarkeit, Sicherheit und Visibilität erreichen. Ein weiteres Plus an Flexibilität bietet eine komplett anwendungszentrierte »Application Centric Infrastructure (ACI)« für die Datencenter-Netzwerkinfrastruktur. »Sie verwandelt das Netzwerk in eine Plattform, über die sich jede beliebige IT-Anwendung on-demand bereitstellen lässt. Zugleich integriert ACI die physikalischen und virtualisierten Serverinfrastrukturen gleichermaßen und ist auch in alle gängigen Hypervisors integrierbar. Daraus ergibt sich ein einheitliches und vereinfachtes Management sowie reduzierte Komplexität.«
SD-Gefahr
Software-Defined-Infrastruktur erlaubt es den Administratoren, in kürzerer Zeit deutlich mehr IT-Ressourcen für weit mehr IT-Services zu verwalten als bei traditioneller Infrastruktur. Für Manfred Köteles von Bacher Systems besteht allerdings die Gefahr, dass Veränderungen der IT-Infrastruktur nur mehr isoliert und weniger gesamtheitlich, Wechselwirkungen nicht mit der erforderlichen Sorgfalt betrachtet werden. »Oft braucht es nur wenige Minuten, um per Software neue Infrastrukturfunktionalitäten zur Verfügung zu stellen. Früher stand mehr Zeit zur Verfügung: Veränderungen haben damals noch mehrere Stunden, Tage oder gar Wochen gedauert.« Deshalb ist es für Köteles wichtig, die richtige Automatisierung parallel mit aufzubauen. Monitoring- und Management-Software bekommen einen noch höheren Stellenwert.«
2014 ff
Flexibilität wird sich laut EMC im heurigen Jahr als Schlüsseleigenschaft etablieren. Ein Bereich, den der Hersteller für die Zukunft als essentiell ansieht, ist Big Data. »Ressourcen und die Vorteile daraus müssen besser genutzt werden. Im Zusammenschluss von EMC, VMware und General Electric wurde dazu Pivotal gegründet. Auf unabhängiger Plattform können damit moderne Applikationen kreiert werden, um aus Big und Fast Data einen wirtschaftlichen Vorteil zu erzielen. Es gilt, einen unpackbar großenDatenstrom zu meistern.« Hier fällt Storage als Schlagwort. »Die Erweiterung von SDN auf SDS ist bei uns auf jeden Fall geplant«, betont Peter Öhlinger. »Wir virtualisieren schon heute sehr stark, allerdings haben wir noch die Abhängigkeit von den Storageherstellern und deren Virtualisierungstechnologien. Da bewegt sich aber einiges. Tiered Storage bildet eine Lösung.« Sie erlaubt Unternehmen, Daten transparent auf Speichersystemen verschiedener Preis- und Geschwindigkeitsklassen zu verteilen. Rasche Storagesysteme können mit langsamen kombiniert werden, ebenso alte mit neuen. Auch ein Mischbetrieb kann gefahren werden. Trotz aller Bemühungen befürchtet Ulrich Hamm, dass die Software-defined Family rasch an ihre Grenzen stoßen kann. »Die einzelnen Komponenten sind über einen Softwarelayer logisch miteinander verbunden. Die virtuelle Maschine ist somit abhängig vom einzelnen physikalischen Host, auf dem diese ausgeführt wird.« Bei einem Ausfall droht der Stillstand. Nötig ist für Hamm die Verbindung mit der darunterliegenden Infrastruktur. Technologische und organisatorische Silos wie Netzwerk, Server, Storage, Anwendung, Sicherheit und Cloud müssen aufgelöst werden und in eine konvergente Infrastruktur, wie zum Beispiel FlexPod von Bacher Systems, integriert werden.