REPORT | BLOG

Mehrwert für ManagerInnen

„Aufgelockerte Bewölkung“ im Cloud-Konzept – reicht das?

Würde man CIOs dazu befragen, was die wichtigsten Vorteile von Cloud-basierten Business-Anwendungen sind, erhielte man wahrscheinlich  eine Reihe unterschiedlicher Antworten: manche würden die höhere Flexibilität durch die Cloud-Anwendungen nennen, manche würden wieder verbesserte Zusammenarbeit mit Kollegen aus anderen Abteilungen oder Niederlassungen ins Feld führen. Andere wiederum erachten ortsunabhängiges Arbeiten, niedrigere TCO oder einfachere Kostenkontrolle als wesentliche Vorteile. Aber am Ende laufen all diese Vorteile auf eines hinaus: Cloud-Anwendungen ermöglichen spürbare Produktivitätssteigerungen für Unternehmen.

Dieser Ansatz ist schon seit längerem bekannt und nicht neu. Was neu ist, ist die Tatsache, dass viele Unternehmen nicht in vollem Ausmaß von diesen Vorteilen profitieren.

Eine neue Studie* zeigt, dass 83 Prozent der Unternehmen in Europa von den Cloud-Anwendungen in ihren jeweiligen Abteilungen nicht optimal profitieren. Jedes vierte Unternehmen macht dafür die ungenügende Integration mit anderen Geschäftsanwendungen verantwortlich. 75 Prozent sehen auch ihr Innovationspotenzial beim Einsatz von Cloud-Anwendungen beeinträchtigt, wofür wiederum 51 Prozent ebenfalls einen Mangel an Integration als Ursache nennt.  Mehr als die Hälfte der Befragten geben an, dass schon einmal Projekttermine nicht eingehalten werden konnten (52 Prozent) und ihre Abteilung in den letzten sechs Monaten Ausfallzeiten zu verzeichnen hatte (54 Prozent). Genau bei diesen Herausforderungen sollte eine Cloud-Anwendung ansetzen und Verbesserungen herbeiführen können.

Integrierte Cloud-Strategie

Der Schlüssel dazu ist die Integration. Cloud-Anwendungen haben wirklich ein hohes Verbesserungspotenzial für Unternehmen, aber nur, wenn sie richtig eingesetzt werden. Richtig heisst in diesem Zusammenhang „integriert mit allen notwendigen on premise Applikationen“ oder über einen gesamtheitlichen Cloud Ansatz. Durch mangelnde Integration werden die Cloud-Anwendungen isoliert und können daher den erwünschten Produktivitätsgewinn nicht erwirtschaften.

Continue reading
  19364 Hits
19364 Hits

Politik der harten Bretter

»Politik ist immer ein Bohren harter Bretter«, sagte SPÖ-Energiesprecher Wolfgang Katzian bei einer grandios guten Veranstaltung von Oesterreichs Energie im Vorfeld der Nationalratswahl. Der Verband hatte Ende Juni zu einem Podiumsgespräch der Energiesprecher der größeren wahlwerbenden Parteien geladen. Das Interesse an den Inhalten war groß und die Parteienvertreter enttäuschten auch nicht. Alle – SPÖ, ÖVP, FPÖ, Die Grünen, BZÖ und Team Stronach – waren sich einig: Energieunabhängigkeit für Europa, Ausbau der Netze und Erneuerbaren.Im Detail gab es bei den politischen Zielen freilich Unterschiede: Die einen setzten auf den gewohnten Konsens auch bei Umweltverträglichkeitsprüfungen und Fördermodellen, die anderen auf den schnelleren Ausbau von Wasserkraft und Netzen. »Ein Biber darf nicht ein Projekt zu Fall bringen«, fomulierte es Robert Lugar, Team Stronach, plakativ. In Acht nehmen sollten sich die Eigentümer der Energieversorger vor dem Wunsch des BZÖ, das mit politisch besetzten Aufsichtsräten und Vorständen Schluss machen will.Wer weiß, vielleicht ist das aber auch der richtige Weg in einer Landschaft, in der lokale Wählerstimmen mehr zählen als ein größerer Plan für die Energiezukunft unseres Landes. Diese Zukunft, und damit sollten wir zur Wahl nach Deutschland blicken, wird stark von der politischen Linie unseres großen Nachbarn geformt. Was in Deutschland gefördert und umgesetzt wird, bestimmt den Strompreis in Europa – und damit auch das Energiegefüge Österreichs.

  16355 Hits
16355 Hits

So schützen Sie sich vor Ausspähungen durch NSA und GCHQ

Die jüngsten Erkenntnisse über die Aktivitäten der NSA und des britischen Geheimdienstes GCHQ hinsichtlich des Abhörens SSL-verschlüsselter Daten belegen einmal mehr, wie wichtig es ist, auf vertrauenswürdige Lösungen zu setzen. Unternehmen, die ihre vertraulichen Daten und Datenverbindungen effektiv absichern möchten, müssen einige Punkte beachten. 1. SSL ist eine Internet-Verschlüsselungstechnologie, die nicht dazu entwickelt wurde, standortübergreifende Unternehmensnetze abzusichern. Die professionelle Lösung sind IPsec-basierte Virtuelle Private Netze (IPsec VPN). 2. Der Verdacht, ausländische Geheimdienste würden eng mit nationalen Technologieanbietern zusammen arbeiten, um gezielt Hintertüren (Backdoors) in Software und Hardware einzubauen, ist nicht neu. Die sichere Alternative sind vertrauenswürdige Produkte europäischer Hersteller, die sich offen verpflichten, ihre Produkte frei von Backdoors zu halten. 3. Der Verdacht, NSA und GCHQ hätten sich Zugang zu den Zertifikaten von Certificate Authorities (CAs) verschafft, wiegt schwer. Die sichere Alternative sind Zertifikate von vertrauenswürdigen CA-Anbietern, Unternehmens-eigenen CAs oder selbstsignierte Zertifikate. 4. Unternehmen, die ihre Daten in der Cloud ablegen, sollten zukünftig nicht nur darauf achten, wo die Daten gespeichert werden und ob diese US-amerikanischem Recht unterliegen. Auch die Zugänge müssen anders als bislang oft üblich über SSL abgesichert werden. Auch hier ist IPsec die sichere Alternative. Für Verbraucher sind die aktuellen Enthüllungen erschreckend. SSL wird heute milliardenfach genutzt, um z. B. Online-Banking, Shopping oder Flugbuchungen abzusichern. Sie können nicht auf andere Technologien ausweichen. Für Unternehmen gibt es jedoch vertrauenswürdige Alternativen, die weder US-amerikanischem Recht noch dem Zugriff von NSA und GCHQ unterliegen. Wenn sie vertrauenswürdige Produkte europäischer Hersteller einsetzen, die auf IPsec basieren und zusätzlich über vertrauenswürdige Zertifikate abgesichert sind, sind sie auf der sicheren Seite.

  15188 Hits
15188 Hits

Router Backdoors sind eine größere Gefahr als PRISM und Co.

Seit Bekanntwerden der NSA-Affäre fürchten viele Firmen erstmals ganz konkret, dass ihre Kommunikation im großen Stil abgehört wird. Die Angst ist berechtigt, schließlich verursachen Cyber-Spionage und Konkurrenzausspähung jährlich Schäden allein in Österreich in dreistelliger Millionenhöhe.

Doch während es bei PRISM und Co. um das Abhören externer Datenströme im Internet geht, gefährden Sicherheitslücken in Hard- und Software die hochvertraulichen Informationen innerhalb der Firmennetze. Und damit das Wertvollste, was viele Unternehmen besitzen: ihr Wissen.

Besonders erschreckend ist, wie viele der heute erhältlichen Netzwerkgeräte erhebliche Sicherheitslücken aufweisen. Sei es als Folge fehlerhafter Programmierung, ungenügender Sicherheitsmechanismen oder mangelhafter Testroutinen. Günstige Nachahmerprodukte, bei denen der geringe Preis oft wenig Raum lässt für eine umfangreiche Qualitätssicherung, sind hiervon besonders häufig betroffen.

Besonders kritisch wird es, wenn die zentrale Schnittstelle zum Internet – der Router – Sicherheitslücken aufweist. Exploits stehen hier auf der Tagesordnung: Hacker nutzen bekannte Schwachstellen systematisch aus, um in Geräte und Netze einzudringen, bevor ein geeigneter Patch zur Verfügung steht. Schnell ist über eine solche Lücke ein gefährliches Schadprogramm eingeschleust – mit oft unüberschaubaren Folgen.

Kein Fehler – dafür aber ein nicht mindergroßes Sicherheitsrisiko – sind bewusst eingebaute Hintertüren. Einige Hersteller nutzen diese sogenannten Backdoors als Service- oder Debug-Schnittstellen zu den Geräten ihrer Kunden. Wieder andere sind aufgrund von Regierungsvorgaben verpflichtet, Backdoors in IT-Infrastrukturprodukte einzubauen, um Strafverfolgern und Geheimdiensten Zugriff auf die darüber laufende Kommunikation zu bieten. Ihnen allen gemein ist jedoch eines: sie bieten Hackern einen mehr oder weniger bekannten und oft leicht zu öffnenden Zugang zu Unternehmens- und Behördennetzen und dem darin verborgenen Wissen. Nicht selten passiert es, dass sich die Eindringlinge Monate bis Jahre unbemerkt durch die Datenbestände der Unternehmen arbeiten und wertvolles Knowhow oder sensible Daten abziehen.

Continue reading
  15769 Hits
15769 Hits

Was hat IT mit Digitalem Marketing zu tun?

Digitale Technologien sind aus unserem Leben nicht mehr wegzudenken, sind doch Mobile Devices oder die Nutzung von Social Media heutzutage zur Selbstverständlichkeit geworden. Marketingverantwortliche haben diesen Trend und die damit einhergehenden radikalen Änderungen des Konsumentenverhaltens bereits erkannt.

Ob ein Produkt ein Hit oder ein Flop wird, hängt heute nicht mehr allein davon ab, ob die Käuferschicht vom Kosten-Nutzen-Aspekt, der Funktionalität oder vom Design überzeugt ist. Meinungsbildung über Produkte erfolgt in sozialen Netzwerken in ungewohnter Dynamik und stellt somit Unternehmen vor neue Herausforderungen. Vor allem die Geschwindigkeit und die Tragweite dieser Prozesse sind atemberaubend. Soziale Medien ermöglichen eine höhere Interaktion mit dem Käufer, die Konsumenten können einer Marke gegenüber aber auch schneller untreu werden, die Konkurrenz ist ja nur einen „Mausklick“ entfernt.

Hier kann die Informationstechnologie das Marketing punktgenau unterstützen. IT-Anbieter haben Lösungen entwickelt, die den  Kunden helfen, die Meinungsbildung zu den eigenen Produkten als auch das Kaufverhalten ihrer Kunden zeitnah und laufend zu erkennen. Diese Lösungen bedienen sich dabei eben nicht nur den klassischen Kunden/Lieferanten-Kommunikationswegen, sondern benutzen auch die digitalen Medien und die Fußspuren die Kunden darin hinterlassen.

Wir subsummieren diese Lösungen unter dem Begriff „Customer Experience“.  Es ist wichtig früh zu erkennen, wenn Produkte nicht angenommen oder kritisiert werden. Früher haben Unternehmen Geld in Marktforschung gesteckt, um Informationen über Bedürfnisse der Kunden zu bekommen. Heute findet man solche Informationen unter anderem in digitalen, sozialen Netzwerken.

Die Oracle-Lösungen helfen nicht nur dabei, das Produktangebot bestmöglich zu präsentieren, sondern auch dabei, das gesamte virtuelle Erscheinungsbild eines Unternehmens zu gestalten.  Die Betonung liegt hier auf „gesamtes“ Erscheinungsbild. Dies umfasst, wenn möglich, alle Interaktionspunkte zwischen Kunden und Lieferant, egal ob persönlich, telefonisch oder digital.  Je stimmiger dieses Erscheinungsbild ist, desto vertrauensvoller wird das Unternehmen und seine Botschaften wahrgenommen.

Continue reading
  16425 Hits
16425 Hits

Warum SaaS Sinn macht?

 

Heutzutage hat jeder schon von „Cloud“ gehört. In den letzten Jahren haben sich die IT-Industrie, Berater sowie die Medien intensiv damit beschäftigt, was Cloud Computing eigentlich ist und, vielleicht noch wichtiger, welche Vorteile sich dadurch für Unternehmen ergeben.

Der Fokus wird hier häufig auf die Verschiebung von Kapitalaufwendungen (CAPEX) zu Betriebsausgaben (OPEX) gelegt. Ebenso häufig geht es um IT-Probleme wie Skalierbarkeit, Flexibilität oder On-Demand-Kapazität. Auch dass die Komplexität des IT-Managements reduziert werden kann und sich der IT-Manager aufgrund freiwerdender Kapazitäten auf Lösungen konzentrieren kann, die dem Unternehmen Wettbewerbsvorteile bringen, werden als Vorteile angeführt. 

Während jedes dieser Argumente seine Berechtigung hat, überschatten sie oft eine der spannendsten Diskussionen. Damit meine ich, dass die Idee, Business-Anwendungen  in der Cloud durch ein Software-as-a-Service (SaaS)-Modell per Abonnement zu bezahlen,  mehr Vorteile bietet. Insbesondere macht es den Weg frei für Innovation und neue Technologien.

SaaS selbst ist kein neues Konzept. In der Tat kann seine Entwicklung  bis in die späten 1990er Jahre zurückverfolgt werden, als webbasierte Anwendungen, die von Application Service Providern (ASPs) geliefert wurden, die Fantasie vieler  IT-Manager anregten. Erste Anwendungen haben sich oft auf Sales Force Automation (SFA), Customer Relationship Management (CRM) sowie Web-Content-Management konzentriert.

Continue reading
  16454 Hits
16454 Hits

Garant für die hintere Reihe

Alles beim Alten in Europa. Die EU-Kommission diskutiert neue Förderungen für Atomkraftwerke, das Bahnnetz schrumpft weiter und die Autobahnen werden kräftig ausgebaut. Wenn es ums Thema Infrastruktur geht, denken wir zuerst an Wasser und Asphalt. Die Netze der Informations- und Kommunikationstechnologien kommen in den Überlegungen der Politik kaum vor. Rühmliche Ausnahme der traditionellen Missachtung des Konjunkturfaktors IKT sind jene 250 Mio. Euro aus den Erlösen der Frequenzversteigerungen im Herbst, die Infrastrukturministerin Doris Bures für den Breitbandausbau versprochen hat. Wenigstens fließt nicht der gesamte Inhalt des Versteigerungstopfes in den Wohnbau, dem der Rest zugesagt ist! Es zeigt sich: Die Bauwirtschaft ist im Lobbying seit jeher um Welten besser aufgestellt. Was haben die IKT-Branche, und allen voran die Mobilfunker, da falsch gemacht? Zwei Dinge: Zum einen ist der Mobilfunk in den Anfangsjahren der Eroberung des Sprachtelefoniemarktes so erfolgreich gewesen, dass sich die klingelnden Kassen uns allen eingeprägt haben. Dieses Image hält nachhaltig an. Das gegenwärtige Herausapern von Korruptionsfällen und Parteienfinanzierungen rund um die Telekom sind Versatzstücke des Bühnenspiels IKT in Österreich, in dem die Telekom eine Hauptrolle unter den Melkkühen gespielt hat. Doch sind die goldenen Zeiten vorbei. Heute schlägt die heimische Marktregulierung unter EU-Flagge in die Gegenrichtung aus und dreht so wichtige Einnahmequellen wie das Roaming ab. Derweil ist in der Politik gegenüber der IKT so weit Verständnis aufgekommen, dass bei Branchenevents anwesende Regierungsvertreter gebetsmühlenartig auf die Gefahren und Risiken des Internets verweisen. Das aber ist ebenfalls gefährlich: Sich zu ducken und traditionell österreichisch abzuwarten ist in der immer noch schnell wachsenden IT ein Garant für eine der hinteren Reihen unter den Wirtschaftsstandorten.

  17232 Hits
17232 Hits

Snowdon oder "Snowdown"

Wie Schuppen von den Augen oder einfach Schnee vom Himmel so fällt es den naiven Menschen plötzlich auf, dass moderne Kommunikationstechnologie gespeichert, überwacht und möglicherweise ausgenützt werden kann. Ob die Tätigkeit der NSA in Ordnung ist oder nicht ist schwer zu beantworten. Sie unterliegt letztendlich dem nationalen Interesse der USA. Man kann dem amerikanischen Argument durchaus folgen, wenn es für Geheimdienste darum geht, Informationen zu sammeln, und das auch geheim. Tatsache ist, dass wir alle Informationen sammeln. Wir sind als Menschen mit dieser Sammlerneigung aufgewachsen. So gehen wir doch alle mit den sozialen Netzwerken, mit der Übermittlung von SMS oder ganz einfach mit Mails sehr sorglos um. In unserer Naivität glauben wir an das Gute im Menschen, dass er diese Informationen nicht ausnutzt. Es sind aber die Systeme, die ja von sich aus schon alles speichern, was über sie läuft. Also versuchen wir doch ein wenig rationaler an die Problematik „Snowdon“ heranzugehen. Dabei muss es primär darum gehen, wie man mit der Tatsache des Datensammelns an sich umgeht, und nicht zuerst gleich nach den Schuldigen sucht.Da ist ein junger Mann, der sich freiwillig in ein Arbeitsverhältnis mit einem Nachrichtendienst begibt. Vertraglich sich zur Verschwiegenheit verpflichtet und dann ganz plötzlich erkennt, dass er die Arbeit mit seinem Gewissen nicht vereinbaren kann? Schwer zu glauben, dass da nicht ein anderer Gedanke dahintersteckt. Eine von vorne herein geplante Absicht des Aufdeckens lässt sich durchaus erahnen. Oder es ist ein Sendungsbewusstsein welches ihm ermöglicht, sich im Lichte der Öffentlichkeit zu sonnen? Schwer auszumachen, was wirklich dahinter steckt. Sachlich gesehen, hat dieser Mann eine Straftat begangen. Dass er die Folgen nicht wirklich durchdacht hat, zeigt sich ja in der Bemühung nicht nur in einem Land politisches Asyl zu bekommen, sondern er probiert es gleich in mehreren. Bemerkenswert ist, wenn sich Politiker dann für diese Person stark machen, aber gleichzeitig Menschen den Zutritt in ihre Länder verwehren, die wirklich unter politischen Regimen gelitten haben. Der Januskopf war nicht nur auf alten Münzen abgebildet, er ist heute in der Politik durchaus vorhanden.Und auf der anderen Seite sehen wir eine Naivität der Politik, welche noch immer nicht die Vernetzung unserer Welt, der Gesellschaft, der Wirtschaft ja unseres täglichen Lebens erkannt hat. Oder will sie uns was anderes verkaufen? Man kann in dieser vernetzten Welt nicht mit den Mitteln der Vergangenheit agieren. Das zunehmende Besinnen auf die nationalen Bedürfnisse kann dieser Entwicklung nicht gegenwirken. Wir brauchen mehr internationales Denken und damit auch in vielen Bereichen Vereinbarungen, die über unser „Kleinbürgertum“ hinausgeht. Es ist schön, wenn die deutsche Justizministerin feststellt, dass das Sammeln von Daten durch die NSA das deutsche Grundgesetz verletzt. Hat sie eigentlich verstanden, dass moderne Technologien der Kommunikation keine Grenzen kennen? Wenn sich Vertreter der EU im gleichen Sinn beklagen, so ist es doch ein Ausdruck der Schwäche dieses angeblich gemeinsamen Europas. Hier kann nur aus einer Position der Stärke heraus agiert werden und nicht jeder für sich alleine. Also mehr Mut, meine Damen und Herren der Politik. Die Kontrolle der Systeme ist wichtiger als die Krümmung der Bananen, oder die ähnlich klingenden Namen von Getränken in Italien oder Kroatien.

  13328 Hits
13328 Hits

Die dritte Plattform

Der mobile Arbeitsplatz verändert die IT-Infrastruktur eines Unternehmens bezüglich Datenhaltung, Sicherheit und Verwaltung: Die Anforderungen der sogenannten dritten Plattform erfordern neue Konzepte und Strategien: weg vom Rechenzentrum hin zu adaptiven Infrastrukturen. Was bedeutet das?Drei Themen prägen gemäss Analysten wie Gartner, Forrester und IDC dieses Jahr den Markt. Es ist der mobile Arbeitsplatz, Cloud Computing und Big Data. So werden gemäss IDC die weltweiten Ausgaben für die IT im Jahr 2013 um 5,7 Prozent auf über 2 Billiarden Dollar wachsen. Über 50 Prozent dieses Wachstums macht die Zunahme der Verkäufe von Tablets, Smartphones und anderen mobilen Geräten aus. Der zweite stark wachsende Bereich ist der Markt für Cloud Computing, da sind gemäss Gartner und Forrester zweistellige Wachstumsraten zu erwarten. Betrachtet man lediglich die Wachstumszahlen, explodiert zwar der Markt für Big Data – es ist von bis zu 58 Prozent Wachstum dieses Jahr die Rede. In absoluten Zahlen jedoch bestimmt dieses Thema die Marktentwicklung nicht im selben Ausmass wie die anderen beiden Themen Mobile und Cloud Computing, auch wenn in den nächsten Jahren der Job als Data Scientist sehr gefragt sein dürfte.Was sich ändern wirdDie reinen Verkaufszahlen von mobilen Geräten sind nur ein Ausdruck einer Veränderung, die sich über die letzten Jahre angebahnt hat und nun langsam, aber sicher zum Mainstream wird: das mobile Arbeiten. Fixe Arbeitsorte mit fixen Arbeitszeiten sind rückläufig – bereits heute setzt laut der Ende des letzten Jahres durchgeführten Studie "Workplace of the Future: a global market research report" der Firma Citrix knapp die Hälfte aller Unternehmen mobile Arbeitsmodelle ein. Motivation dafür ist die Anwerbung hochqualifizierter Arbeitskräfte durch flexible Arbeitsangebote und die Reduktion von Miet-, Reise- und Personalkosten. Diese Flexibilität bezieht sich auf die Zeit, den Ort und das Arbeitsgerät. Und genau in diesem Jahr wird das mobile Arbeitsgerät den PC als Zugriffsinstrument auf das Netz ablösen. Wir werden somit mehr und mehr unser eigenes Gerät als Arbeitsinstrument einsetzen. Gemäss der Studie "The consumerization of IT – The next-generation CIO", die im November 2011 vom Center for Technology and Innovation der Firma PWC herausgegeben wurde, ist der Anteil der privaten Geräte, mit denen auf Unternehmensanwendungen zugegriffen wird, bereits im Jahr 2011 auf 40 Prozent gestiegen. Das alles hat weitreichende Konsequenzen für die Infrastruktur einer Unternehmens-IT. Die KonsequenzenDer Begriff "Consumerization of the IT" umschreibt den zunehmenden Einfluss der Technologie, die für den Endkunden auf den Markt kommt, auf die IT-Abteilungen der Unternehmen. So wird beispielsweise die Verbreitung von Windows, als dominierendes Betriebssystem für Endgeräte, bedrängt durch die Tatsache, dass weit mehr mobile Geräte auf Basis von iOS und Android verkauft werden als solche auf Basis von Windows 8. Die Dominanz des Windows-PCs als Standard im Unternehmen endet gemäss Gartner bereits in diesem Jahr – abgelöst durch eine Vielzahl von Umgebungen, die von der IT unterstützt werden müssen. Doch damit nicht genug. Die klassischen Anwendungen der betrieblichen Informatik verändern sich in Richtung Mobile Apps. Dasselbe gilt auch für die Infrastruktur, die notwendig ist, um dieses System zu implementieren und zu betreiben. Unternehmenseigene App-Stores werden für grössere Firmen zur Notwendigkeit, wenn sie der Vielzahl der Endgeräte gerecht werden wollen. Die Veränderung der Softwareverteilung geht mit einer Veränderung der notwendigen Infrastruktur für den Betrieb der Anwendungen einher. Zur Verbindung von mobilen Anwendungen und cloudbasierten Diensten äussert sich Forrester für das Jahr 2013 wie folgt: «Cloud & Mobile become one.» Dies ist die ideale Lösung, um den sich ständig verändernden Anforderungen mobiler Unternehmensanwendungen gerecht zu werden. IDC prognostiziert aus diesem Grund eine starke Zunahme der PaaS-Angebote (Public-Platform-as-a-Service) und eine Anpassung von cloudbasierten Branchenangeboten. So sollen sich PaaS-Angebote zu Massenprodukten entwickeln, die in Kombination mit SaaS-Lösungen (Software-as-a-Service) die Basis für branchenorientierte Business-iClouds bilden.Die dritte PlattformSoll die IT-Infrastruktur eines Unternehmens mit den aktuellen Entwicklungen des mobilen Arbeitens mithalten, so ist eine neue Beweglichkeit gefragt – eine Beweglichkeit hinsichtlich Zeit, Ort und Geräteunterstützung. Diese bewegliche IT-Infrastruktur wird von Frank Gens, Chief Analyst bei IDC, unter dem Begriff "dritte Plattform" zusammengefasst. Diese dritte Plattform erweitert die bestehenden zentralen IT-Infrastrukturen eines Unternehmens, im Gegensatz zur ersten Plattform (Mainframe-Technologie) und zweiten Plattform (Desktop-Unterstützung). Die IT-Infrastrukturen werden zur Grundlage für die Bereitstellung und den Betrieb von mobilen Anwendungen. Diese basieren auf einer Kombination von Cloud-Computing-Services, sozialen Netzwerkmechanismen, modernen mobilen Netzwerken und zentralen unternehmenseigenen IT-Infrastrukturen.Worauf ist zu achten?Der Weg vom Rechenzentrum hin zu beweglichen Infrastrukturen bedeutet Veränderungen auf der Ebene der Datenhaltung, der Sicherheit und der Verwaltung der IT-Systeme. Mobiles Arbeiten bedeutet in vielen Fällen, mit unternehmenskritischen und unternehmensrelevanten Daten zu arbeiten. Diese Daten müssen zur richtigen Zeit am richtigen Ort sein, somit verfügbar rund um die Uhr und rund um den Globus. Dies muss in einem ständig wachsenden Umfeld von strukturierten und vor allem unstrukturierten Datenmengen gewährleistet sein. Die Datenhaltung und die Datenbereitstellung über die internen Rechenzentren hinaus werden zu zentralen Aufgaben der IT. Damit verbunden sind neue Sicherheitsaspekte. Das mobile Arbeiten per se bringt bereits zusätzliche Anforderungen hinsichtlich der Verschlüsselung und ferngesteuerten Löschung lokaler Daten mit sich. Darüber hinaus kommt die Notwendigkeit verbesserter Aufklärung bezüglich Passwortstärke und anderer Sicherheitsrisiken im Mobile Computing hinzu. Zu guter Letzt darf je nach Aufenthaltsort des mobil arbeitenden Personals auf bestimmte Daten gar nicht mehr zugegriffen werden. Mit anderen Worten dürfen sie an bestimmten Orten aufgrund gesetzlicher Regelungen auf keinen Fall sichtbar sein. Die Art und Weise, wie IT-Systeme verwaltet werden, wird sich dadurch vollständig verändern. Eine Kombination aus zentralen Infrastrukturen mit global verteilten Diensten und Endgeräten, die sich ständig und rund um die Uhr an einen anderen Ort befinden, unterscheidet sich grundlegend von der traditionellen IT-Infrastruktur. Diese ist auf das Firmengelände und Büroarbeitszeiten beschränkt. Das Spektrum der verschiedenen Systeme und Systembestandteile wächst mit den Anforderungen des Mobile Computing. Die Zukunft der adaptiven InfrastrukturenDie adaptiven Infrastrukturen oder auch die «dritte Plattform», wie IDC die Unternehmens-IT der Zukunft nennt, bedingen die Integration einer Vielzahl von Technologien. Verschiedene Hersteller versuchen mit sogenannten integrierten Ecosystemen Lösungen für adaptive Infrastrukturen zu bieten. Sie bestehen aus Appliances, Cloud-Diensten und mobilen Anwendungsplattformen. Dabei spielen die spezialisierten Appliances eine wichtige Rolle als Verbindungselement zwischen bestehender und neuer Infrastruktur. Deren Einsatz soll die Betriebskomplexität und damit auch die entsprechenden Kosten reduzieren, bei gleichzeitiger Verbesserung der Leistungsfähigkeit. Die Cloud-Dienste sollen den Einkauf und die adaptive Nutzung zentraler Services vereinfachen. Die mobilen Anwendungsplattformen erlauben dabei die Bereitstellung der neuen Generation von Anwendungen für eine Vielzahl von mobilen Geräten. Das integrierte Ecosystem ermöglicht eine Kontrolle der adaptiven Infrastrukturbestandteile.

  14953 Hits
14953 Hits

22.000 Smart Meter in Schweden

Bis zum Jahr 2020 müssen laut EU 80 Prozent aller Stromzähler beim Endverbraucher getauscht werden. Statt der alten Zähler kommen sogenannte "Smart Meter" zum Einsatz, die im Viertelstundentakt den Stromverbrauch jedes einzelnen Stromkunden aufzeichnen, um dadurch genaue Daten zu liefern, wann besonders viel oder sehr wenig Strom verbraucht wird. 4,5 Millionen Stromzähler gibt es derzeit in Österreich, 1,4 Millionen davon alleine im Großraum Wien.Was jetzt so einfach klingt, ist allerdings in der Umsetzung eine große logistische Herausforderung für alle beteiligten Unternehmen. Die Vorbereitung auf den Tausch muss natürlich perfekt geplant und dann effizient umgesetzt werden. Techniker werden eigens dafür ausgebildet und Termine für den Tausch der 4,5 Millionen alten Stromzähler koordiniert.

In vielen Teilen Europas ist Tieto führender Dienstleister für IT-Services und Product-Engineering und kompetenter Partner, der ein solches "Rollout" auch bereits in Nordeuropa erfolgreich abgeschlossen hat. Im April 2012 wurde dazu ein Rollout von 22.000 Smart Meter in Süden Schwedens begonnen - und erfolgreich durchgeführt, wie es in einem Bericht heißt: "The roll out was delivered on time and within budget on the 30th of November 2012. Tieto was responsible for planning, making all necessary end customer appointments, logistics of the meters, changing the meters in the field and secure that the meters are operational after installation. To do this we used a sub contracted field operator for the field services, the rest was run as a Tieto in house operation.

There are a lot of challenges pulling off a project like this, why we have used all the experience that we have to prepare carefully and set up a few quality KPI’s;

No or very few end customer complaintsUsually end customer complaints could be a huge problem due to quality issues in communication and in the field.Result: There was an unusual low level of end customer complaints and of very low significance.High hit rate and customer appointmentsIt is very difficult to secure that the customer is really home when appointed. Normally a result close to 90% is considered good. Result: Extremely high 96% hit rate of the customer opening the door for our field operators when appointed.Low number of “clean ups”Normally a number of meters does not communicate after installation, why “clean up” is needed.Result: We only needed to do clean up on 108 meters, which is a really low number.

EU-Vorgabe umsetzenDie EU hat die Vorgabe erteilt, dass in allen Mitgliedsländern die alten Stromzähler gegen die neuen „Smart Meter“ getauscht werden müssen. In Österreich ist die E-Control dafür zuständig, diese Richtlinie in österreichisches Recht umzulegen und die Rahmenbedingungen zu schaffen. Bis zum Jahr 2018 sollen in Österreich bereits 95% der alten Zähler gegen neue „Smart Meter“ ausgetauscht werden.Wenn Sie mehr darüber wissen wollen: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

  19361 Hits
19361 Hits

Das Verschwinden einer Grenze

Mit »Metro« hat Microsoft die Benutzerschnittstelle des Betriebssystems Windows vollständig neu gestaltet und damit einen wichtigen Schritt in Richtung Urbanität vollzogen. Wir alle werden in naher Zukunft anders arbeiten.Vor kurzem hat Steven Sinofsky, der Präsident der Windows-Division von Microsoft, bei der Entwicklerkonferenz Build in Kalifornien das neue Betriebssystem Metro mit den Satz »Wir haben Windows neu erfunden« vorgestellt. Und tatsächlich – das Betriebssystem ist gegenüber der Version 7 vollständig überarbeitet worden. Neben einer Vielzahl von Änderungen und Erweiterungen gegenüber der Vorgängerversion – es sollen mehr als 1700 sein – sticht vor allem eine Neuheit heraus: das User Interface.»Metro Style« wird die neue Benutzerschnittstelle genannt. Sie kann vollständig mit den Fingern bedient werden und ist auf den ersten Blick ein Graphic User Interface (GUI) für Tablets und Smartphones. Bei genauerem Hinsehen entpuppt  sich die scheinbar einfache Oberfläche als mächtiges und flexibles Instrument, welches nicht nur eine universelle Bedienung auf allen Arten von Geräten erlaubt, sondern auch eine Reihe von überaus innovativen Grundmechanismen bereitstellt, die über das Marktübliche weit hinausgehen. So sind beispielsweise nicht nur alle Programme, die unter Windows 7 laufen, auch unter Windows 8 lauffähig – nein, mit wenigen Änderungen können zusätzlich die neuen Features (Appstore, Virtualisierung, Kommunikation mit anderen Anwendungen und viele andere mehr) genutzt werden.Das Konzept des »Urban Working« hat Microsoft Office Labs bereits vor Jahren im Video »Microsoft Office Labs Vision 2019« wunderbar illustriert. Der wesentliche Punkt ist die Tatsache, dass unsere Anwendungen und unsere Daten uns begleiten werden und nicht die Geräte. In diesem Zusammenhang kann auch vom Verschwinden des Computers als sichtbares Gerät gesprochen werden. Windows 8 und das Metro Style GUI zeigt heute bereits auf, wie über verschiedenste Geräte hinweg mit ein und derselben Anwendung auf dieselben Daten unabhängig vom Ort zugegriffen werden kann. »Bring your own device (BYOD)« ist mit Windows 8 kein Thema mehr. Bereits heute können bestehende Desktopgeräte oder Laptops mit dem Windows 8 Metro Style User Interface für den Alltag im Geschäft eingesetzt werden. Dieselben Anwendungen, die wir in der Firma nutzen, können von zu Hause oder von unterwegs von Tablet PCs oder Smartphones aus bedient werden. Unsere Daten sind sicher und gut kontrollierbar in der Cloud gespeichert und universell verfügbar.Die Geräte werden wir noch nicht zum Verschwinden bringen, aber doch die leidige Grenze zwischen Arbeitsplatz und Leben. Freuen wir uns darauf.

  15169 Hits
15169 Hits

Persönlicher Coach

Die Kolumne zu E-Health und neuen Diensten. E-Health, einmal ganz menschlich. Oliver J. Wolff, Massive Art, beschreibt einen betont persönlichen Ansatz beim Monitoring von Vitaldaten.

  10954 Hits
10954 Hits

Intelligent wohnen, Energie gewinnen

Smarte Energieversorgung und ein flexibles Wohnkonzept bilden das Fundament eines »Plus-Energie-Hauses« in Hard in Vorarlberg.

  10563 Hits
10563 Hits

Flexibilität statt starre Angebote

Outsourcing kommt vom reinen Manöver zur Senkung von Kosten weg und wird zur strategischen Initiative. Zentrales Element ist die Flexibilisierung des Sourcing.Viele Unternehmen haben in den letzten Jahren die Prozesse für den operativen Betrieb ihrer Informationssysteme neu organisiert. In den meisten Fällen werden Services auf Basis der Best Practices der IT Infrastructure Library (ITIL) geführt und organisiert. Zusätzlich sind im Rahmen der Anstrengungen zur Kostenkontrolle Instrumente und Prozesse für das operative IT-Controlling eingeführt worden. Anforderungen werden in Service Level Agreements (SLA) formuliert und vertraglich festgelegt. Diese SLAs sind in den meisten Fällen einmalig festgelegt worden. Sie werden durch das IT-Controlling und eventuell sogar durch gezielte Audits geprüft, jedoch nur selten oder gar nicht den unternehmerischen Changeprozessen angepasst. Heute formulieren immer mehr Unternehmen die Anforderungen an die IT-Infrastruktur so, dass die IT Garantien bezüglich der Servicequalität abgeben muss. Um diese Garantien zu erfüllen, werden oftmals externe Leistungserbringern als Sourcingpartner herangezogen. Diese Praxis des Sourcing von IT-Dienstleistungen, also der längerfristige externe Bezug, hat sich in den letzten zehn Jahren zum Standard etabliert. Die meisten Unternehmen beziehen externe Leistungen, um die Bereitstellung und den Betrieb ihrer Informationssysteme zu gewährleisten. In der Praxis hat sich eine Vielzahl von Sourcingmodellen durchgesetzt. Zunehmend werden auch neue Modelle wie beispielsweise Shared Service Center entwickelt, um Informationssysteme zu betreiben. Der tägliche operative BetriebDie Unterstützung von Geschäftsprozessen durch Informationssysteme ist zur alltäglichen Selbstverständlichkeit in allen Betrieben geworden. Die eingesetzten Informationssystem und deren Komplexität fallen erst dann auf, wenn sie ausfallen. Jede IT-Betriebsorganisation ist darauf ausgelegt, mit proaktiven Aktivitäten diesen Ausfall zu vermeiden, respektive mit reaktiven Tätigkeiten schnell zu reagieren. Die proaktiven Aktivitäten umfassen zum Beispiel Upgrades von Applikationen, Operating System Releases, Security-Patches, Hardware- und Firmware-Upgrades. Diese Aktivitäten sind absehbare Tätigkeiten die zu geplanten Ausfallzeiten während Wartungsfenstern führen. Die reaktiven Maintenance-Aufgaben sind jedoch nicht planbar. Sie umfassen im weitesten Sinne Reparaturarbeiten, die aufgrund von Hardwarefehlern, Netzwerk- und Stromunterbrüchen und nicht zuletzt auch durch Fehler des Personals oder in der Bedienung des IT-Services verursacht werden. Beiden Tätigkeiten ist hierbei jedoch gemeinsam, dass die Anforderungen an den IT-Service in der Menge und Ausprägung der notwendigen Spezialisierung über die Zeit stark abweicht. Die meisten Unternehmen haben zu einem gegebenen Zeitpunkt entweder zuviel oder zuwenig Maintenance-Personal oder aber zuwenig oder nicht die benötigten Skills verfügbar. Besonders im Rahmen von ungeplanten Ausfällen sind dann die nötigen Qualifikationen und Erfahrungen nicht zeitnah verfügbar. Dies wirkt sich unmittelbar auf die Leistungsfähigkeit einer Verwaltung und eines Unternehmens aus. Die Flexibilität, die es braucht, um der Nachfrage nach IT-Services als Funktion der Zeit folgen zu können und dabei die nach wie vor steigende Komplexität des betrieblichen Ausnahmefalles professionell zu beherrschen, stellt hohe Anforderungen an das Sourcingmodell des Unternehmens und wird durch das klassische Outsourcing nicht abgedeckt.Die Lösung: Flexible Managed ServicesSo wie sich die Just-In–Time (JIT) Produktion längst in der Industrie durchgesetzt hat, so werden in Zukunft auch Anstrengungen unternommen werden, IT-Infrastrukturen als Flexible Managed Services bereit zu betreiben. Während die Hardwareindustrie mit "OnDemand Computing" und "Utility Computing" bereits über entsprechende Modelle verfügt, sind die meisten Sourcingmodelle in dieser Hinsicht noch relativ unflexibel. Der Bedarf an IT-Services, die dem planbaren aber auch dem nicht planbaren Bedarf an operativen Kapazitäten folgen können, wird klar steigen. Soll das Sourcing von IT-Services optimal den Bedarf decken, so sind weit mehr als eine ITIL-basierende Prozessorganisation mit definierten SLAs erforderlich; Es sollte ein genügend großer Pool von flexiblen Ressourcen mit breitem und spezialisiertem Wissen, welches rasch verfügbar ist, vorhanden sein. Außerdem ist die Nähe zum Kunden für die schnelle Reaktionszeit und das lösungsorientierte Handeln, Mitarbeitende, die sich ständig weiterbilden und somit immer auf dem neuesten Wissensstand sind und eine Organisation, die sowohl den Aufbau der Applikationen mit den darunter liegenden Komponenten (Datenbanken, Operating Systems, Netwerke und Sicherheits-Problematiken) beherrscht und deren Komplexität im Umfeld des Kunden ganzheitlich versteht, erforderlich. Outtasking als Umsetzung von Managed Services ist die ideale Basis dafür.

 
  14458 Hits
14458 Hits