REPORT | BLOG

Mehrwert für ManagerInnen

Steiniger Weg zum „Recht auf Vergessenwerden“

Am 21. Oktober 2013 hat der Innenausschuss des Europäischen Parlaments mehrheitlich über das Verhandlungsmandat zur neuen Datenschutzgrundverordnung abgestimmt. Mit 49 Ja-Stimmen, eine Gegenstimme und drei Enthaltungen gab es ein klares Votum für einen verbesserten Datenschutz in der Europäischen Union. Das war ein erster kleiner Teilsieg der Europäer im Kampf gegen die massive Lobby der amerikanischen Internet-Riesen Google und Facebook.

Der Berichterstatter des Europäischen Parlaments, Jan Philipp Albrecht (Member of European Parliament / MEP, Fraktion Die Grünen/EFA), war maßgeblich am Reformentwurf der neuen Datenschutzgrundverordnung beteiligt. Er dürfte sich in den vergangenen ein, zwei Jahren wie Don Quixote, der Mann aus La Mancha (Roman von Miguel de Cervantes) vorgekommen sein. Albrechts Windmühlen heißen im „digital age“ eben Facebook, Amazon, Google und Co.

Die Abstimmung im Innenausschuss wurde mehrmals verschoben. Denn es handelt sich bei der Datenschutzreform um eines der umfangreichsten Gesetzesvorhaben in der Geschichte der EU. Allein im Ausschuss selbst wurden 3.133 Änderungsanträge eingebracht. Die Liste der Lobby-Gruppen, die in Brüssel Einfluss auf die neuen Rechtsgrundlagen zum Datenschutz nehmen wollten und wollen, war sehr lang. In den vergangenen 14 Monaten haben sich Albrecht und sein Team mit 173 verschiedenen Interessengruppen getroffen und an 73 verschiedenen Veranstaltungen zum Datenschutz quer über den Kontinent teilgenommen. Im Sektorensplit der Treffen lagen, wie nicht anders zu erwarten, der Finanzsektor und Versicherungen (18,87 %) sowie Unternehmen und Unternehmensgruppen (17,45 %) ganz weit vorne.

Titanenkampf um das Geschäft im Internet
Sowohl die amerikanische Wirtschaft als auch ihre politische Führung bieten in diesem Titanenkampf um das Geschäft im Internet alles auf, um eine Verschärfung und Vereinheitlichung des europäischen Datenschutzes zu verhindern. Facebook hat mit Erika Mann als Cheflobbyistin in Brüssel eine ehemalige MEP (1994 bis 2009) aufgeboten, die weiß, wie die Uhren in den diversen Ausschüssen des Parlaments ticken. Auch vor bewusst gestreuten Falschmeldungen schrecken die US-Dominatoren des Webs nicht zurück. Immer wieder wird gegenüber Parlamentariern aller Coleurs der Teufel an die Wand gemalt: „Die Freiheit des Internets sei jetzt ernsthaft bedroht“, wenn Europa seine Datenschutzregelungen aus dem Jahr 1995 auf den heute erforderlichen Stand bringt.

Die Reform ist schon deswegen dringend, weil es Mitte der 90-er Jahre des letzten Jahrhunderts Social Media und Smart Phones noch gar nicht gab. Der letzte Rechtsrahmen stammt aus einer Zeit als Mark Zuckerberg gerade mal elf Jahre alt war. Es war den Mitgliedsländern der Union überlassen, wie sie diese europäischen Datenschutzrichtlinien in nationales Recht umsetzten. Das hat zu einem wahren Fleckerlteppich geführt. Denn die 28 Mitgliedsstaaten hatten auf dieser Grundlage die Möglichkeit, ungleiche Datenschutzbestimmungen zu implementieren. Konzerne wie Google oder Facebook haben bei diesem legistischen Szenario ihre Europa-Zentralen natürlich nach Irland verlegt, wo der Datenschutz in anglikanischer Denkart eher nachlässig ausgelegt und ausgeübt wird.

Datenschürfer in Goldgräber-Stimmung
Heute herrscht unter den Datenschürfern amerikanischen Zuschnitts eine wahre Goldgräber-Stimmung. Das hat auch seinen guten Grund – das Geschäft mit den Daten läuft prächtig. Richtig kompilierte Daten von Servicebenutzern mit ihren Vorlieben und Kaufgewohnheiten lassen die Kassen bei Social Network-Betreibern und Anbietern von Suchmaschinen klingeln. So stieg der Umsatz des weltweiten Internet-Anzeigenmarktes im Jahr 2012, im Vergleich zum Vorjahr, um sagenhafte 16,2 % auf 99 Milliarden Dollar. In den USA verdient Google inzwischen mehr mit Werbung als alle gedruckten Zeitungen und Zeitschriften zusammen.

Bei der Fülle an digitalen Spuren, die wir alle im Internet hinterlassen, liegt das Geld sozusagen auf der Straße. 2011 überstieg die Menge digitaler Informationen, die weltweit kreiiert und repliziert wurde 1,8 Zettabyte (1,8 Milliarden Gigabyte). 75 % dieser Informationen stammen von privaten Nutzern sozialer Netzwerke und neuer Medienforen wie Blogs. Facebook hatte Ende 2011 an die 845 Millionen aktive monatliche User, die zusammen einen Content von 30 Milliarden Informationseinheiten (Einträge, Fotos, Videos etc.) teilten.

Angesichts dieser „Big Data“ kommt der europäische Vorstoß zur rechten Zeit. Die informationelle Selbstbestimmung gibt es bislang nur im deutschen Grundrecht. Hinkünftig soll diese Autonomie von Dateninhabern einheitlich quer über das gesamte Territorium der Europäischen Union gelten. In Amerika hat Privatheit einen ganz anderen Stellenwert als in Europa. Zuckerberg hält „privacy“ für ein Auslaufmodell. In den USA werden die Menschen mit ihrem materiellen Eigentum (Haus, Auto) nur vor Zugriffen des Staates geschützt. Vor Unternehmen, die in hoch kapitalistischer Verwertungsökonomie persönliche Daten ihrer Kunden zusammentragen und mit IT-Unterstützung zu Profilen aggregieren, schützt sie niemand.

Die neue europaweite Datenschutzgrundverordnung sieht eine Harmonisierung der Datenschutzstandards vor. Damit soll künftig ein „Forum Shopping“ unterbunden werden, d.h. Unternehmen werden sich als Niederlassungsstandort nicht mehr jenen Mitgliedsstaat aussuchen können, der die niedrigsten Standards aufweist. Der Reformentwurf geht sogar einen Schritt in zwei Richtungen weiter: Die Standards gelten in Europa für alle, für BürgerInnen der Mitgliedsstaaten gleichermaßen wie für zugewanderte Bürger. Und sie gelten für Europäer auch jenseits der territorialen Grenzen der Union.

Das Recht auf Löschung
Die zentralen Punkte in der neuen Datenschutzgrundverordnung sind die Rechte auf Löschung, Auskunft und Korrektur (das Recht auf Vergessenwerden), die explizite Einwilligung zur Verarbeitung von Daten sowie eine verbesserte Transparenz durch Informationspflicht von Serviceanbietern hinsichtlich der Weitergabe von Daten. An Strafverfolgungsbehörden in Drittstaaten etwa dürfen personenbezogene Daten künftig von Telekommunikations- und Internet-Anbietern nur dann weiter gegeben werden, wenn sie auf der Grundlage europäischen Rechts oder daraus abgeleiteter Rechtshilfeabkommen mit Behörden in Drittstaaten beruhen. Mit einer zukunftstauglichen Definition will die Verordnung auch klar festlegen, was als ‚personenbezogene Daten‘ gilt. Im Grunde sind dies alle Informationen, die einer Person zugeordnet werden können, und die es erlauben, diese Person aus einer Menge von Menschen herauszufiltern und zu identifizieren.

Natürlich braucht es für einen zeitgemäßen, funktionierenden Datenschutz ein entsprechendes Durchgriffsrecht, die Verletzung von Bestimmungen zu ahnden. Und diese Sanktionen gegen Verstöße müssen strikt sein! Daher sollen Unternehmen bis zu 5 % des Jahresumsatzes zahlen, wenn sie das Gesetz nicht einhalten. Das kann bei großen Konzernen schon in die Milliarden gehen und wird verhindern, dass die Umgehung der Datenschutzvorschriften im Business-Modell einfach einkalkuliert wird.

Durchgriffsrecht bei Datenschutz
Weiters sieht die Verordnung „Privacy by design“ (by default) vor, weshalb Angebote von Dienstleistern künftig möglichst datensparsam konzipiert werden müssen. Es dürfen also nur Daten erhoben werden, die für die Erbringung einer Leistung absolut erforderlich sind.

Gleichzeitig strebt man in Brüssel weniger Bürokratie an. Die Ernennung von Datenschutzbeauftragen richtet sich nach der Menge der verarbeiteten Daten und nicht nach der Anzahl der Mitarbeiter.

Eine einheitliche Rechtsdurchsetzung durch eine europäische Datenschutzaufsicht ähnlich der EU-Bankenaufsicht und ein „One-Stop-Shop“-Ansatz für Bürger bei Beschwerden (Nationale Datenschutzbehörde im jeweiligen Mitgliedsland, Schlichtungsverfahren vor dem neu gegründeten europäischen Datenschutzausschuss) runden das Reformwerk ab.

Laufend qualifizieren, modifizieren und optimieren
Der Weg bis zum Inkrafttreten der Datenschutzgrundverordnung bleibt jedoch ein steiniger. Kenner der europäischen Institutionen bezweifeln, ob es sich bis zu den Wahlen zum Europa-Parlament im nächsten Frühjahr ausgehen wird. Das US-Lobbying gegen die Datenschutzreform wird in den kommenden Wochen munter weiter gehen. Nicht nur Abgeordnete des federführenden LIBE-Ausschusses (Bürgerliche Freiheiten, Justiz und Inneres) werden für das weitere Gesetzwerdungs-procedere für US-Positionen geködert, auch Abgeordnete der mitberatenden Ausschüsse ITRE (Industrie, Forschung und Energie), IMCO (Binnenmarkt und Verbraucherrechte) und JURI (Rechtsausschuss) sind Ziele der amerikanischen Interessengruppen. Das Europa-Parlament sollte sich in seiner Gesamtheit zumindest dazu bekennen, dass das neue Regelwerk die Leitlinie von 1995 als Ausgangspunkt nimmt und dann in ihrer Dimension zeitgemäß darüber hinausgeht (Voss-Bericht 2011).

Die weitere Vorgangsweise sieht eine Einigung im Rat vor. Auch das wird schwierig, weil national schon viele Politiker Änderungen monieren. Dies geschieht weil die Politik die Wirtschaftsinteressen von Konzernen berücksichtigen möchte. Danach stehen die Trilog-Verhandlungen zwischen Europäischem Parlament, Rat und Kommission an, bevor die Datenschutzgrundverordnung in Kraft treten kann.

Weitreichende Datenschutzstandards haben einen großen Impact auf die Nutzung von Zukunftstechnologien, bei denen Trust im Vordergrund steht. Cloud Computing kann von besseren und einheitlichen Standards in Europa nur profitieren. Trotzdem bleibt es immer eine schmale Gratwanderung zwischen dem Recht auf freien Informationsfluss und dem Recht auf Privatsphäre. Hier muss der endgültige Gesetzestext klar und unmissverständlich eine gewogene Balance finden.

Man könnte sagen, die Whistleblower-Enthüllungen von Edward Snowden über die Machenschaften der NSA kamen für Jan Philipp Albrecht bei der Formulierung der Verordnung zur rechten Zeit. So könnten die unliebsamen Details über die Abhörung der deutschen Bundeskanzlerin Angela Merkel und der brasilianischen Präsidentin Dilma Rousseff auch zu einem verbesserten europäischen Datenschutz führen.

Die Staatschefin aus Brasilien zeigte sich mit einer Brandrede vor der UN-Vollversammlung wild entschlossen, ein post-amerikanisches Internetzeitalter zu begründen und dabei auf Europa zu vertrauen. „Das Recht und die Sicherheit der Bürger eines Landes dürfen niemals auf die Verletzung grundlegender Menschenrechte der Bürger eines anderen Landes gegründet werden“. In dieser Hinsicht ähneln sich die Rechtsauffassungen in Europa und Lateinamerika. Brasilien möchte mit Glasfaserkabeln im eigenen Land und nach Europa auch technisch die amerikanische Hegemonie beim Datenverkehr brechen und eine starke Achse zur EU aufbauen. „Amerika sieht ganze Völker und Weltregionen machtpolitisch nur als Datencluster. Seine Internet-Wirtschaft ordnet alles dem privaten Gewinnstreben unter. Der ganzen Welt soll vorgegaukelt werden, Amerikas Handeln sei eine emanzipatorische Wohltat am Menschengeschlecht“, wie es Matthias Rüb, Korrespondent der FAZ für Lateinamerika formulierte.

Verbesserter Datenschutz und technologischer Aufbau sowie Stärkung eigener Infrastrukturen werden künftig wohl Hand in Hand gehen müssen. Europa wird dies etwas stiller und diplomatischer anlegen als die brasilianische Staatschefin mit ihrem Manifest für ein neues Internet. Die abhörsicheren Technologien stünden in Europa schon zur Verfügung, so z.B. die an der Wiener Akademie der Wissenschaften im Team von Professor Anton Zeilinger (Österreichischer Quantenphysiker) stark weiter entwickelte Quantenkryptografie. Einem Durchbruch auf europäischer Ebene steht eigentlich nur der fehlende gemeinsame Wille entgegen. Den Kinderschuhen, sprich dem Labor, ist dieser Quantensprung bei Daten-Security längst entwachsen.

In Europa besteht die einmalige Chance Recht und Technologie so zu vernetzen, dass das Vertrauen der Wirtschaft und der Bürger in die virtuelle Welt wieder vollends hergestellt werden kann.

Erstveröffentlichung des Beitrags am 26. 10. 2013  in dem Blog United Clouds of Europa.

  19075 Hits
19075 Hits

Cyberkriminalität: Versichern ist gut, verhindern ist besser!

Über 10.000 Anzeigen wegen Cyber-Kriminalität gab es laut Bundeskriminalamt alleine im letzten Jahr in Österreich. Das größte Problem stellt hierbei die zunehmende Digitalisierung und Vernetzung mit dem Internet dar. Und trotz der hohen Schäden, die für Unternehmen durch Cyberkriminalität entstehen, sparen viele am falschen Ende.

Die Zahlen geben zu denken: Jedes vierte Unternehmen im deutschsprachigen Raum fiel nach Angaben von KPMG in den vergangenen zwei Jahren bereits den sogenannten „E-Crimes“ zum Opfer. Die dabei angerichteten Schäden belaufen sich im Durchschnitt auf 400.000 Euro. Ob Datenmanipulation oder Identitätsdiebstahl:  die Täter sind trickreich und das erschwert die Aufklärung zusätzlich. Die Aufklärungsquote liegt bei unter 25 Prozent – Tendenz fallend*. Seit kurzem bieten nun Versicherungsunternehmen wie z.B. Allianz oder HDI spezielle Versicherungen gegen Cyberkriminalität an, die zumindest die materiellen Schäden eines Angriffs abdecken sollen.

Eine Versicherung gegen Cyberkriminalität ist ein wichtiger und begrüßenswerter Schritt, denn so kann im Ernstfall der finanzielle Schaden aufgefangen werden. Bei den steigenden Angriffen  aus dem Netz wird es jedoch immer wichtiger schon vorher anzusetzen und den Tätern den Zugang zu wichtigen Unternehmensdaten gar nicht erst zu ermöglichen.

IT-Sicherheitslücken im Unternehmen müssen identifiziert und geschlossen werden. Hier gilt dem Router als zentrale Schnittstelle zum Internet besondere Aufmerksamkeit. Weist der Router Sicherheitslücken oder Backdoors auf – dahinter verbergen sich vom Hersteller eingebaute, versteckte Zugangsmöglichkeiten zur Gerätekonfiguration – öffnet er Angreifern und Konkurrenten Tür und Tor.

Gerade in kleineren Unternehmen oder im Mittelstand kommt es häufig vor, dass statt professioneller Lösungen Consumer-Produkte eingesetzt werden – eine nur auf den ersten Blick „günstigere“ Wahl. Wer hingegen auf geprüfte, Backdoor-freie Netzwerk-Router sowie eine gesicherte WLAN-Infrastruktur setzt, macht Cyberkriminellen das Leben schwer und kann so Datenraub verhindern. Denn was nützt eine Versicherung, wenn die Reputation eines Unternehmens durch Cyber-Kriminalität leidet oder gar wichtige Kunden abspringen?

Ziel sollte es also sein, Tätern den Zugang zu sensiblen Daten gar nicht erst zu ermöglichen und Cyber-Attacken von vornherein zu verhindern. Schützen Sie also zuerst Ihre IT-Infrastruktur und versichern diese anschließend.

* laut Cyber-Crime Report 2012 des Bundeskriminalamts


undefined

undefined

undefined

undefined

  17786 Hits
17786 Hits

EU-Vorschlag zum Telekommunikationsmarkt verfehlt sein hehres Ziel

„Die großen Internet-Konzerne dürften sich ins Fäustchen lachen, angesichts der neuesten Ideen, die EU-Kommissarin Neelie Kroes in ihrem Entwurf für einen gemeinsamen europäischen Telekommunikationsmarkt vorstellt. Schön weit hinten im Papier, auf Seite 36, steht der Satz, der alles verändern kann. Geht es nach Kroes, dürfen Diensteanbieter und Provider in Zukunft untereinander vertraglich vereinbaren, wie der Internet-Verkehr zu den einzelnen Diensten geregelt wird. Zu Deutsch: wer bezahlt, kann sich so eine bislang undenkbare Vorzugsbehandlung erkaufen.

Das hehre Ziel des Papiers, Wettbewerb zu fördern und Wachstum zu bringen, wird damit ad absurdum geführt. Im Gegenteil: es bringt eine massive Benachteiligung kleiner, innovativer Diensteanbieter – und eine inakzeptable Bevormundung der User. Denn machen wir uns nichts vor. Ein neuer Dienst kann noch so attraktiv sein – wenn es ruckelt und zuckt, wird er sich nicht durchsetzen. Und die Großen lachen sich ins Fäustchen – unliebsame Konkurrenz kann so erst gar nicht erstarken.

Dass die Provider die Idee dennoch begrüßen, ist verständlich. Der Netzausbau kostet Geld, und es wird immer schwieriger, dieses Geld wieder einzuspielen. Und natürlich sollen sie die Möglichkeit bekommen, über neue Dienste und Geschäftsmodelle genau dies zu tun – da kommt der Vorschlag von Frau Kroes und die damit neue Einnahmequelle gerade recht. Doch der Weg ist der Falsche. Das Internet ist nicht der richtige Ort für intransparente Absprachen, gegen die sich die User nicht wehren können und die das Potential haben, ihr Kommunikationsverhalten zu verändern. Da stellt sich die Frage, ob die Kommissarin das Prinzip des Netzes überhaupt verstanden hat?

Ehrlicher wäre es, den Kunden die Wahl zu lassen: Wer schneller oder mehr surfen will, darf gerne auch stärker zur Kasse gebeten werden. Auch bei den Geschäftskunden dürfte sich ein solcher Ansatz durchsetzen lassen. Hier ist man es gewohnt, für mehr Leistung auch mehr zu bezahlen.

  16185 Hits
16185 Hits

„Aufgelockerte Bewölkung“ im Cloud-Konzept – reicht das?

Würde man CIOs dazu befragen, was die wichtigsten Vorteile von Cloud-basierten Business-Anwendungen sind, erhielte man wahrscheinlich  eine Reihe unterschiedlicher Antworten: manche würden die höhere Flexibilität durch die Cloud-Anwendungen nennen, manche würden wieder verbesserte Zusammenarbeit mit Kollegen aus anderen Abteilungen oder Niederlassungen ins Feld führen. Andere wiederum erachten ortsunabhängiges Arbeiten, niedrigere TCO oder einfachere Kostenkontrolle als wesentliche Vorteile. Aber am Ende laufen all diese Vorteile auf eines hinaus: Cloud-Anwendungen ermöglichen spürbare Produktivitätssteigerungen für Unternehmen.

Dieser Ansatz ist schon seit längerem bekannt und nicht neu. Was neu ist, ist die Tatsache, dass viele Unternehmen nicht in vollem Ausmaß von diesen Vorteilen profitieren.

Eine neue Studie* zeigt, dass 83 Prozent der Unternehmen in Europa von den Cloud-Anwendungen in ihren jeweiligen Abteilungen nicht optimal profitieren. Jedes vierte Unternehmen macht dafür die ungenügende Integration mit anderen Geschäftsanwendungen verantwortlich. 75 Prozent sehen auch ihr Innovationspotenzial beim Einsatz von Cloud-Anwendungen beeinträchtigt, wofür wiederum 51 Prozent ebenfalls einen Mangel an Integration als Ursache nennt.  Mehr als die Hälfte der Befragten geben an, dass schon einmal Projekttermine nicht eingehalten werden konnten (52 Prozent) und ihre Abteilung in den letzten sechs Monaten Ausfallzeiten zu verzeichnen hatte (54 Prozent). Genau bei diesen Herausforderungen sollte eine Cloud-Anwendung ansetzen und Verbesserungen herbeiführen können.

Integrierte Cloud-Strategie

Der Schlüssel dazu ist die Integration. Cloud-Anwendungen haben wirklich ein hohes Verbesserungspotenzial für Unternehmen, aber nur, wenn sie richtig eingesetzt werden. Richtig heisst in diesem Zusammenhang „integriert mit allen notwendigen on premise Applikationen“ oder über einen gesamtheitlichen Cloud Ansatz. Durch mangelnde Integration werden die Cloud-Anwendungen isoliert und können daher den erwünschten Produktivitätsgewinn nicht erwirtschaften.

Continue reading
  20136 Hits
20136 Hits

Politik der harten Bretter

»Politik ist immer ein Bohren harter Bretter«, sagte SPÖ-Energiesprecher Wolfgang Katzian bei einer grandios guten Veranstaltung von Oesterreichs Energie im Vorfeld der Nationalratswahl. Der Verband hatte Ende Juni zu einem Podiumsgespräch der Energiesprecher der größeren wahlwerbenden Parteien geladen. Das Interesse an den Inhalten war groß und die Parteienvertreter enttäuschten auch nicht. Alle – SPÖ, ÖVP, FPÖ, Die Grünen, BZÖ und Team Stronach – waren sich einig: Energieunabhängigkeit für Europa, Ausbau der Netze und Erneuerbaren.

Im Detail gab es bei den politischen Zielen freilich Unterschiede: Die einen setzten auf den gewohnten Konsens auch bei Umweltverträglichkeitsprüfungen und Fördermodellen, die anderen auf den schnelleren Ausbau von Wasserkraft und Netzen. »Ein Biber darf nicht ein Projekt zu Fall bringen«, fomulierte es Robert Lugar, Team Stronach, plakativ. In Acht nehmen sollten sich die Eigentümer der Energieversorger vor dem Wunsch des BZÖ, das mit politisch besetzten Aufsichtsräten und Vorständen Schluss machen will.

Wer weiß, vielleicht ist das aber auch der richtige Weg in einer Landschaft, in der lokale Wählerstimmen mehr zählen als ein größerer Plan für die Energiezukunft unseres Landes. Diese Zukunft, und damit sollten wir zur Wahl nach Deutschland blicken, wird stark von der politischen Linie unseres großen Nachbarn geformt. Was in Deutschland gefördert und umgesetzt wird, bestimmt den Strompreis in Europa – und damit auch das Energiegefüge Österreichs.

  16941 Hits
16941 Hits

So schützen Sie sich vor Ausspähungen durch NSA und GCHQ

Die jüngsten Erkenntnisse über die Aktivitäten der NSA und des britischen Geheimdienstes GCHQ hinsichtlich des Abhörens SSL-verschlüsselter Daten belegen einmal mehr, wie wichtig es ist, auf vertrauenswürdige Lösungen zu setzen. Unternehmen, die ihre vertraulichen Daten und Datenverbindungen effektiv absichern möchten, müssen einige Punkte beachten.

1. SSL ist eine Internet-Verschlüsselungstechnologie, die nicht dazu entwickelt wurde, standortübergreifende Unternehmensnetze abzusichern. Die professionelle Lösung sind IPsec-basierte Virtuelle Private Netze (IPsec VPN).

2. Der Verdacht, ausländische Geheimdienste würden eng mit nationalen Technologieanbietern zusammen arbeiten, um gezielt Hintertüren (Backdoors) in Software und Hardware einzubauen, ist nicht neu. Die sichere Alternative sind vertrauenswürdige Produkte europäischer Hersteller, die sich offen verpflichten, ihre Produkte frei von Backdoors zu halten.

3. Der Verdacht, NSA und GCHQ hätten sich Zugang zu den Zertifikaten von Certificate Authorities (CAs) verschafft, wiegt schwer. Die sichere Alternative sind Zertifikate von vertrauenswürdigen CA-Anbietern, Unternehmens-eigenen CAs oder selbstsignierte Zertifikate.

4. Unternehmen, die ihre Daten in der Cloud ablegen, sollten zukünftig nicht nur darauf achten, wo die Daten gespeichert werden und ob diese US-amerikanischem Recht unterliegen. Auch die Zugänge müssen anders als bislang oft üblich über SSL abgesichert werden. Auch hier ist IPsec die sichere Alternative.

Für Verbraucher sind die aktuellen Enthüllungen erschreckend. SSL wird heute milliardenfach genutzt, um z. B. Online-Banking, Shopping oder Flugbuchungen abzusichern. Sie können nicht auf andere Technologien ausweichen.

Für Unternehmen gibt es jedoch vertrauenswürdige Alternativen, die weder US-amerikanischem Recht noch dem Zugriff von NSA und GCHQ unterliegen. Wenn sie vertrauenswürdige Produkte europäischer Hersteller einsetzen, die auf IPsec basieren und zusätzlich über vertrauenswürdige Zertifikate abgesichert sind, sind sie auf der sicheren Seite.

  15907 Hits
15907 Hits

Router Backdoors sind eine größere Gefahr als PRISM und Co.

Seit Bekanntwerden der NSA-Affäre fürchten viele Firmen erstmals ganz konkret, dass ihre Kommunikation im großen Stil abgehört wird. Die Angst ist berechtigt, schließlich verursachen Cyber-Spionage und Konkurrenzausspähung jährlich Schäden allein in Österreich in dreistelliger Millionenhöhe.

Doch während es bei PRISM und Co. um das Abhören externer Datenströme im Internet geht, gefährden Sicherheitslücken in Hard- und Software die hochvertraulichen Informationen innerhalb der Firmennetze. Und damit das Wertvollste, was viele Unternehmen besitzen: ihr Wissen.

Besonders erschreckend ist, wie viele der heute erhältlichen Netzwerkgeräte erhebliche Sicherheitslücken aufweisen. Sei es als Folge fehlerhafter Programmierung, ungenügender Sicherheitsmechanismen oder mangelhafter Testroutinen. Günstige Nachahmerprodukte, bei denen der geringe Preis oft wenig Raum lässt für eine umfangreiche Qualitätssicherung, sind hiervon besonders häufig betroffen.

Besonders kritisch wird es, wenn die zentrale Schnittstelle zum Internet – der Router – Sicherheitslücken aufweist. Exploits stehen hier auf der Tagesordnung: Hacker nutzen bekannte Schwachstellen systematisch aus, um in Geräte und Netze einzudringen, bevor ein geeigneter Patch zur Verfügung steht. Schnell ist über eine solche Lücke ein gefährliches Schadprogramm eingeschleust – mit oft unüberschaubaren Folgen.

Kein Fehler – dafür aber ein nicht mindergroßes Sicherheitsrisiko – sind bewusst eingebaute Hintertüren. Einige Hersteller nutzen diese sogenannten Backdoors als Service- oder Debug-Schnittstellen zu den Geräten ihrer Kunden. Wieder andere sind aufgrund von Regierungsvorgaben verpflichtet, Backdoors in IT-Infrastrukturprodukte einzubauen, um Strafverfolgern und Geheimdiensten Zugriff auf die darüber laufende Kommunikation zu bieten. Ihnen allen gemein ist jedoch eines: sie bieten Hackern einen mehr oder weniger bekannten und oft leicht zu öffnenden Zugang zu Unternehmens- und Behördennetzen und dem darin verborgenen Wissen. Nicht selten passiert es, dass sich die Eindringlinge Monate bis Jahre unbemerkt durch die Datenbestände der Unternehmen arbeiten und wertvolles Knowhow oder sensible Daten abziehen.

Continue reading
  16476 Hits
16476 Hits

Was hat IT mit Digitalem Marketing zu tun?

Digitale Technologien sind aus unserem Leben nicht mehr wegzudenken, sind doch Mobile Devices oder die Nutzung von Social Media heutzutage zur Selbstverständlichkeit geworden. Marketingverantwortliche haben diesen Trend und die damit einhergehenden radikalen Änderungen des Konsumentenverhaltens bereits erkannt.

Ob ein Produkt ein Hit oder ein Flop wird, hängt heute nicht mehr allein davon ab, ob die Käuferschicht vom Kosten-Nutzen-Aspekt, der Funktionalität oder vom Design überzeugt ist. Meinungsbildung über Produkte erfolgt in sozialen Netzwerken in ungewohnter Dynamik und stellt somit Unternehmen vor neue Herausforderungen. Vor allem die Geschwindigkeit und die Tragweite dieser Prozesse sind atemberaubend. Soziale Medien ermöglichen eine höhere Interaktion mit dem Käufer, die Konsumenten können einer Marke gegenüber aber auch schneller untreu werden, die Konkurrenz ist ja nur einen „Mausklick“ entfernt.

Hier kann die Informationstechnologie das Marketing punktgenau unterstützen. IT-Anbieter haben Lösungen entwickelt, die den  Kunden helfen, die Meinungsbildung zu den eigenen Produkten als auch das Kaufverhalten ihrer Kunden zeitnah und laufend zu erkennen. Diese Lösungen bedienen sich dabei eben nicht nur den klassischen Kunden/Lieferanten-Kommunikationswegen, sondern benutzen auch die digitalen Medien und die Fußspuren die Kunden darin hinterlassen.

Wir subsummieren diese Lösungen unter dem Begriff „Customer Experience“.  Es ist wichtig früh zu erkennen, wenn Produkte nicht angenommen oder kritisiert werden. Früher haben Unternehmen Geld in Marktforschung gesteckt, um Informationen über Bedürfnisse der Kunden zu bekommen. Heute findet man solche Informationen unter anderem in digitalen, sozialen Netzwerken.

Die Oracle-Lösungen helfen nicht nur dabei, das Produktangebot bestmöglich zu präsentieren, sondern auch dabei, das gesamte virtuelle Erscheinungsbild eines Unternehmens zu gestalten.  Die Betonung liegt hier auf „gesamtes“ Erscheinungsbild. Dies umfasst, wenn möglich, alle Interaktionspunkte zwischen Kunden und Lieferant, egal ob persönlich, telefonisch oder digital.  Je stimmiger dieses Erscheinungsbild ist, desto vertrauensvoller wird das Unternehmen und seine Botschaften wahrgenommen.

Continue reading
  17052 Hits
17052 Hits

Warum SaaS Sinn macht?

 

Heutzutage hat jeder schon von „Cloud“ gehört. In den letzten Jahren haben sich die IT-Industrie, Berater sowie die Medien intensiv damit beschäftigt, was Cloud Computing eigentlich ist und, vielleicht noch wichtiger, welche Vorteile sich dadurch für Unternehmen ergeben.

Der Fokus wird hier häufig auf die Verschiebung von Kapitalaufwendungen (CAPEX) zu Betriebsausgaben (OPEX) gelegt. Ebenso häufig geht es um IT-Probleme wie Skalierbarkeit, Flexibilität oder On-Demand-Kapazität. Auch dass die Komplexität des IT-Managements reduziert werden kann und sich der IT-Manager aufgrund freiwerdender Kapazitäten auf Lösungen konzentrieren kann, die dem Unternehmen Wettbewerbsvorteile bringen, werden als Vorteile angeführt. 

Während jedes dieser Argumente seine Berechtigung hat, überschatten sie oft eine der spannendsten Diskussionen. Damit meine ich, dass die Idee, Business-Anwendungen  in der Cloud durch ein Software-as-a-Service (SaaS)-Modell per Abonnement zu bezahlen,  mehr Vorteile bietet. Insbesondere macht es den Weg frei für Innovation und neue Technologien.

SaaS selbst ist kein neues Konzept. In der Tat kann seine Entwicklung  bis in die späten 1990er Jahre zurückverfolgt werden, als webbasierte Anwendungen, die von Application Service Providern (ASPs) geliefert wurden, die Fantasie vieler  IT-Manager anregten. Erste Anwendungen haben sich oft auf Sales Force Automation (SFA), Customer Relationship Management (CRM) sowie Web-Content-Management konzentriert.

Continue reading
  17043 Hits
17043 Hits

Garant für die hintere Reihe

Alles beim Alten in Europa. Die EU-Kommission diskutiert neue Förderungen für Atomkraftwerke, das Bahnnetz schrumpft weiter und die Autobahnen werden kräftig ausgebaut. Wenn es ums Thema Infrastruktur geht, denken wir zuerst an Wasser und Asphalt. Die Netze der Informations- und Kommunikationstechnologien kommen in den Überlegungen der Politik kaum vor.

Rühmliche Ausnahme der traditionellen Missachtung des Konjunkturfaktors IKT sind jene 250 Mio. Euro aus den Erlösen der Frequenzversteigerungen im Herbst, die Infrastrukturministerin Doris Bures für den Breitbandausbau versprochen hat. Wenigstens fließt nicht der gesamte Inhalt des Versteigerungstopfes in den Wohnbau, dem der Rest zugesagt ist! Es zeigt sich: Die Bauwirtschaft ist im Lobbying seit jeher um Welten besser aufgestellt.

Was haben die IKT-Branche, und allen voran die Mobilfunker, da falsch gemacht? Zwei Dinge: Zum einen ist der Mobilfunk in den Anfangsjahren der Eroberung des Sprachtelefoniemarktes so erfolgreich gewesen, dass sich die klingelnden Kassen uns allen eingeprägt haben. Dieses Image hält nachhaltig an. Das gegenwärtige Herausapern von Korruptionsfällen und Parteienfinanzierungen rund um die Telekom sind Versatzstücke des Bühnenspiels IKT in Österreich, in dem die Telekom eine Hauptrolle unter den Melkkühen gespielt hat. Doch sind die goldenen Zeiten vorbei.

Heute schlägt die heimische Marktregulierung unter EU-Flagge in die Gegenrichtung aus und dreht so wichtige Einnahmequellen wie das Roaming ab. Derweil ist in der Politik gegenüber der IKT so weit Verständnis aufgekommen, dass bei Branchenevents anwesende Regierungsvertreter gebetsmühlenartig auf die Gefahren und Risiken des Internets verweisen. Das aber ist ebenfalls gefährlich: Sich zu ducken und traditionell österreichisch abzuwarten ist in der immer noch schnell wachsenden IT ein Garant für eine der hinteren Reihen unter den Wirtschaftsstandorten.

  18098 Hits
18098 Hits

Snowdon oder "Snowdown"

Wie Schuppen von den Augen oder einfach Schnee vom Himmel so fällt es den naiven Menschen plötzlich auf, dass moderne Kommunikationstechnologie gespeichert, überwacht und möglicherweise ausgenützt werden kann. Ob die Tätigkeit der NSA in Ordnung ist oder nicht ist schwer zu beantworten. Sie unterliegt letztendlich dem nationalen Interesse der USA. Man kann dem amerikanischen Argument durchaus folgen, wenn es für Geheimdienste darum geht, Informationen zu sammeln, und das auch geheim.

Tatsache ist, dass wir alle Informationen sammeln. Wir sind als Menschen mit dieser Sammlerneigung aufgewachsen. So gehen wir doch alle mit den sozialen Netzwerken, mit der Übermittlung von SMS oder ganz einfach mit Mails sehr sorglos um. In unserer Naivität glauben wir an das Gute im Menschen, dass er diese Informationen nicht ausnutzt. Es sind aber die Systeme, die ja von sich aus schon alles speichern, was über sie läuft. Also versuchen wir doch ein wenig rationaler an die Problematik „Snowdon“ heranzugehen. Dabei muss es primär darum gehen, wie man mit der Tatsache des Datensammelns an sich umgeht, und nicht zuerst gleich nach den Schuldigen sucht.

Da ist ein junger Mann, der sich freiwillig in ein Arbeitsverhältnis mit einem Nachrichtendienst begibt. Vertraglich sich zur Verschwiegenheit verpflichtet und dann ganz plötzlich erkennt, dass er die Arbeit mit seinem Gewissen nicht vereinbaren kann? Schwer zu glauben, dass da nicht ein anderer Gedanke dahintersteckt. Eine von vorne herein geplante Absicht des Aufdeckens lässt sich durchaus erahnen. Oder es ist ein Sendungsbewusstsein welches ihm ermöglicht, sich im Lichte der Öffentlichkeit zu sonnen? Schwer auszumachen, was wirklich dahinter steckt.

Sachlich gesehen, hat dieser Mann eine Straftat begangen. Dass er die Folgen nicht wirklich durchdacht hat, zeigt sich ja in der Bemühung nicht nur in einem Land politisches Asyl zu bekommen, sondern er probiert es gleich in mehreren. Bemerkenswert ist, wenn sich Politiker dann für diese Person stark machen, aber gleichzeitig Menschen den Zutritt in ihre Länder verwehren, die wirklich unter politischen Regimen gelitten haben. Der Januskopf war nicht nur auf alten Münzen abgebildet, er ist heute in der Politik durchaus vorhanden.

Und auf der anderen Seite sehen wir eine Naivität der Politik, welche noch immer nicht die Vernetzung unserer Welt, der Gesellschaft, der Wirtschaft ja unseres täglichen Lebens erkannt hat. Oder will sie uns was anderes verkaufen? Man kann in dieser vernetzten Welt nicht mit den Mitteln der Vergangenheit agieren. Das zunehmende Besinnen auf die nationalen Bedürfnisse kann dieser Entwicklung nicht gegenwirken. Wir brauchen mehr internationales Denken und damit auch in vielen Bereichen Vereinbarungen, die über unser „Kleinbürgertum“ hinausgeht.

Es ist schön, wenn die deutsche Justizministerin feststellt, dass das Sammeln von Daten durch die NSA das deutsche Grundgesetz verletzt. Hat sie eigentlich verstanden, dass moderne Technologien der Kommunikation keine Grenzen kennen? Wenn sich Vertreter der EU im gleichen Sinn beklagen, so ist es doch ein Ausdruck der Schwäche dieses angeblich gemeinsamen Europas. Hier kann nur aus einer Position der Stärke heraus agiert werden und nicht jeder für sich alleine.

Also mehr Mut, meine Damen und Herren der Politik. Die Kontrolle der Systeme ist wichtiger als die Krümmung der Bananen, oder die ähnlich klingenden Namen von Getränken in Italien oder Kroatien.

  13956 Hits
13956 Hits

Die dritte Plattform

Der mobile Arbeitsplatz verändert die IT-Infrastruktur eines Unternehmens bezüglich Datenhaltung, Sicherheit und Verwaltung: Die Anforderungen der sogenannten dritten Plattform erfordern neue Konzepte und Strategien: weg vom Rechenzentrum hin zu adaptiven Infrastrukturen. Was bedeutet das?

Drei Themen prägen gemäss Analysten wie Gartner, Forrester und IDC dieses Jahr den Markt. Es ist der mobile Arbeitsplatz, Cloud Computing und Big Data. So werden gemäss IDC die weltweiten Ausgaben für die IT im Jahr 2013 um 5,7 Prozent auf über 2 Billiarden Dollar wachsen. Über 50 Prozent dieses Wachstums macht die Zunahme der Verkäufe von Tablets, Smartphones und anderen mobilen Geräten aus. Der zweite stark wachsende Bereich ist der Markt für Cloud Computing, da sind gemäss Gartner und Forrester zweistellige Wachstumsraten zu erwarten. Betrachtet man lediglich die Wachstumszahlen, explodiert zwar der Markt für Big Data – es ist von bis zu 58 Prozent Wachstum dieses Jahr die Rede. In absoluten Zahlen jedoch bestimmt dieses Thema die Marktentwicklung nicht im selben Ausmass wie die anderen beiden Themen Mobile und Cloud Computing, auch wenn in den nächsten Jahren der Job als Data Scientist sehr gefragt sein dürfte.

Was sich ändern wird
Die reinen Verkaufszahlen von mobilen Geräten sind nur ein Ausdruck einer Veränderung, die sich über die letzten Jahre angebahnt hat und nun langsam, aber sicher zum Mainstream wird: das mobile Arbeiten. Fixe Arbeitsorte mit fixen Arbeitszeiten sind rückläufig – bereits heute setzt laut der Ende des letzten Jahres durchgeführten Studie "Workplace of the Future: a global market research report" der Firma Citrix knapp die Hälfte aller Unternehmen mobile Arbeitsmodelle ein. Motivation dafür ist die Anwerbung hochqualifizierter Arbeitskräfte durch flexible Arbeitsangebote und die Reduktion von Miet-, Reise- und Personalkosten. Diese Flexibilität bezieht sich auf die Zeit, den Ort und das Arbeitsgerät. Und genau in diesem Jahr wird das mobile Arbeitsgerät den PC als Zugriffsinstrument auf das Netz ablösen. Wir werden somit mehr und mehr unser eigenes Gerät als Arbeitsinstrument einsetzen.

Gemäss der Studie "The consumerization of IT – The next-generation CIO", die im November 2011 vom Center for Technology and Innovation der Firma PWC herausgegeben wurde, ist der Anteil der privaten Geräte, mit denen auf Unternehmensanwendungen zugegriffen wird, bereits im Jahr 2011 auf 40 Prozent gestiegen. Das alles hat weitreichende Konsequenzen für die Infrastruktur einer Unternehmens-IT.

Die Konsequenzen
Der Begriff "Consumerization of the IT" umschreibt den zunehmenden Einfluss der Technologie, die für den Endkunden auf den Markt kommt, auf die IT-Abteilungen der Unternehmen. So wird beispielsweise die Verbreitung von Windows, als dominierendes Betriebssystem für Endgeräte, bedrängt durch die Tatsache, dass weit mehr mobile Geräte auf Basis von iOS und Android verkauft werden als solche auf Basis von Windows 8. Die Dominanz des Windows-PCs als Standard im Unternehmen endet gemäss Gartner bereits in diesem Jahr – abgelöst durch eine Vielzahl von Umgebungen, die von der IT unterstützt werden müssen. Doch damit nicht genug. Die klassischen Anwendungen der betrieblichen Informatik verändern sich in Richtung Mobile Apps. Dasselbe gilt auch für die Infrastruktur, die notwendig ist, um dieses System zu implementieren und zu betreiben. Unternehmenseigene App-Stores werden für grössere Firmen zur Notwendigkeit, wenn sie der Vielzahl der Endgeräte gerecht werden wollen. Die Veränderung der Softwareverteilung geht mit einer Veränderung der notwendigen Infrastruktur für den Betrieb der Anwendungen einher. Zur Verbindung von mobilen Anwendungen und cloudbasierten Diensten äussert sich Forrester für das Jahr 2013 wie folgt: «Cloud & Mobile become one.» Dies ist die ideale Lösung, um den sich ständig verändernden Anforderungen mobiler Unternehmensanwendungen gerecht zu werden. IDC prognostiziert aus diesem Grund eine starke Zunahme der PaaS-Angebote (Public-Platform-as-a-Service) und eine Anpassung von cloudbasierten Branchenangeboten. So sollen sich PaaS-Angebote zu Massenprodukten entwickeln, die in Kombination mit SaaS-Lösungen (Software-as-a-Service) die Basis für branchenorientierte Business-iClouds bilden.

Die dritte Plattform
Soll die IT-Infrastruktur eines Unternehmens mit den aktuellen Entwicklungen des mobilen Arbeitens mithalten, so ist eine neue Beweglichkeit gefragt – eine Beweglichkeit hinsichtlich Zeit, Ort und Geräteunterstützung. Diese bewegliche IT-Infrastruktur wird von Frank Gens, Chief Analyst bei IDC, unter dem Begriff "dritte Plattform" zusammengefasst. Diese dritte Plattform erweitert die bestehenden zentralen IT-Infrastrukturen eines Unternehmens, im Gegensatz zur ersten Plattform (Mainframe-Technologie) und zweiten Plattform (Desktop-Unterstützung). Die IT-Infrastrukturen werden zur Grundlage für die Bereitstellung und den Betrieb von mobilen Anwendungen. Diese basieren auf einer Kombination von Cloud-Computing-Services, sozialen Netzwerkmechanismen, modernen mobilen Netzwerken und zentralen unternehmenseigenen IT-Infrastrukturen.

Worauf ist zu achten?
Der Weg vom Rechenzentrum hin zu beweglichen Infrastrukturen bedeutet Veränderungen auf der Ebene der Datenhaltung, der Sicherheit und der Verwaltung der IT-Systeme. Mobiles Arbeiten bedeutet in vielen Fällen, mit unternehmenskritischen und unternehmensrelevanten Daten zu arbeiten. Diese Daten müssen zur richtigen Zeit am richtigen Ort sein, somit verfügbar rund um die Uhr und rund um den Globus. Dies muss in einem ständig wachsenden Umfeld von strukturierten und vor allem unstrukturierten Datenmengen gewährleistet sein. Die Datenhaltung und die Datenbereitstellung über die internen Rechenzentren hinaus werden zu zentralen Aufgaben der IT. Damit verbunden sind neue Sicherheitsaspekte. Das mobile Arbeiten per se bringt bereits zusätzliche Anforderungen hinsichtlich der Verschlüsselung und ferngesteuerten Löschung lokaler Daten mit sich. Darüber hinaus kommt die Notwendigkeit verbesserter Aufklärung bezüglich Passwortstärke und anderer Sicherheitsrisiken im Mobile Computing hinzu. Zu guter Letzt darf je nach Aufenthaltsort des mobil arbeitenden Personals auf bestimmte Daten gar nicht mehr zugegriffen werden. Mit anderen Worten dürfen sie an bestimmten Orten aufgrund gesetzlicher Regelungen auf keinen Fall sichtbar sein. Die Art und Weise, wie IT-Systeme verwaltet werden, wird sich dadurch vollständig verändern. Eine Kombination aus zentralen Infrastrukturen mit global verteilten Diensten und Endgeräten, die sich ständig und rund um die Uhr an einen anderen Ort befinden, unterscheidet sich grundlegend von der traditionellen IT-Infrastruktur. Diese ist auf das Firmengelände und Büroarbeitszeiten beschränkt. Das Spektrum der verschiedenen Systeme und Systembestandteile wächst mit den Anforderungen des Mobile Computing.

Die Zukunft der adaptiven Infrastrukturen
Die adaptiven Infrastrukturen oder auch die «dritte Plattform», wie IDC die Unternehmens-IT der Zukunft nennt, bedingen die Integration einer Vielzahl von Technologien. Verschiedene Hersteller versuchen mit sogenannten integrierten Ecosystemen Lösungen für adaptive Infrastrukturen zu bieten. Sie bestehen aus Appliances, Cloud-Diensten und mobilen Anwendungsplattformen. Dabei spielen die spezialisierten Appliances eine wichtige Rolle als Verbindungselement zwischen bestehender und neuer Infrastruktur. Deren Einsatz soll die Betriebskomplexität und damit auch die entsprechenden Kosten reduzieren, bei gleichzeitiger Verbesserung der Leistungsfähigkeit. Die Cloud-Dienste sollen den Einkauf und die adaptive Nutzung zentraler Services vereinfachen. Die mobilen Anwendungsplattformen erlauben dabei die Bereitstellung der neuen Generation von Anwendungen für eine Vielzahl von
mobilen Geräten. Das integrierte Ecosystem ermöglicht eine Kontrolle der adaptiven Infrastrukturbestandteile.

  15607 Hits
15607 Hits

22.000 Smart Meter in Schweden

Bis zum Jahr 2020 müssen laut EU 80 Prozent aller Stromzähler beim Endverbraucher getauscht werden. Statt der alten Zähler kommen sogenannte "Smart Meter" zum Einsatz, die im Viertelstundentakt den Stromverbrauch jedes einzelnen Stromkunden aufzeichnen, um dadurch genaue Daten zu liefern, wann besonders viel oder sehr wenig Strom verbraucht wird. 4,5 Millionen Stromzähler gibt es derzeit in Österreich, 1,4 Millionen davon alleine im Großraum Wien.

Was jetzt so einfach klingt, ist allerdings in der Umsetzung eine große logistische Herausforderung für alle beteiligten Unternehmen. Die Vorbereitung auf den Tausch muss natürlich perfekt geplant und dann effizient umgesetzt werden. Techniker werden eigens dafür ausgebildet und Termine für den Tausch der 4,5 Millionen alten Stromzähler koordiniert.

In vielen Teilen Europas ist Tieto führender Dienstleister für IT-Services und Product-Engineering und kompetenter Partner, der ein solches "Rollout" auch bereits in Nordeuropa erfolgreich abgeschlossen hat. Im April 2012 wurde dazu ein Rollout von 22.000 Smart Meter in Süden Schwedens begonnen - und erfolgreich durchgeführt, wie es in einem Bericht heißt:

"The roll out was delivered on time and within budget on the 30th of November 2012. Tieto was responsible for planning, making all necessary end customer appointments, logistics of the meters, changing the meters in the field and secure that the meters are operational after installation. To do this we used a sub contracted field operator for the field services, the rest was run as a Tieto in house operation.

There are a lot of challenges pulling off a project like this, why we have used all the experience that we have to prepare carefully and set up a few quality KPI’s;

  1. No or very few end customer complaints
    Usually end customer complaints could be a huge problem due to quality issues in communication and in the field.
    Result: There was an unusual low level of end customer complaints and of very low significance.

  2. High hit rate and customer appointments
    It is very difficult to secure that the customer is really home when appointed. Normally a result close to 90% is considered good.
    Result: Extremely high 96% hit rate of the customer opening the door for our field operators when appointed.

  3. Low number of “clean ups”
    Normally a number of meters does not communicate after installation, why “clean up” is needed.
    Result: We only needed to do clean up on 108 meters, which is a really low number.

EU-Vorgabe umsetzen
Die EU hat die Vorgabe erteilt, dass in allen Mitgliedsländern die alten Stromzähler gegen die neuen „Smart Meter“ getauscht werden müssen. In Österreich ist die E-Control dafür zuständig, diese Richtlinie in österreichisches Recht umzulegen und die Rahmenbedingungen zu schaffen. Bis zum Jahr 2018 sollen in Österreich bereits 95% der alten Zähler gegen neue „Smart Meter“ ausgetauscht werden.

Wenn Sie mehr darüber wissen wollen: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

  20086 Hits
20086 Hits

Das Verschwinden einer Grenze

Mit »Metro« hat Microsoft die Benutzerschnittstelle des Betriebssystems Windows vollständig neu gestaltet und damit einen wichtigen Schritt in Richtung Urbanität vollzogen. Wir alle werden in naher Zukunft anders arbeiten.

Vor kurzem hat Steven Sinofsky, der Präsident der Windows-Division von Microsoft, bei der Entwicklerkonferenz Build in Kalifornien das neue Betriebssystem Metro mit den Satz »Wir haben Windows neu erfunden« vorgestellt. Und tatsächlich – das Betriebssystem ist gegenüber der Version 7 vollständig überarbeitet worden. Neben einer Vielzahl von Änderungen und Erweiterungen gegenüber der Vorgängerversion – es sollen mehr als 1700 sein – sticht vor allem eine Neuheit heraus: das User Interface.

»Metro Style« wird die neue Benutzerschnittstelle genannt. Sie kann vollständig mit den Fingern bedient werden und ist auf den ersten Blick ein Graphic User Interface (GUI) für Tablets und Smartphones. Bei genauerem Hinsehen entpuppt  sich die scheinbar einfache Oberfläche als mächtiges und flexibles Instrument, welches nicht nur eine universelle Bedienung auf allen Arten von Geräten erlaubt, sondern auch eine Reihe von überaus innovativen Grundmechanismen bereitstellt, die über das Marktübliche weit hinausgehen. So sind beispielsweise nicht nur alle Programme, die unter Windows 7 laufen, auch unter Windows 8 lauffähig – nein, mit wenigen Änderungen können zusätzlich die neuen Features (Appstore, Virtualisierung, Kommunikation mit anderen Anwendungen und viele andere mehr) genutzt werden.

Das Konzept des »Urban Working« hat Microsoft Office Labs bereits vor Jahren im Video »Microsoft Office Labs Vision 2019« wunderbar illustriert. Der wesentliche Punkt ist die Tatsache, dass unsere Anwendungen und unsere Daten uns begleiten werden und nicht die Geräte. In diesem Zusammenhang kann auch vom Verschwinden des Computers als sichtbares Gerät gesprochen werden. Windows 8 und das Metro Style GUI zeigt heute bereits auf, wie über verschiedenste Geräte hinweg mit ein und derselben Anwendung auf dieselben Daten unabhängig vom Ort zugegriffen werden kann. »Bring your own device (BYOD)« ist mit Windows 8 kein Thema mehr. Bereits heute können bestehende Desktopgeräte oder Laptops mit dem Windows 8 Metro Style User Interface für den Alltag im Geschäft eingesetzt werden. Dieselben Anwendungen, die wir in der Firma nutzen, können von zu Hause oder von unterwegs von Tablet PCs oder Smartphones aus bedient werden. Unsere Daten sind sicher und gut kontrollierbar in der Cloud gespeichert und universell verfügbar.

Die Geräte werden wir noch nicht zum Verschwinden bringen, aber doch die leidige Grenze zwischen Arbeitsplatz und Leben. Freuen wir uns darauf.

  15757 Hits
15757 Hits

Persönlicher Coach

Die Kolumne zu E-Health und neuen Diensten. E-Health, einmal ganz menschlich. Oliver J. Wolff, Massive Art, beschreibt einen betont persönlichen Ansatz beim Monitoring von Vitaldaten.

  11524 Hits
11524 Hits

Intelligent wohnen, Energie gewinnen

Smarte Energieversorgung und ein flexibles Wohnkonzept bilden das Fundament eines »Plus-Energie-Hauses« in Hard in Vorarlberg.

  11093 Hits
11093 Hits

Flexibilität statt starre Angebote

Outsourcing kommt vom reinen Manöver zur Senkung von Kosten weg und wird zur strategischen Initiative. Zentrales Element ist die Flexibilisierung des Sourcing.

Viele Unternehmen haben in den letzten Jahren die Prozesse für den operativen Betrieb ihrer Informationssysteme neu organisiert. In den meisten Fällen werden Services auf Basis der Best Practices der IT Infrastructure Library (ITIL) geführt und organisiert. Zusätzlich sind im Rahmen der Anstrengungen zur Kostenkontrolle Instrumente und Prozesse für das operative IT-Controlling eingeführt worden. Anforderungen werden in Service Level Agreements (SLA) formuliert und vertraglich festgelegt. Diese SLAs sind in den meisten Fällen einmalig festgelegt worden. Sie werden durch das IT-Controlling und eventuell sogar durch gezielte Audits geprüft, jedoch nur selten oder gar nicht den unternehmerischen Changeprozessen angepasst.

Heute formulieren immer mehr Unternehmen die Anforderungen an die IT-Infrastruktur so, dass die IT Garantien bezüglich der Servicequalität abgeben muss. Um diese Garantien zu erfüllen, werden oftmals externe Leistungserbringern als Sourcingpartner herangezogen. Diese Praxis des Sourcing von IT-Dienstleistungen, also der längerfristige externe Bezug, hat sich in den letzten zehn Jahren zum Standard etabliert. Die meisten Unternehmen beziehen externe Leistungen, um die Bereitstellung und den Betrieb ihrer Informationssysteme zu gewährleisten. In der Praxis hat sich eine Vielzahl von Sourcingmodellen durchgesetzt. Zunehmend werden auch neue Modelle wie beispielsweise Shared Service Center entwickelt, um Informationssysteme zu betreiben.

Der tägliche operative Betrieb
Die Unterstützung von Geschäftsprozessen durch Informationssysteme ist zur alltäglichen Selbstverständlichkeit in allen Betrieben geworden. Die eingesetzten Informationssystem und deren Komplexität fallen erst dann auf, wenn sie ausfallen. Jede IT-Betriebsorganisation ist darauf ausgelegt, mit proaktiven Aktivitäten diesen Ausfall zu vermeiden, respektive mit reaktiven Tätigkeiten schnell zu reagieren. Die proaktiven Aktivitäten umfassen zum Beispiel Upgrades von Applikationen, Operating System Releases, Security-Patches, Hardware- und Firmware-Upgrades. Diese Aktivitäten sind absehbare Tätigkeiten die zu geplanten Ausfallzeiten während Wartungsfenstern führen. Die reaktiven Maintenance-Aufgaben sind jedoch nicht planbar. Sie umfassen im weitesten Sinne Reparaturarbeiten, die aufgrund von Hardwarefehlern, Netzwerk- und Stromunterbrüchen und nicht zuletzt auch durch Fehler des Personals oder in der Bedienung des IT-Services verursacht werden. Beiden Tätigkeiten ist hierbei jedoch gemeinsam, dass die Anforderungen an den IT-Service in der Menge und Ausprägung der notwendigen Spezialisierung über die Zeit stark abweicht.

Die meisten Unternehmen haben zu einem gegebenen Zeitpunkt entweder zuviel oder zuwenig Maintenance-Personal oder aber zuwenig oder nicht die benötigten Skills verfügbar. Besonders im Rahmen von ungeplanten Ausfällen sind dann die nötigen Qualifikationen und Erfahrungen nicht zeitnah verfügbar. Dies wirkt sich unmittelbar auf die Leistungsfähigkeit einer Verwaltung und eines Unternehmens aus. Die Flexibilität, die es braucht, um der Nachfrage nach IT-Services als Funktion der Zeit folgen zu können und dabei die nach wie vor steigende Komplexität des betrieblichen Ausnahmefalles professionell zu beherrschen, stellt hohe Anforderungen an das Sourcingmodell des Unternehmens und wird durch das klassische Outsourcing nicht abgedeckt.

Die Lösung: Flexible Managed Services
So wie sich die Just-In–Time (JIT) Produktion längst in der Industrie durchgesetzt hat, so werden in Zukunft auch Anstrengungen unternommen werden, IT-Infrastrukturen als Flexible Managed Services bereit zu betreiben. Während die Hardwareindustrie mit "OnDemand Computing" und "Utility Computing" bereits über entsprechende Modelle verfügt, sind die meisten Sourcingmodelle in dieser Hinsicht noch relativ unflexibel. Der Bedarf an IT-Services, die dem planbaren aber auch dem nicht planbaren Bedarf an operativen Kapazitäten folgen können, wird klar steigen. Soll das Sourcing von IT-Services optimal den Bedarf decken, so sind weit mehr als eine ITIL-basierende Prozessorganisation mit definierten SLAs erforderlich; Es sollte ein genügend großer Pool von flexiblen Ressourcen mit breitem und spezialisiertem Wissen, welches rasch verfügbar ist, vorhanden sein.

Außerdem ist die Nähe zum Kunden für die schnelle Reaktionszeit und das lösungsorientierte Handeln, Mitarbeitende, die sich ständig weiterbilden und somit immer auf dem neuesten Wissensstand sind und eine Organisation, die sowohl den Aufbau der Applikationen mit den darunter liegenden Komponenten (Datenbanken, Operating Systems, Netwerke und Sicherheits-Problematiken) beherrscht und deren Komplexität im Umfeld des Kunden ganzheitlich versteht, erforderlich. Outtasking als Umsetzung von Managed Services ist die ideale Basis dafür.

 
  15258 Hits
15258 Hits