Menu
A+ A A-

Alles andere als Science-Fiction

Alles andere als Science-Fiction Foto: iStock

Künstliche Intelligenz wird die Wirtschaft und Gesellschaft massiv verändern – in welcher Weise und Geschwindigkeit, darüber ist man sich noch uneinig. Doch erste Beispiele zeigen den sanften Beginn einer Technologierevolution.

Es müssen nicht immer Killer-Roboter sein. Technologien mit künstlicher Intelligenz werden – auf den Boden gebracht – große Aussichten in den unterschiedlichsten Wirtschaftsbereichen auch außerhalb von Militär und Filmindustrie eingeräumt. Einer jüngsten Studie des Beratungsunternehmens EY und Microsoft zufolge befasst sich auch die Mehrheit der größten österreichischen Unternehmen bereits mit KI – zumindest theoretisch. 81 % der Befragten geben an, den Einsatz von KI-Technologien entweder zu planen, in Pilotstudien zu testen oder bereits KI-Anwendungen in ihr Tagesgeschäft zu implementieren.

Bild oben: Christina Wilfinger, Mitglied der Geschäftsleitung bei Microsoft Österreich: »Künstliche Intelligenz wird jede Branche verändern.«

Die Studie zeigt auch, dass die Anwendung von KI in Europa dennoch in den Kinderschuhen steckt. »Viele Unternehmen sind noch mitten in ihrer digitalen Transformation und noch nicht bereit, sich mit fortgeschrittenen Einsatzmöglichkeiten zu beschäftigen«, meint Axel Preiss, Leiter der Managementberatung EY. Und auch politisch wird das Technologiethema als Hebel für Innovation und Wirtschaftsleistung gesehen. Anfang 2019 haben das Bundesministerium für Verkehr, Innovation und Technologie (BMVIT) und das Bundesministerium für Digitalisierung und Wirtschaftsstandort (BMDW) zunächst ein Vorbereitungspapier, »Artificial Intelligence Mission Austria 2030«, erstellt, um im Laufe des Jahres auf dieser Basis eine Strategie zu entwerfen. Man weiß: Die Zukunft der künstlichen Intelligenz muss im breiten Konsens mitgestaltet werden, mit Vertretern der Industrie und der ArbeitnehmerInnen an einem Tisch.

Große Erwartungen

»Künstliche Intelligenz ist ein Thema, das uns alle betrifft«, bekräftigt Christina Wilfinger, Leiterin Solution Sales bei Microsoft Österreich. Im Grunde sei KI »nichts Neues«, sondern seit Jahren ein Faktor in der IT, etwa bei Suchmaschinen-Technologien. Auch Spotify, das Playlists passend zum Nutzerverhalten erstellt, ist ein frühes Beispiel für die maschinelle Ableitung neuer Muster aus vorliegenden Erfahrungswerten.

Der Definition des taiwanesischen KI-Experten Kai-Fu Lee zufolge befinden sich die Technologielösungen aktuell auf den Entwicklungsstufen zwei und drei. Stufe eins der KI, die es bereits lange gibt, bezeichnet die einfache Speicherung und das Angebot von Informationen. Die zweite Stufe betrifft die sogenannte »Business Artificial Intelligence«, die mit Datenanalysen und Big-Data-Lösungen in den Unternehmen gewachsen ist. Ab der dritten Stufe wird es so richtig spannend: Aus der Verknüpfung von Daten werden Trends und das Verhalten von Nutzern wahrnehmbar und interpretierbar. Diese »Perception AI« beeinflusst seit gut drei Jahren bereits auch unseren Alltag. Bislang nicht erreicht ist die vierte Stufe, »Autonomous AI«. Auf dieser Ebene interagieren vernetzte Maschinen und können auch voneinander lernen. Erste Beispiele und Versuche dazu gibt es zwar, generell liegt diese Entwicklung aber in der Zukunft.

Mittlerweile gibt es kaum ein Unternehmen mit professionellem Kundenservice, bei dem nicht ein maschineller Algorithmus oder ein Chatbot im Hintergrund zum Einsatz kommt. Das Ziel einer Automatisierung von Geschäftsprozessen ist stets, die eigenen Mitarbeiter mit Daten zu unterstützen und Endkunden besser servicieren zu können.

Der Industriekonzern Shell nutzt KI, um die Sicherheit an Tankstellen zu verbessern. Über Videokameras und Bildanalysen mit entsprechenden Algorithmen werden Diebstähle, rücksichtsloses Fahren oder auch Raucher an der Zapfsäule detektiert.

Auch die Individualisierung von Produkten wird mit KI erleichtert – sei es bei der Steuerung von Maschinen in der Industrie oder bei etwa Kfz-Versicherungen mit Tarifen, die dank Motorendaten dem tatsächlichen Fahrverhalten angepasst werden können. »Konsumenten wollen als Individuum mit ihren eigenen, persönlichen Bedürfnissen behandelt werden, egal ob sie online oder im Geschäft einkaufen«, weist Wilfinger auf ein Projekt von Microsoft mit MPreis hin. Der Lebensmittelhändler schafft es, die Konsumenten mit zielgerichteten Angeboten im Webshop abzuholen. Mit der Analyse des Warenkorbes werden bestimmte Warenangebote gar nicht mehr angezeigt – wenn etwa bereits ausgewählte Produkte auf eine Lebensmittelunverträglichkeit deuten.

Ein weiteres KI-Beispiel liefert Rolls-Royce, das mit einem umfassenden Analysetool zur Optimierung von Flugzeug-Turbinen teure Wartungszeiten am Boden massiv reduziert. Die Daten aus den Sensoren der Maschinen helfen, Servicezyklen zu optimieren und – mit Wetterdaten verknüpft – sogar den Kraftstoffverbrauch zu reduzieren. Den Erkenntnissen aus der komplexen Datenverarbeitung liegen neuronale Netze zugrunde – selbstlernende Systeme mit dynamisch optimierten Algorithmen, die auch in neuartigen Situationen Ergebnisse liefern. Man kann es mit den eingelernten Fingersätzen bei einem Pianisten vergleichen. Der Musiker wird diese auch in anderen Stücken anwenden können – vielleicht abgewandelt, aber die Routinen gleichen einander. Dass technische Systeme auch per se untrainierte Zusammenhänge erkennen, das hat es vor einigen Jahren in dieser Breite nicht gegeben.

»Das Thema KI ist in unseren Gesprächen mit Unternehmen omnipräsent«, wirbt Wilfinger für den einfachen Einstieg in die Materie. Die Toolsets der Hersteller erlauben auch technisch wenig affinen Personen, beispielsweise eigene Chatbots zu bauen. »Die Anforderungen aus der Industrie und von den Konsumenten sind da. Das Thema kann sich nur positiv entwickeln«, ist die Managerin euphorisch. Vorausgesetzt, betont sie, unsere Wirtschaft und Gesellschaft beschäftigen sich ausreichend auch mit den ethischen Prinzipien und einer maßvollen Regulierung von Technologie.

Deep Learning in der Radiologie

Bild oben: Diagnosen finden in der Medizin seit langem auf der Basis von Daten statt. Nun halten selbstlernende Systeme Einzug in die Bildschirmarbeit in der Gesundheitsvorsorge und Forschung.

Welchen Stellenwert künstliche Intelligenz bereits in der Medizin einnimmt, zeigt aktuell der österreichische Visualisierungsspezialist VRVis Zentrum für Virtual Reality und Visualisierung. Die Mathematikerin und Informatikerin Katja Bühler entwickelt gemeinsam mit dem Medizintechnik-Hersteller Agfa Anwendungen für die Radiologie – für die Befundung mit Röntgenbildern und Aufnahmen aus Computer- und Magnetresonanz-Tomografen. Das VRVis hat eine Lösung für die Bildverarbeitung mit einer automatisierten Segmentierung von Organen, Blutgefäßen und Knochenstrukturen entwickelt. Dabei werden beispielsweise Wirbel mit ihren Positionen in der Wirbelsäule erkannt und automatisch mit ihren korrekten Bezeichnungen versehen – auch wenn die Knochen lediglich ausschnittsweise auf den Bildern zu sehen sind.

Während in den vergangenen Jahren mit klassischen Maschine-Learning-Methoden den Maschinen das Erkennen der Anatomie praktisch »händisch« beigebracht wurde, setzt Bühler mit ihrem Team auf »Deep Learning«. Dabei wird versucht, Teile des menschlichen Gehirns in der IT nachzubauen. Und diese künstlichen neuronalen Netze schaffen es tatsächlich, bessere Ergebnisse zu liefern. »Das ist im Vergleich zum biologischen Vorbild natürlich nur ein ers­ter Versuch. Dieser funktioniert aber schon erstaunlich gut«, betont die Leiterin der Biomedical Image Informatics-Forschungsgruppe beim VRVis. Bestrebungen, die Neurowissenschaft mit KI-Entwicklung zu verknüpfen, gibt es bereits seit Jahren. Getrieben wurde das zunächst eher von Informatikern. Nun aber ist eine junge Generation von Neurowissenschaftlern am Werk, die durch den wachsenden Bedarf an Simulationsmodellen offen auf die IT zugeht.

So werden mit Deep Learning beispielsweise bereits Tuberkulose-Befundungen unterstützt. Die Infektionskrankheit ist besonders tückisch. Sie liefert je nach Stadium ein komplexes, unterschiedliches Erscheinungsbild. Bei herkömmlichen Algorithmen mussten bislang die unterstützenden Systeme jeden Parameter, der auf eine Erkrankung hinweist, im Detail kennen. Mit Deep Learning lernt ein neuronales Netzwerk diese Erkennung von allein, anhand von vorab klassifizierten Bildern. Dabei wird das System über große Sets an Gewebebildern gesunder und kranker Menschen trainiert.

Bild oben: Die Wissenschaftlerin und Informatikerin Katja Bühler, VRVis, bei der »Applied Artificial Intelligence Conference 2018« der WKO Außenwirtschaft. Sie entwickelt KI-Lösungen in der Medizintechnik.

Einige tausend Aufnahmen in den verschiedensten Stadien der Krankheit sind nötig, um bereits »sehr schnell auf sehr gute Ergebnisse zu kommen«. Hier spricht die Forscherin von einer 95 % Sensitivität – 95 von hundert kranken Patienten werden richtig eingestuft. Für die Unterstützung des Fachpersonals, das letztlich alle Entscheidungen fällt, ist dieser Wert ausreichend. Den Radiologen wird ein Ranking von Bildern und auch Patienten geliefert, um im Bedarfsfall schnell zu reagieren und weitere Untersuchungen anzusetzen. Mit mehr Trainingsdaten, die die Variabilität der Krankheit noch besser abdecken, kann dieser Wert leicht erhöht werden. Gegen null – und das ist besonders wichtig – geht die Zahl der »false negatives« – tatsächlich Erkrankte, die von der KI-gestützten Diagnostik übersehen werden.

Hilfreich für die Akzeptanz der maschinellen Hilfe: Für den Radiologen wird vom System auch jene Stelle in der Aufnahme markiert, die für die Detektion der Erkrankung ausschlaggebend war. Oft ist diese kaum sichtbar, so subtil kann die lebensgefährliche Krankheit auftreten.

Regionale Besonderheiten

Die Lernphase, die jedes Machine-Learning-System durchmachen muss, stellt Hersteller wie Agfa vor eine große Herausforderung. Jeder Mediziner bewertet abhängig von seiner Schule anders, jedes Spital hat seine Befundungskultur und Unterschiede finden sich regional, auch in unterschiedlichen Ländern. Techniker und Mediziner bewegen sich bei der Entwicklung von KI-unterstützen Anwendungen stets auf dem schmalen Grat zwischen Standardisierung und individueller Freiheit der Fachanwender.

Es gilt, wie seit jeher in der IT: Was am Ende herauskommt, ist stets eine Sache der Inputs. »Das Netzwerk liefert immer nur jene Wahrheit, die es gelernt hat«, weiß Bühler. Sie betont: »Unsere Lösung beschleunigt die Prozesse in der Befundung. Wir wollen den Radiologen nicht ersetzen – das würde auch rechtlich nicht möglich sein.«

Neben seiner Schnelligkeit bietet die Lösung einen weiteren großen Vorteil. Nach der aufwendigen Lernphase, die viel Rechenleistung benötigt, findet sie im Betriebsalltag auch auf einem handelsüblichen Laptop Platz. Die Forscherin erwartet eine künftig steigende Nutzung von KI-Lösungen in der Radiologie.

Begriffe

Künstliche Intelligenz. Im Gegensatz zu starren Algorithmen bildet Software, die trainierbar und lernfähig ist, die Basis für Systeme künstlicher Intelligenz. Eine KI muss man eigentlich wie ein Kind behandeln, das Lernphasen durchläuft. Zum Bau einer KI sind nicht nur Softwareentwickler, sondern auch Datenanalysten und Spezialisten aus beruflichen oder wissenschaftlichen Fachbereichen gefordert. Dass eine Maschine allerdings wie ein Kind einmal eine Frage stellt, auf die sie nicht programmiert ist, wird noch länger nicht möglich sein und ist derzeit eher ein Thema für Science-Fiction.

Deep Learning. Beim klassischen Machine Learning werden die Algorithmen eines Systems mit eindeutigen Parametern gefüttert, Entscheidung werden mit einfachen Wenn-dann-Abläufen herbeigeführt. Deep Learning dagegen setzt auf einen offeneren Lernvorgang: Um ein Objekt auf einem Foto zu identifizieren, wird das System so lange mit ähnlichen Bildern trainiert, bis es selbstständig das Objekt auch in ungelernten Settings erkennt.


Nationale Beispiele für den Einsatz von KI

Huawei und Diakoniewerk Wien: »Facing Emotions«.

Huawei hat eine App entwickelt, die es blinden und sehbehinderten Menschen ermöglicht, Emotionen ihres Gegenübers zu »sehen« und zu erleben. Die Facing Emotions App nutzt die leistungsstarke Kamera und »Artifical Intelligence« des Huawei Mate20 Pro, um sieben unterschiedliche menschliche Emotionen in sieben einzigartige Klänge zu übersetzen. Die App ermöglicht so Menschen mit Sehbehinderungen eine reichere Erfahrung und ein besseres Verständnis bei der Kommunikation mit ihren Liebsten. Dabei scannt die Leica Triple-Kamera des Smartphones das Gesicht der Person, mit der der blinde Mensch spricht und identifiziert die einzelnen Bereiche des Gesichts: Augen, Nase, Augenbrauen und Mund sowie deren Position im Verhältnis zueinander. Die AI verarbeitet dann die identifizierte Emotion in einen definierten Klang, der entweder direkt über das Smartphone oder die Kopfhörer gehört wird.

XARIS, AIT, Alpen-Adria-Universität, Technische Universität Graz, B & M Tricon, Ilogs: »SEPIA System«

Banken und Leasinggesellschaften begegnen dem Ausfallsrisiko der Händler-Einkaufsfinanzierung durch periodisch durchgeführte Bestandsprüfungen vor Ort – bis zwölfmal im Jahr. Diese Methodik ist kostenintensiv und lässt großen Spielraum für Risikofaktoren offen. Das Wiener Unternehmen XARIS entwickelte gemeinsam mit Partnern in dreijähriger Forschungs- und Entwicklungsarbeit das digitale Self-Assessment-Tool SEPIA. Die Technologie kombiniert Muster- und Bildanalyse-Algorithmen mit modernen Machine-Learning-Komponenten, um höchste Standards in der Betrugserkennung zu gewährleisten. Externe Prüfer werden nicht mehr benötigt. Die Lösung ist weltweit einsetzbar, über Europa hinaus sind Asien und Amerika die Zielmärkte.


Internationale Beispiele

Erkennung von Herstellungsfehlern. Jabil verwendet Azure Machine Learning für die Erkennung und Vorhersage von Herstellungsfehlern auf seinen Platinen im frühen Stadium der Produktion. Dadurch können Fehler behoben werden, bevor teure Elektronikbausteine hinzugefügt werden. So wird weniger Ausschuss produziert, es entstehen weniger Garantiekosten und die Kundenzufriedenheit steigt.

Vorhersage der Verfügbarkeit und Kosten. Anheuser-Busch InBev nutzt KI und Machine Learning, um die Verfügbarkeit und Kosten von Gerste besser vorhersagen zu können. Durch die Analyse visueller Daten von Drohnen und Satelliten kann die Brauerei wichtige Informationen zur Bewässerung und Bodenzusammensetzung ihrer weltweiten Gerstenfelder gewinnen. Die Informationen werden an Landwirte weitergegeben, damit sie besser bestimmen können, wann sie Saatgut anbauen und wie viel Dünger sie verwenden sollten.

Vorhersage von Krankenhausaufenthalten. Steward Healthcare, nutzt Machine Learning, um vorherzusagen, wie lange ein Patient im Krankenhaus bleiben wird, und mögliche Behandlungspläne vorzuschlagen, um die Versorgung und Behandlung zu beschleunigen. Damit spart sich der Kunde des Microsoft-AI-Partners BlueMetal 48 Millionen Dollar pro Jahr.

Quelle: Microsoft


Siehe auch Interview Accenture, Michaela Jungwirth "Es gibt für jedes Unternehmen Einsatzmöglich­keiten"

Last modified onMittwoch, 20 Februar 2019 10:16
back to top