Logo
KI – transparent und vertrauenswürdig
Katja Bühler (VRVis); Martin Szelgrad (Report Verlag), Wolfgang Weidinger (Weidmüller), Thomas Doms (TÜV Trust IT) und Tobias Eljasik-Swoboda (Ontec AG). Bilder: iStock, Wirlphoto, Wolfgang Fürst, beigestellt

KI-Anwendungen entlasten den Menschen bei Routinetätigkeiten und können zunehmend autonom Entscheidungen treffen. Für die Akzeptanz und das Voranschreiten dieser Systeme spielt Verlässlichkeit eine wesentliche Rolle. Es braucht Vertrauen und Transparenz. Das waren die Kernaussagen eines Publikumsgesprächs des Report Verlags im November zum Thema KI.


Künstliche Intelligenz dringt in immer mehr Bereiche der Wirtschaft vor und zählt zu den am schnellsten wachsenden Themenfeldern. Mit KI können aus riesigen Datenpools relevante Daten gefiltert werden, in der Produktionskontrolle ebenso wie in der medizinischen Diagnostik, der prädiktiven Wartung und für autonomes Fahren. Die Dateninterpretation wird ohne maschinelle Unterstützung künftig nicht möglich sein. „Machine Learning ist die Säule für IT-Lösungen in der zunehmend vernetzten Welt der Datenflut“, fasst Wolfgang Weidinger, Geschäftsführer von Weidmüller Österreich, beim Publikumsgespräch „KI transparent und vertrauenswürdig in der Praxis" des Report Verlags zusammen. Dafür müssen KI-Anwendungen allerdings verlässlich, sicher und resilient ist.

Hier geht es zu einem Videoschnitt mit den wichtigsten Aussagen des Gesprächs: www.youtube.com/watch?v=XpJrNOSph2k

Um die Qualität der Systeme ebenso wie das Vertrauen und die Akzeptanz von KI zu erhöhen, arbeitet TÜV Austria gemeinsam mit dem Institut für Machine Learning der Johannes Kepler Universität Linz an Zertifizierungsmethoden. Hersteller sollen bei der Entwicklung sicherer, verlässlicher und qualitativ hochwertiger Machine-Learning-Modelle unterstützt und Nutzer*innen ein Qualitätssiegel für vertrauenswürdige KI-Systeme geboten werden. „Trusted AI“ ist das weltweit erste Zertifizierungsschema für Machine Learning. „Wir starten mit der Zertifizierung bei Supervised-Learning-Modellen, da diese bereits in vielen technologischen Anwendungen in der Industrie zu finden sind. Sie zeichnen sich durch klar definierte Problemdefinitionen aus und erlauben eine formale Interpretation und Validierung“, erklärt Thomas Doms, Principal Consultant TÜV Trust IT. Das Zertifikat bestätigt Robustheit, Sicherheit und Eignung einer zertifizierten AI-Anwendung für definierte Verwendungszwecke und Einsatzgebiete. Die Überprüfung von sicherheitskritischen Apps ist für die nächsten Ausbaustufen 2022 geplant. „Da entwickeln wir derzeit mit der JKU Linz neue Verfahren“, informiert Doms.

KI in der Praxis
„Die Bereitschaft zu KI reicht in Österreich von gänzlicher Ablehnung bis zur Hightech-Datenanalyst-Abteilung mit mehreren Mitarbeiter*innen“, berichtet Weidinger. Wesentliche Barrieren bilden der Mangel an Vertrauen in und Wissen über KI-Systeme. Fragen wie die folgenden treffen auf: Ist diese künstliche Intelligenz vertrauenswürdig und sicher? Erfüllt die KI die erwartete Funktion? Sind die im Training verwendeten Daten korrekt? Wird mit der großen Menge an sensiblen Daten sorgsam umgegangen? „Jede Technologie ist spielverändernd“, betont auch Thomas Doms und empfiehlt aktive Beschäftigung mit dem Thema. Man müsse Erfahrungen sammeln und nicht alles muss selbst programmiert werden, es gäbe gute Entwicklungspartner.

KI ist ein sehr lebendiges Forschungsfeld. „Auch für uns ist es herausfordernd, up-to-date zu bleiben, weil es Änderungen von Tag zu Tag gibt“, beschreibt Katja Bühler, wissenschaftliche Leiterin und Leiterin der Gruppe Biomedical Image Informatics bei VRVis, die Herausforderungen durch KI. Die Forschung steht erst am Anfang von erklärbarer KI. „Es gibt schon erste Ergebnisse und es wird eine sehr interessante Zukunft“, freut sich Tobias Eljasik-Swoboda, AI-Spezialist bei ONTEC AG, auf die nächsten Jahre.

Die Veranstaltung wurde von ONTEC AG, Weidmüller Österreich und VRVis unterstützt.




Katja Bühler, wissenschaftliche Leiterin VRVis: "95 Prozent aller Tätigkeiten am VRVis im Bereich Bildinterpretation basieren auf Deep Learning."

Für Katja Bühler, wissenschaftliche Leiterin bei VRVis, Österreichs größter Forschungseinrichtung auf dem Gebiet des Visual Computing, ist Vertrauen in KI entscheidend. 95 Prozent aller Tätigkeiten im Bereich Bildinterpretation am VRVis basieren bereits auf Deep Learning. „Vielfach besteht eine Vertrauenslücke zwischen Nutzer und System“, betont Bühler. Nötig ist daher eine enge Kooperation mit den späteren Anwendern. Es muss eine Strategie für die Datenakquise entwickelt werden, damit die erzielten Daten dem entsprechen, was man später lernen möchte. Und es braucht einen klar definierten Rahmen für die KI-Anwendung. „Gerade in kritischen Anwendungen muss KI nachvollziehbar sein“, fordert Bühler.

Während der Entscheidungsweg eines klassischen Machine Learning-Algorithmus oft bereits „by Design“ transparent ist, ist das aufgrund der Komplexität bei Deep Learning-Methoden nicht mehr der Fall. Dieser Lernprozess ist weitgehend selbstgesteuert und das Ergebnis selbst für Datenwissenschaftler und Programmierer schwer zu interpretieren. Eines der zentralen Forschungsthemen des VRVis sind daher neue und zuverlässige Lösungen, die die Künstliche Intelligenz von ihrem bisherigen Black-Box-Charakter befreien.

Besonders in der modernen Radiologie, die immer mehr auf digitale, KI-gestützte Werkzeuge zur Aus- und Bewertung von radiologischen Bildern setzt, ist dies von größter Bedeutung. Denn nur durch Kommunikation, wie zum Beispiel innovative Visualisierungsmethoden, die Entscheidungsprozesse von KI-Systemen für medizinisches Fachpersonal transparent und nachvollziehbar machen, ist eine vertrauenswürdige und die menschliche Kompetenz ins Zentrum stellende Diagnostik möglich.

Im Oktober 2021 wurde die vom VRVis entwickelte Methode zur Transparenzmachung KI-gestützter Entscheidungsprozesse in der digitalen Radiologie in der Kategorie Künstliche Intelligenz mit dem renommierten IT-Preis eAward ausgezeichnet. Die Methode des VRVis kombiniert auf neue Weise KI-Klassifikationssysteme mit Entscheidungsvisualisierung, um die computergestützten diagnostischen Abläufe transparent zu machen. Die VRVis-Methode ist generell auf alle aktuellen KI-Algorithmen zur Klassifikation medizinischer Bilder anwendbar und macht KI-Entscheidungen nicht nur sicht- und nachvollziehbar, sondern auch präziser und effizienter.




Thomas Doms, Principal Consultant TÜV TRUST IT: Das Gütesiegel Trusted AI bestätigt den Entwicklern von KI-Anwendungen die Qualität und Eignung ihres Modells für die angegeben Einsatzzwecke.

Die KI nutzt große Datenmengen, um Modelle zu trainieren, die dann selbständig Entscheidungen treffen und daraus wieder lernen. Schlechte Daten, falsche Modelle oder Manipulationen sind fatal. „Wir wollen mit der Maschine-Learning-Zertifizierung die Sicherheit und Zuverlässigkeit solcher Anwendungen erhöhen“, informiert Thomas Doms, Principal Consultant TÜV TRUST IT. Gemeinsam mit dem Institut für Machine Learning der Johannes Kepler Universität Linz werden Zertifizierungsmethoden aufgebaut, um Hersteller bei der Entwicklung sicherer, verlässlicher und qualitativ hochwertiger Machine-Learning-Modelle zu unterstützen und Nutzer*innen ein Qualitätssiegel für vertrauenswürdige KI-Systeme zu bieten. Geprüft wird in den KI-Bereichen Prozesse Software-Herstellung, funktionale Anforderung und Güte sowie die Verarbeitung personenbezogener Informationen im Hinblick auf Datenschutz und ethische Aspekte.

Der Zertifizierungskatalog umfasst über 200 Prüfpunkte, erste Pilotzertifizierungen gibt es bereits. Zertifiziert werden zunächst Supervised-Learning-Anwendungen im niedrigen bis mittelhohen Risikobereich, da diese bereits in vielen technologischen Anwendungen in der Industrie zu finden sind. Sie zeichnen sich durch klar definierte Problemdefinitionen aus und erlauben eine formale Interpretation und Validierung. „In den nächsten Phasen werden die jetzigen Ansätze auf sicherheitskritischere Anwendungen und andere Machine-Learning-Modelle erweitert“, kündigt Doms an. „Da entwickeln wir derzeit mit der Johannes Kepler Universität neue Verfahren wie Stresstests.“




Tobias Eljasik-Swoboda, AI-Spezialist ONTEC AG: "Mit KI kommt eine neue Form der Cyber-Security auf uns zu."

„Gestartet ist die ONTEC AG als reiner Softwareentwickler. Seit etwa vier Jahren bilden KI und Machine Learning einen neuen Schwerpunkt“, informiert KI-Spezialist Tobias Eljasik-Swoboda. In dem aktuellen, durch die FFG finanzierten Projekt „KITKA – Künstliche Intelligenz. Transparenz durch katalogbasierte Plattform für Österreich“ hat die ONTEC AG in einem Konsortium mit dem Institut für Höhere Studien, der Fachhochschule Oberösterreich und dem Center for Human-Computer Interaction der Universität Salzburg der Frage gestellt, was vertrauenswürdige KI auszeichnet und wie Transparenz eingebunden werden kann. Die Maßnahmen reichen dabei von einer detaillierten technischen Darstellung über Ethik und Soziologie bis zu Management, Human-Computer Interaction und Datenschutz. „Wir haben über 166 Aspekte gefunden“, informiert Eljasik-Swoboda. Entscheidend sind dabei Grundsatzfragen wie die Klärung der Intention für die KI-Anwendung, Datenquellen und beteiligte Partner bei der Datenherstellung.

KI-Systeme besitzen ein großes Potential für österreichische Unternehmen. Dieses sollte bestmöglich genutzt werden. „Es muss immer bedacht werden, dass mit den verwendeten Daten viel Unerwünschtes von der Maschine gelernt werden kann. Zum Beispiel unerwünschte Manipulationsmöglichkeiten. Ein Machine-Learning-System ist auch nur ein IT-System – das heißt, es kommt eine neue Form von Cybersecurity auf uns zu“, betont der Informatiker und verweist auf die Bestrebungen, die bereits zu KI-Zertifzierungen laufen, wie das TÜV Prüfsiegel und die EU-Richtlinie. Bislang gibt es noch keine einheitliche auf AI-Systeme abstellende EU-Regulierung. Mit einer EU-Verordnung, die für Anbieter wie Nutzer von KI-Systemen mit hohem Risiko gilt, soll ein größeres Vertrauen geschaffen und damit die Nachfrage nach KI gestärkt werden.




Wolfgang Weidinger, Geschäftsführer Weidmüller Österreich: "Akzeptanz und Erfolg der KI verlangt nach einer gemeinsamen Sprache der IT- und Produktionstechniker."

„Vor wenigen Jahren war KI für uns noch kein Thema“, erinnert sich Wolfgang Weidinger, Geschäftsführer von Weidmüller Österreich. Über eigene Produktionsprozesse und die Notwendigkeit, etwa Stillstandzeiten zu verringern und Verfügbarkeiten zu erhöhen, ist Weidmüller auf das Thema KI aufmerksam geworden. In der Folge wurden KI-Modelle entwickelt und diese industriellen Kunden als anwendungsorientierte KI-Applikationen in den Bereichen Industrial Analytics und Automated Machine Learning angeboten.

„In der Regel erfordert die Entwicklung von Industrial-Analytics-Lösungen das spezifische Know-how eines Data Scientists. Mit unserem Automated-Machine-Learning-Tool können KI- und ML-basierte Modelle von einem Domain-Experten wie einem Prozess- oder Automatisierungstechniker erstellt werden. Somit versetzen wir, nach einer gründlichen Einschulung inklusive Wissenstransfer, den Kunden in die Lage, ohne Datenanalyst in die Welt von Machine Learning einzusteigen.“

Die plattformunabhängige Software unterstützt durch automatisierte Modellerzeugung. Mit der einfachen Nutzerführung lassen sich Anomalien erkennen, Stillstände vermeiden, Qualität automatisiert überprüfen und verbessern. Weidinger empfiehlt, sich früh mit Machine Learning zu beschäftigen. „Man muss heute mit einem Budget von ein paar tausend Euro starten. Dann erkenne ich die Qualität meiner Daten, die in Zukunft entscheidend sein wird. Die Dateninterpretation wird künftig ohne maschinelle Unterstützung nicht möglich sein. Machine Learning ist die Säule der Zukunft für IT-Lösungen in der zunehmend vernetzen Welt der Datenflut.“

Den aktuellen Hemmschuh für den breiten Einsatz von Automated Machine Learning sieht Weidinger in der vielfach fehlenden Sensorik und damit fehlenden Daten, unterschiedlichen Datenformaten und fehlendem Know-how im Haus. Auch das gemeinsame Wording ist noch unzureichend. „ITler haben ein anderes Vokabular als Mitarbeiter*innen in der Produktion.“


Begriffe zum Thema

- Machine Learning: Oberbegriff für Methoden, durch die sich ein Computer aus Beispielen eigenständig programmiert. Algorithmen bauen ein statistisches Modell auf, das auf Trainingsdaten beruht und als Programm für den Computer agieren kan

- Deep Learning: Art von Machine-Learning-Verfahren, das zur Analyse großer Datensätze künstliche neuronale Netze verwendet. Diese sind sehr komplex, was die Interpretation der einzelnen Entscheidungen schwer nachvollziehbar macht

- Künstliche Intelligenz: Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst.

© Content: Report Media | Design 2021 GavickPro. All rights reserved.