In Technik vertrauen – aber wie?

Diskutierten die Herausforderung von Vertrauen in die Technik: Mario Drobics (AIT), Erich Schweighofer (Universität Wien), Bernhard Haslhofer (AIT), Peter Reichl (Universität Wien) und Martin Szelgrad (Report). Diskutierten die Herausforderung von Vertrauen in die Technik: Mario Drobics (AIT), Erich Schweighofer (Universität Wien), Bernhard Haslhofer (AIT), Peter Reichl (Universität Wien) und Martin Szelgrad (Report). Fotos: Sela Krobath/Report

Wie lassen sich Erfahrungen aus menschlichen Beziehungen und zu Vertrauen in technischen Systemen anwenden? Bei dem Publikumsgespräch „NGI Talk: Digital Trust“ des AIT diskutierten Forscher, Informatiker und Philosophen zu Erfolgsfaktoren und Hürden in der Akzeptanz von Technik.

     

Künstliche Intelligenz, Robotik oder autonome Fahrzeuge stellen unsere Wirtschaft und Gesellschaft vor eine große Herausforderung: Vertrauen wird auch in technischen Netzwerken zu einer wichtigen Ressource. Doch was verstehen wir eigentlich unter Vertrauen? Und wie kann es in technischen Systemen gewährleistet werden?

Auf Einladung des AIT und des BMVIT referierten und diskutierten am 26. März Peter Reichl, Professor für Kooperative Systeme, Universität Wien, Bernhard Haslhofer, Senior Data Scientist, AIT, und Erich Schweighofer, Professor am Institut für Europarecht, Internationales Recht und Rechtsvergleichung der Universität Wien. Moderiert wurde der „NGI Talk: Digital Trust“ in den Räumen der Österreichischen Computer Gesellschaft in Wien von Mario Drobics, AIT, und Martin Szelgrad, Report.

Report: Warum ist Vertrauen auch in technische Systeme wichtig? Und wie unterscheidet es sich von unserem gewohnten Verständnis dieses Begriffs?

Peter Reichl, Universität Wien: Menschen suchen in einer technisch immer komplexeren Welt Bestandssicherheit – das bieten in erster Linie Erfahrungen mit einem System über einen gewissen Zeitraum. Wenn aber die Informationen, die mir im Moment zu Verfügung stehen, nicht ausreichen, benötige ich schlichtweg auch Vertrauen.

Während der Philosoph Günther Anders von einer „invertierten Utopie“ spricht – der Mensch könne sich die komplexen Ergebnisse seines Schaffens, das, was er herstellt, gar nicht mehr vorstellen –, ist der Soziologe Niklas Luhmann optimistischer. Für ihn bedeutet Vertrauen ein Herstellen von Ordnung, indem man Komplexität in einer vereinfachten Form verinnerlicht, damit akzeptiert und damit umgehen kann. Luhmann sieht Vertrauen als stets unbegründbar – es entsteht durch ein Überziehen der unmittelbar vorhandenen Informationen. Während bei dem Begriff der Vertrautheit Erfahrungen aus der Vergangenheit dominieren, ist Vertrauen stets in die Zukunft gerichtet.



Bild: Der Informatiker und Philosoph Peter Reichl ist Professor für Kooperative Systeme an der Fakultät für Informatik der Universität Wien.
 
Wir stehen vor der Herausforderung, Begriffe, die bislang Beziehungen zwischen Menschen definiert haben, in eine Maschinenwelt zu übertragen. Letztlich müssen wir auch in technischen Systemen einen Weg finden, Vertrautheit zu generalisieren und zu abstrahieren – uns bleibt gar nichts anderes übrig. In einem allgemeinen Systemvertrauen werden aber Verantwortung und Risiko gewissermaßen entpersonalisiert. Das kann schon problematisch sein, denn natürlich kann auch bei etwa automatisierten Systemen etwas schiefgehen. Hersteller oder Benutzer müssen dann aber nur nachweisen, keinen Fehler gemacht zu haben. Man denke nur an selbstfahrende Autos im Straßenverkehr. Aber wer übernimmt wirklich die Verantwortung?
Und eines noch zu Vertrauen: Es muss gelernt werden. Eine Vertrauensbildung, so Luhmann, passiert stets in kleinen Schritten, in denen prinzipiell auch Enttäuschung möglich sein muss. Nehmen die Enttäuschungen nicht überhand, wächst das Vertrauen – in einen Menschen oder in eine Sache.


Begriffserklärung
Vertrauen als Mechanismus der Reduktion von Komplexität
Vertrauen bezeichnet die subjektive Überzeugung von der Richtigkeit, Wahrheit von Handlungen, Einsichten und Aussagen beziehungsweise der Redlichkeit von Personen. Für den Soziologen und Gesellschaftstheoretiker Niklas Luhmann ist Vertrauen letztlich das Zutrauen zu den eigenen Erwartungen. Demnach hat Vertrauen im Zusammenhang der sozialen Interaktionen die Funktion, die Komplexität der Möglichkeiten auf ein Maß zu reduzieren, das den einzelnen in seiner Umwelt handlungsfähig bleiben lässt.
Quelle: Wikipedia, Report



Report: Regulierungen und Gesetzgebungen bieten einen Leitfaden auch für Akteure in technischen Infrastrukturen. Welche Herausforderungen sehen Sie hier?

Erich Schweighofer, Universität Wien: Das Thema der Verantwortlichkeiten und Haftungen etwa in digitalen Netzwerken ist nichts Neues, muss aber aufgrund von neuen Akteuren immer breiter betrachtet werden. Während bislang stets Personen rechtliche Verpflichtungen in unserer Gesellschaft hatten, verursachen den Juristen nun Roboter, Software-Agenten und künstliche Intelligenz Kopfzerbrechen. In den digitalen Netzwerken gibt es bereits heute nicht eine zentrale Rechtsordnung, sondern sehr viele – man spricht hier von einer vielschichtigen Regulierung.
Eine besondere Herausforderung sind die vielen Teilbereiche, in die das Recht noch nicht vorgedrungen ist. Trotzdem müssen wir im globalen Netzwerk mit weltweit agierenden Teilnehmern darauf Rücksicht nehmen. Eine Aufgabe des Strafrechts ist, die Grundwerte unserer Gesellschaft zu schützen. Welche Person dann aber verpflichtet ist oder gar als Verursacher einer strafbaren Handlung in einem globalen, komplexen technischen System auszumachen ist, das ist eine andere Frage.

Recht funktioniert immer nur dann, wenn bei einer Verletzung von Normen oder Standards auch Personen haftbar gemacht werden können. In globalen Netzen ist dazu schon die Frage des Gerichtsstands mitunter nicht sofort klar. Das Strafrecht benötigt einen Täter vor Ort. Das Zivilrecht ist dazu flexibler. Auch Haftungsfragen bei einem Produkt sind mitunter ein Fall für unterschiedliche Sichtweisen – etwa wenn darüber gestritten wird, ob Software überhaupt ein Produkt ist, welche Updates zu Verfügung waren und aufgespielt wurden. Wer haftet bei autonomen Fahrzeugen: der Hersteller, der Fahrzeugbesitzer, der Fahrer oder Intermediäre wie Plattformbetreiber und Serviceanbieter?

Wenn die Dinge im Internet of Things künftig dynamisch agieren, dazulernen und anpassungsfähig sein werden, muss auch der Rechtsstaat darauf reagieren. Die Basis für eine vernünftige Reaktion ist sicherlich das Verstehen dieser Systeme. Ebenso nötig sehe ich eine gewisse Nachvollziehbarkeit und Kontrollmöglichkeit.




Bild: Der Rechtsinformatiker Erich Schweighofer ist Professor am Institut für Europarecht, Internationales Recht und Rechtsvergleichung der Universität Wien.

Report: Wie lässt sich prinzipiell Vertrauen in die Technik schaffen?

Erich Schweighofer
: Gemäß dem Konzept „Code ist Law“ sollte in der digitalen Welt eigentlich nichts passieren dürfen, was nicht erlaubt ist. Also könnte man schon im Erstellen von technischen Systemen die Möglichkeiten einschränken. Dies passiert ja auch bei einer staatlichen Regulierung von Unternehmen. Auch im europäischen digitalen Binnenmarkt soll mit einer breit gefächerten Regulierung ein Vertrauen bei den Konsumenten und auch bei den Investoren geschaffen werden.

Eine weitere Möglichkeit Vertrauen zu schaffen, ist das Engagement in Marken oder Zertifizierungen. Ein Gütesiegel in der digitalen Welt kommuniziert gegenüber Neukunden eine gewisse Form von Vertrauenswürdigkeit – entsprechend bedacht werden die Unternehmen sein, diese Reputation zu bewahren.

Bernhard Haslhofer, AIT: Transparenz und Verstehen sind auch für mich die wichtigsten Faktoren für Vertrauen. Wenn ich einem technischen System vertrauen möchte, versuche ich als Techniker zunächst zu verstehen, wie es funktioniert. Die Blockchain-Technologie zum Beispiel liefert viele Versprechen für Einsatzmöglichkeiten. Man muss aber tief in diese Materie eindringen, um zu verstehen, welche Versprechen sie tatsächlich halten kann. Ein anderer Anwendungsfall ist Künstliche Intelligenz bei autonomen Fahrzeugen. Wenn ich gar nicht mehr verstehen kann, wie Algorithmen entscheiden, werde ich mir als Mensch – und selbst als Techniker – schwertun, diesen zu vertrauen.

Report: Ein Argument für Blockchain-Technologien ist die Transparenz und Nachvollziehbarkeit auch in komplexen Systemen. Liefert die Blockchain die Lösung, die wir suchen?

Bernhard Haslhofer:
Die Aussagen darüber sind widersprüchlich. Viele Analysten und Start-ups betrachten symbolhaft die Blockchain als neue Technologie des Vertrauens. Andere wiederum sehen keinen Grund, Blockchain-Systemen mehr als herkömmlichen IT-Systemen zu vertrauen. Vertrauen hat grundsätzlich ein Skalierungsproblem: Während es im engsten Kreis von Familie und Freunden gut funktioniert, ist das bei großen Gruppen nicht mehr automatisch der Fall. Natürlich gibt es auch die Möglichkeit, bilaterale Beziehungen mit Verträgen abzusichern – etwas, das sich auch in der Blockchain wiederfindet.



Bild: Bernhard Haslhofer ist Senior Scientist in der Forschungsgruppe Digital Insight Lab im Center for Digital Safety & Security, AIT Austrian Institute of Technology.

Bei der Blockchain werden Transaktionen in verteilten Datenstrukturen gespeichert. Jeder beteiligte Knoten hat eine Kopie dieser Daten, die zwischen den Teilnehmern synchronisiert werden. Viele gehen derzeit davon aus, dass Kryptowährungen dezentral organisiert sind, anonyme Transaktionen ermöglichen und das Vertrauensproblem in skalierbarer Form lösen. Leider ist das Gegenteil der Fall. Wir können mittels Analysen die globalen Zahlungsströme von Kryptowährungen genau verfolgen und sehen, dass in diesem speziellen Ökosystem gewisse Akteure sehr wohl zentralisiert die Macht besitzen, zu dominieren und damit gegebenenfalls auch zu manipulieren. Während in klassischen Finanzsystemen die Akteure sehr strengen gesetzlichen Regelungen unterworfen sind, die auch eine Einlagensicherung enthält, ist dies bei Kryptowährungen derzeit nicht der Fall. Von einem System, das ohne Vertrauen auskommt, ist auch Bitcoin weit entfernt. Niemand weiß, an welche Regeln sich ein Miner oder sogenannter Exchange und Wallet-Provider halten muss.

Report: Wie schätzen Sie dazu geschlossene Blockchain-Netzwerke im Unternehmensbereich ein?


Bernhard Haslhofer: Eine „Private Permissioned Blockchain“ für einen konkreten Anwendungsbedarf hat mit der gleichen Vertrauensfrage zu kämpfen. Dies gilt auch für regelbasierte Algorithmen, in Blockchain-Systemen als Smart Contract bekannt. Viele Smart Contracts haben eine Abhängigkeit von Dritten, die für die Systemeingaben – wann etwa ein Contract aktiv wird – verantwortlich sind. Deshalb kann eine Technologie das Trust-Problem nie allein lösen. Dies muss immer in Kontext mit dem Menschen und mit sozialen Faktoren passieren. Falsches Vertrauen in Technologie bringt Risiken. Wer Technologie blind vertraut, kann auch Schaden nehmen.

Report: Wie lässt sich dieser Widerspruch undurchschaubarer, komplexer Systeme, in denen gleichzeitig Transparenz für Vertrauen gefordert wird, auflösen?

Peter Reichl:
Grundlegend gehen wir ja implizit davon aus, dass hinter diesen Systemen immer noch Personen stehen. So intransparent oder gar auch komisch einem die Technik vorkommt, sie wurde – so hoffen wir – immer noch von Menschen überlegt, programmiert und geschaffen. Deshalb ist ja auch gerade die Präsenz der Informatik als Fachdisziplin in diesem Diskurs so entscheidend, denn unser Job als Informatiker ist, dies verantwortungsvoll zu gestalten.

Nun ist Transparenz ein herausforderndes Ziel, das bei der Komplexität heutiger System aber eigentlich voraussetzt, dass man sich Tag und Nacht damit beschäftigt. Und man würde dazu ein Fachwissen benötigen, über das wir oft gar nicht verfügen. Dies betrifft TechnikerInnen ebenso wie AnwenderInnen. Um ein breites Verständnis für Algorithmen, mathematische und informatische Zusammenhänge zu bekommen, sind deshalb konkrete Bildungsmaßnahmen dringend nötig – und zwar schnell, damit wir wenigstens mittelfristig Ergebnisse bekommen.

Bei mancher politischen Diskussion wie jüngst zum Urheberrecht hatte man auch den Eindruck, dass in der Politik das technische Grundverständnis schlichtweg fehlt. Vor allem aber kommt es darauf an, den Menschen wieder ins Zentrum zu rücken – auch beim Thema IoT, das wir besser als „Internet of People“ sehen und behandeln sollten. Der Mensch sollte auch in Zukunft der zentrale Teil der Wertschöpfungskette bleiben. Wir dürfen nicht an ihm vorbei die Systeme bauen.

Report: Was ist für Sie das Wesentlichste beim Thema Vertrauen auch aus rechtlicher Sicht?

Erich Schweighofer:
Eine Basis dafür kann ein Rechtsrahmen bieten, in dem sich Akteure an entsprechende Regeln halten müssen und auch zertifiziert sind. Das Etablieren von allgemein anerkannten Institutionen als vertrauensvolle Dritte kann eine sehr gute Lösung sein. Bei Fehlverhalten muss es dann auch Haftungen geben, bei Verstößen wird reagiert, was sicherlich auch nicht immer rechtzeitig erfolgen wird. Doch auch internationale Unternehmen können sich nicht dauerhaft dem europäischen Rechtsraum entziehen und außerhalb eines gemeinsamen Wertesystems agieren. Eines kann Technologie aber schon gut: die Vertrauensbeziehungen zwischen Akteuren in der Realwelt bis zu einem gewissen Grad sichern, etwa bei Vertraulichkeit, Integrität und Authentizität.

Ein Vertrauensmittel sind sichere, digitale Identitäten. Sie können privatwirtschaftlich, wie etwa von Facebook, geschaffen werden. Als besonders vertrauenswürdig gelten aber Identitäten, die auf einer Registrierung bei einer Public-Key-Infrastruktur beruhen. In Österreich sind mehrere Verordnungen und Gesetze in Kraft, um einer Person eine rechtlich bindende elektronische Identität zuzuordnen. Diesen anerkannten Rahmen sollte man auch in neuen Netzwerken nutzen.

Report: Setzen sich denn nicht ohnehin jene Systeme durch, in denen eine Basis des Vertrauens mit den Nutzerinnen herrscht?

Peter Reichl:
Nun, nach Luhmann setzt echtes Vertrauen voraus, dass auch Alternativen zu Verfügung stehen. Dem zufolge hat Vertrauen, nachdem es ja in die Zukunft gerichtet ist, auch immer etwas mit Risiko zu tun. Gibt es aber nur eine einzige Videoplattform, ein YouTube oder auch nur ein einziges Wikipedia, dann herrscht das Prinzip „The winner takes it all“. Und die großen technischen Trends in unserer vernetzten Gesellschaft laufen derzeit auf diese Alternativlosigkeit hinaus.

Wir müssen bei der Digitalisierung unserer Wirtschaft und Gesellschaft genau darüber nachdenken, was wir uns damit auch einhandeln. Bisher hatte das Thema eine Art Welpenschutz. Wir kommen jetzt aber an einen Punkt, an dem das Ganze umschlägt. Das bislang Spielerische in der Informatik wird plötzlich todernst, wenn man etwa die Angriffe über Social-Media-Plattformen auf die westlichen Demokratien oder die inzwischen unersetzliche Rolle des Internet als grundlegende Infrastruktur unserer gesamten Wirtschaft betrachtet. Noch steht die Welt und es gibt noch keinen Krieg. Wir sollten aber verdammt aufpassen, dass das auch so bleibt.

Erich Schweighofer: Gerade aus Innovationssicht stellt sich die Frage, wie viel Spielraum man neuen Technologien geben möchte – zwischen Regulierung und der freien Entfaltung. Beim autonomen Fahren beispielsweise übernehmen Hersteller sehr viel Verantwortung, da Störungen und Defekte im schlimmsten Fall auch lebensgefährlich sein können. Während das auf der Straße noch jedem einleuchtet, ist die Lage im Bereich der sozialen Netzwerke nicht mehr so klar. Dort verzichten bedauerlicherweise viele auf ethische Standards. Ich denke, dass gerade in den digitalen Netzwerken nicht immer der Staat auf die Grundwerte und das gewünschte Verhalten achten kann. Hier muss man schon die Akteure in die Pflicht nehmen.

Bernhard Haslhofer: Für uns Informatiker bedeutet diese Diskussion auch, mehr in die Öffentlichkeit zu gehen und über die Möglichkeiten von Technik zu sprechen – und ebenso darüber, was sie nicht kann. Es braucht Aufklärung im technischen Sinne, um Vertrauen in technische Systeme zu schaffen.

Wir setzen als Wissenschaftler empirische Methoden ein, um ein Verständnis für den Ablauf und die Zusammenhänge von Vorgängen in Netzwerken zu bekommen. Es sind Beobachtungen und Erfahrungen nötig, um Vertrauensbeziehungen aufzubauen. Das wird auch für technische Systeme gelten.


Statement
Helmut Leopold, Head of Center for Digital Safety & Security, AIT

„Wir produzieren heute laufend Daten, die jeder nutzen kann und die laufend analysiert werden – künftig auch mit künstlicher Intelligenz. Wir brauchen jetzt eine Dynamik, um wieder das Recht und die Mächtigkeit über unsere eigenen Daten zurückzubekommen. Die Diskussion dazu geht noch weiter – inwieweit auch Maschinen einander vertrauen. Dazu werden ebenfalls noch geeignete Systeme und Lösungen nötig sein. In Gruppen, in denen uneingeschränktes Vertrauen herrscht – die eigene Familie wäre ein Beispiel –, benötigt man eigentlich kein Rechtssystem. Demnach ist ein gesetzlicher Rahmen eher dort nötig, wo es ein Risiko der Täuschung und Enttäuschung gibt. Man lernt Schritt für Schritt, Vertrauen in jemanden oder in eine Sache zu bekommen. Wird dieses Vertrauen enttäuscht, fängt man damit wieder von vorne an. Meine These auf eine Technologie wie autonomes Fahren umgelegt: Wir werden selbstfahrenden Fahrzeugen nicht von Anfang an vertrauen, sondern lernen müssen, dass diese sicher und verlässlich sind. Wenn das ganz gut funktioniert, werden wir ihnen auch vertrauen. Der Weg dazwischen wird sicherlich mit Regeln, Zertifizierungen und vielen Tests beschrieben. Ein Rechtsrahmen dient letztlich aber nur dazu, die Lernkurve zu beschleunigen. Denn in Wirklichkeit zählt für uns Menschen vor allem die Erfahrung.“


Veranstaltungstipps

29. April: Homo Digitalis – Wiener Kreis zur Digitalen Anthropologie
Im Kulturcafe Max, Mariengasse 1, 17. Bezirk, diskutieren Peter Reichl (Cooperative Systems, Uni Wien), Christopher Frauenberger (Human Computer Interaction Group, TU Wien) und Michael Funk (Medien- und Technikphilosophie, Uni Wien) gemeinsam mit dem Publikum unterschiedliche Literatur zum Thema Transhumanismus.
www.homodigitalis.at

3. Juni: NGI Talk #3: AI and beyond
Das AIT lädt gemeinsam mit dem BMVIT ExpertInnen aus Industrie, Behörden und Forschung ein, um aktuelle Herausforderungen und die Zukunft des „Next Generation Internet (NGI)“ zu diskutieren. Veranstaltungsort ist die OCG, Wollzeile 1, 1. Bezirk in Wien. Die Talks bieten eine Plattform zum Austausch und die Möglichkeit unser künftiges digitales Umfeld aktiv mitzugestalten.
https://ngi.ait.ac.at/de/ngi-talks/

Last modified onDonnerstag, 18 April 2019 22:01
back to top