Subject :

Why AI

Date :

14.03.22

Services : 

Healthcare and Medtech

AI-Regulations

Vertrauenswürdige KI – Können Gesetze Vertrauen in KI schaffen?

Ein Jurist und ein Psychologe diskutieren über die Rolle von Gesetzen und Vertrauen im Zusammenhang mit KI.

Der Vorschlag der Europäischen Kommission für eine KI-Verordnung ist ein Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung „harmonisierter Vorschriften über künstliche Intelligenz, Gesetz über künstliche Intelligenz“ und zur Änderung bestimmter Rechtsakte der Union (veröffentlicht im April 2021). Die Begründung zielt unter anderem explizit darauf ab, ein Ökosystem des Vertrauens zu implementieren, indem ein rechtlicher Rahmen für vertrauenswürdige KI vorgeschlagen wird, und das Wort Vertrauen wird mehrfach erwähnt (14 trust, 1 trusted, 2 trustful, 21 trustworthy, 3 trustworthiness, 6 entrusted, 1 entrusting). Dies ist aus der Sicht des Schweizer Rechts etwas überraschend. Denn im Schweizer Recht wird Vertrauen (deutsch: Vertrauen/ italienisch: Fiducia/ französisch: Confiance) weder im Schweizerischen Zivilgesetzbuch noch im Obligationenrecht noch im Bundesgesetz über die Produkthaftung erwähnt, die grundlegende Rechtsgrundlagen darstellen. Dieser Trend zeichnet sich jedoch auch in der Schweiz ab: Das zweite Kernziel der „Strategie Digitale Schweiz“ ist die Gewährleistung von Sicherheit, Vertrauen und Transparenz. Vertrauen scheint also ein wichtiger Aspekt in Bezug auf KI zu werden, und das Governance-System (d.h. Strukturen und Prozesse, die Rechenschaftspflicht, Transparenz, Rechtsstaatlichkeit und breite Partizipation sicherstellen sollen) selbst sowie die Regulierungsbehörden, die es anwenden, scheinen das Vertrauen der Öffentlichkeit gewinnen zu müssen (Sutcliffe & Brown, 2021). Aber worüber genau sprechen wir, wenn wir von Vertrauen sprechen?

Vertrauensgläubige vs. Vertrauensskeptiker: Vertrauen in KI-Systeme ist ein heiß diskutiertes Thema

Die extensive Verwendung des Vertrauenskonstrukts im regulatorischen Kontext wurde auch von Kritik begleitet. Je nach Blickwinkel kann das Thema Vertrauen sehr unterschiedlich angegangen werden. Einige, wie Joanna Bryson, argumentieren, dass „KI nichts ist, dem man vertrauen kann“, da KI-Systeme niemals als verantwortlich dargestellt werden sollten.

Andere bezweifeln, dass die Nutzer dem Produkt oder System tatsächlich vertrauen können, da es nur der Stellvertreter des Designers oder Entwicklers ist, der das Produkt entworfen hat. Darüber hinaus wird diskutiert, wer tatsächlich als vertrauenswürdig wahrgenommen werden kann oder nicht, was sich auf die Vertrauenswürdigkeit bezieht, die Eigenschaft des Vertrauensempfängers. Dies könnte Integrität für Menschen oder Leistung für Maschinen sein. In einem einflussreichen Bericht über Vertrauen von Hoff & Bashir heißt es, dass das Vertrauen zwischen Mensch und Maschine als eine besondere Form des zwischenmenschlichen Vertrauens betrachtet werden kann, bei dem der Treuhänder (d. h. der vertrauenswürdige Akteur) einen Schritt vom Treugeber entfernt ist. Es gibt jedoch auch Argumente, die für eine direkte Vertrauensbeziehung zwischen Mensch und Technik sprechen. Im Zusammenhang mit automatisierten Fahrzeugen zum Beispiel kann es tatsächlich so sein, dass „die eingesetzte Automatisierung in bestimmten Situationen als vertrauenswürdig gilt“. Das Thema Vertrauen ist in der Tat kompliziert, und man darf keine der beiden Seiten vernachlässigen. Beide Ansichten haben stichhaltige Argumente, und egal, woher man kommt, _Vertrauen sollte immer mit Vorsicht verwendet werden. Aus der Perspektive der Mensch-KI-Interaktion ist Vertrauen als psychologisches Konstrukt unverzichtbar. In einem regulatorischen Kontext ist Vertrauen jedoch recht problematisch.

In diesem Artikel versuchen wir – ein Jurist und ein Psychologe – erstens zu verstehen, ob und wie Vertrauen regulatorisch aufgebaut werden soll_. Zweitens skizzieren wir unsere Auffassung und kommen schließlich zu dem Schluss, dass Vertrauen im regulatorischen Kontext kein adäquater Begriff ist, aber nützlich, wenn es darum geht, mit der breiten Öffentlichkeit zu kommunizieren.

Können Regeln Vertrauen schaffen?

Laut Hilary Sutcliffe, Direktorin der „Trust in Tech Governance Initiative“, und Sam Brown, „Director of Consequential“, müssen die Regulierungsbehörden für KI (z. B. Regierungen und Normungsgremien) drei Faktoren umsetzen, um als vertrauenswürdig zu gelten und so das Vertrauen der Öffentlichkeit in ihren Ansatz zu gewinnen:

Gewährleistung einer wirksamen Durchsetzung (d. h. Erzwingen der Einhaltung von Gesetzen, Regeln oder Verpflichtungen),

Erklären, was sie tun, und mehr über ihre Rolle kommunizieren und

Stärkung der Bürger und Aufbau umfassender Beziehungen zu den Bürgern.

Die drei oben genannten Faktoren beziehen sich auf eine Art Systemvertrauen, d. h. Vertrauen in das Regierungs- und Rechtssystem, und werden in gewisser Weise bereits im Gesetzgebungsverfahren umgesetzt. Unserer Ansicht nach ist das Schlüsselwort die Rechtssicherheit, d.h. zu wissen, was man erwarten kann, insbesondere wie die KI-Vorschriften von den Richtern angewendet werden. Es muss eine einheitliche und regelmäßige Anwendung im Laufe der Zeit geben. Der Bürger muss wissen, was er zu erwarten hat, und er muss wissen, dass sein Fall auf die gleiche Weise behandelt wird und zum gleichen Ergebnis führt wie ein identischer Fall in einem anderen Teil des Landes. Wenn jeder Staat oder Kanton dieselben Fälle effektiv, aber auf unterschiedliche Weise anwendet, wird das Vertrauen in das System verloren gehen.

bq. Wir sind daher nicht der Meinung, dass Regeln allein durch ihre Existenz Vertrauen schaffen können.

Sollten Regeln Vertrauen schaffen?

Nach Ansicht von Daniel Hult, Dozent an der School of Business, Economics and Law der Universität Göteborg, sollte die Regierung auf jeden Fall davon absehen, mit Hilfe von Gesetzen persönliches Vertrauen schaffen zu wollen. Seiner Meinung nach besteht ein praktikableres Regulierungsziel darin, Anreize für ein vertrauenswürdiges Verhalten der gesellschaftlichen Akteure zu schaffen (weil sie mehr oder weniger gezwungen sind, auf eine bestimmte Art und Weise zu handeln), was als positiver Nebeneffekt Vertrauen in das staatliche und rechtliche System schaffen könnte. Er fügt hinzu, dass, wenn persönliches Vertrauen das angestrebte Regulierungsziel ist, die Gesetzgebung keine geeignete Regulierungstechnik ist, um Vertrauen aufzubauen. Stattdessen sollten weniger kontrollierende Regulierungstechniken eingesetzt werden, z. B. Programme zur freiwilligen Regulierung. In der Tat sind Standards, Best Practices oder Gütesiegel, die von privaten Verbänden festgelegt werden, nicht verpflichtend, und wenn sich ein Unternehmen dafür entscheidet, sich freiwillig an Standards zu halten, öffnet es damit die Tür für ein mögliches Vertrauen in sein Verhalten.

Daniel Hult (2018) stimmt daher mit den letzten beiden von Hilary Sutcliffe und Sam Brown genannten Faktoren überein. Die Einbindung der Bürger in den Regulierungsprozess ist sicherlich eine weniger kontrollierende Regulierungstechnik. Regeln, vor allem verbindliche, schließen die Notwendigkeit von Vertrauen aus.

Wir unterstützen dies: Selbst wenn der Gesetzgeber mit Regeln Vertrauen schaffen wollte, wäre das reine Zeitverschwendung.

Vertrauen in den Vertrauenshype?

Das hat aber nichts mit psychologischem Vertrauen in KI als Haltung des Menschen zu tun, was dieser neue Trend in der Regulierung zu erreichen versucht. Außerdem argumentieren wir, dass zu viele den wichtigen Unterschied zwischen Vertrauen in KI und Vertrauenswürdigkeit von KI vernachlässigen.

Die Europäische Kommission hat bereits in den Ethik-Leitlinien für vertrauenswürdige KI umfassend und sehr klar definiert, welche Aspekte für die Schaffung von vertrauenswürdiger KI notwendig sind (siehe Referenzen). Laut dieser Richtlinie hat vertrauenswürdige KI drei Komponenten, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten:

Sie sollte rechtmäßig sein und alle geltenden Gesetze und Vorschriften einhalten;

Sie sollte ethisch sein und die Einhaltung ethischer Grundsätze und Werte gewährleisten; und

Es sollte robust sein, sowohl aus technischer als auch aus sozialer Sicht, da KI-Systeme auch bei guten Absichten unbeabsichtigt Schaden anrichten können.

Der Leitfaden legt einen Rahmen für die Verwirklichung vertrauenswürdiger KI fest, indem er Anforderungen auflistet, die KI-Systeme erfüllen sollten, und eine konkrete Bewertungsliste zur Operationalisierung dieser Anforderungen bereitstellt, ohne jedoch ausdrücklich auf die Komponente der rechtmäßigen KI einzugehen.

Diese Komponente wird durch den Vorschlag für eine europäische KI-Verordnung (siehe Referenzen) definiert, in der die Anforderungen an die Rechtmäßigkeit von KI festgelegt sind. Insbesondere werden in dem Vorschlag gemeinsame verbindliche Anforderungen an den Entwurf und die Entwicklung bestimmter KI-Systeme festgelegt, bevor diese auf den Markt gebracht werden, die durch harmonisierte technische Normen weiter operationalisiert werden sollen. Der Vorschlag befasst sich auch mit der Situation nach dem Inverkehrbringen von KI-Systemen, indem er die Art und Weise harmonisiert, wie Ex-post-Kontrollen durchgeführt werden.

Auf der anderen Seite besteht die Strategieempfehlung der Schweiz derzeit hauptsächlich darin, die bestehende Gesetzgebung anzupassen (Christen et al., 2020) und sich mit den europäischen KI-Definitionen abzustimmen. Zwar hat die EU einen Vorschlag für eine KI-Regulierung definiert, doch darf nicht vergessen werden, dass wir uns nicht in einem gesetzgeberischen Vakuum befinden. Bestehende Gesetze sehen bereits Regeln für KI-Anwendungen vor. Einige Definitionen, die ausschließlich auf den Menschen ausgerichtet sind, müssen jedoch aktualisiert werden, um maschinengenerierte Handlungen einzubeziehen. Ein Beispiel wäre die Anpassung des Bundesprodukthaftungsgesetzes an diese Technologie.

Die EU ist mit gutem Beispiel vorangegangen und hat wichtige Elemente festgelegt, die die Schweiz bei der Aktualisierung ihres Datenschutzgesetzes sorgfältig prüfen wird. Es wird nun zu prüfen sein, wie der EU-Vorschlag für eine KI-Verordnung und die revidierten Schweizer Gesetze nach ihrem Inkrafttreten angewandt werden und – was noch wichtiger ist – wie sie im Laufe der Zeit angewendet werden. Wir glauben, dass die Herausforderung darin bestehen wird, die ersten Schritte zu definieren und die Umsetzung zu koordinieren. Es ist wichtig, dass nicht nur die Regulierungsbehörde, sondern auch alle betroffenen Interessengruppen und Akteure, wie z. B. die Justiz, mit dieser Technologie vertraut sind.

Schlussfolgerung

Kurz gesagt, dass Vertrauen in KI nur auf vertrauenswürdige KI folgen kann, ist eine ideale, lineare und leider unrealistische Beziehung. Es handelt sich vielmehr um eine Mission oder Vision, nicht mehr und nicht weniger. Sollen wir KI vertrauen oder ist diese KI vertrauenswürdig, sind in der Tat sehr nuancierte, aber unterschiedliche Fragen. Vielleicht ist es in diesen Tagen besser, wenn wir alle mit einem Null-Vertrauens-Ansatz arbeiten, bis ein Unternehmen oder ein Entwickler seine Vertrauenswürdigkeit nachweisen kann, um das Vertrauen des Nutzers zu gewinnen.

Wir glauben, dass der grundlegende Zweck eines Gesetzes nach wie vor darin besteht, Normen festzulegen, die Ordnung aufrechtzuerhalten, Streitigkeiten zu schlichten und Freiheiten und Rechte zu schützen, und nicht darin, persönliches Vertrauen zu schaffen, auch nicht das Vertrauen in KI an sich. Mit einem robusten Rechts- und Justizsystem in KI-Angelegenheiten kann mit der Zeit als positiver Nebeneffekt ein unscharfes Gefühl des Vertrauens in KI entstehen.

Eine Kultur des Vertrauens würde aber sicher nicht schaden. Wäre es nicht großartig, wenn sich die Menschen tatsächlich blind auf KI-Systeme verlassen könnten? Wenn sie wüssten, wie und dass sie zuverlässig arbeiten, dass die Entwickler gute Absichten haben, dass sie sicher sind, dass sie persönliche Daten gut behandeln und so weiter? Aber diese Zeit ist sicher noch nicht gekommen, und wir fragen uns, ob und wann dieser Tag jemals kommen wird. Mit der Zeit werden die Menschen jedoch besser verstehen, worum es bei der KI geht (bzw. worum es nicht geht), und bis dahin wird die Gesetzgebung die Schwachen (die weder in der Lage sind, sie zu verstehen, noch sich selbst zu verteidigen) sowie die blinden (-vertrauenden) Technikoptimisten schützen, damit sie nicht getäuscht werden und jemand zur Verantwortung gezogen werden kann, wenn etwas schief läuft.

Urheberschaft

Dieser Artikel wurde von „Prisca Quadroni-Renella“, Schweizer Anwältin und Gründungspartnerin der „AI Legal & Strategy Consulting AG“ und Legal Lead for Women in AI, in Zusammenarbeit mit Marisa Tschopp verfasst.

Referenzen .

  • Daniel Hult (2018) Vertrauen schaffen durch Gesetzgebung – eine konzeptionelle Analyse und kritische Diskussion, The Theory and Practice of Legislation, 6:1, 1-23, DOI: 10.1080/20508840.2018.1434934.
  • Ethics Guidelines For Trustworthy AI, High-Level Expert Group on Artificial Intelligence, 8. April 2018.
  • Begründung des Vorschlags für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union, 21. April 2021.
  • Christen M., Mader C., Abou-Chadi T., Bernstein A., Braun Binder N., Dell’Aglio D., Fábián L., George D., Gohdes A., Hilty L., Kneer M., Krieger-Lamina J., Licht H., Scherer A., Som C., Sutter P., Thouvenin F. (2020). Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz, In TA-SWISS Publikationsreihe (Hrsg.): TA 72/2020. Zürich: Vdf

Similar talks

Overcoming the Challenges of AI Development in the Health Sector with Expert Guidance

The challenges to developing AI-based solutions in the health and medical sectors are significant yet navigable with the right combination of expertise.

KI und rechtliche Überlegungen

Die Aussicht auf die Einführung von KI in einem Unternehmen wirft viele Fragen auf. Hier die Antworten auf einige von ihnen.

Partnerschaft mit Modulos AG

Die Modulos AG und AI LSC bündeln ihre Kräfte, um vertrauenswürdige KI- und Compliance-Dienstleistungen im Einklang mit den kommenden KI-Vorschriften anzubieten