Subject :

Why AI

Date :

5.11.21

Services : 

Healthcare and Medtech

AI-Regulations

Was soll der ganze Wirbel um Vertrauen und zuverlässige KI?

Gesetze und Ethiksiegel lösen das Problem des Vertrauens nicht. Indem sie jedoch eine vertrauenswürdige KI fordern, fördern sie die Verantwortlichkeit und das r

Wie Sie wahrscheinlich schon gehört oder gelesen haben, hat die Europäische Kommission im April einen Vorschlag zur Regulierung der künstlichen Intelligenz (KI) vorgelegt, der es der EU ermöglichen soll, von den Vorteilen dieser Technologie zu profitieren. Insgesamt kommen die Worte „Vertrauen“ und „Zuverlässigkeit“ in dem Vorschlag mehr als 100 Mal vor. Dies wirft die Frage auf, ob wir die Rolle des Vertrauens in Bezug auf KI wirklich verstehen.

Ob das Swiss Digital Trust Label, das Trust Valley oder das Center for Digital Trust – das Thema Vertrauen und Digitalisierung ist en vogue, auch in der Schweiz. Diese Initiativen legen nahe, dass Vertrauen ein Katalysator für erfolgreiche KI-Einsätze ist. Und doch glaubt Professor Joanna Bryson, dass: „Niemand sollte künstlicher Intelligenz vertrauen“. Das wirft die Frage nach dem Vertrauen in KI oder die digitale Welt auf. Werden also Blockchain, die Kryptoindustrie und Labels all unsere Vertrauensprobleme lösen? (Spoiler-Alarm: Nein, nein, irgendwie schon).

Erste Frage: Können wir KI vertrauen? Kurze Antwort: Ja. Lange Antwort: Es ist kompliziert.

Die Frage, ob wir wirklich in der Lage sind, Maschinen zu vertrauen, wird heiß diskutiert zwischen denjenigen, die daran glauben („Ja, es ist möglich!“) und denjenigen, die daran zweifeln („KI sollte man nicht vertrauen!“). Wir sind auf der Seite derer, die glauben. Wir gehen davon aus, dass das Vertrauen zwischen Menschen übertragbar ist und dass es, obwohl es anders ist, in vielerlei Hinsicht dem Vertrauen ähnelt, das Menschen nach eigener Aussage in Maschinen haben.

In menschlichen Beziehungen kann Vertrauen als eine Bewältigungsstrategie angesichts von Risiken und Unsicherheiten verstanden werden. Diese Strategie nimmt die Form einer Bewertung an. So werden beispielsweise die Fähigkeiten der Person, der man vertraut, geprüft. Gleichzeitig befindet sich die Person, die ihr Vertrauen schenkt, in einer verletzlichen Position. Wie in jeder Beziehung besteht auch hier die Gefahr, verletzt zu werden. Mit anderen Worten: Es gibt kein Vertrauen ohne Risiko.

Diese Verwundbarkeit ist auch für das Vertrauen zwischen Mensch und Maschine entscheidend. Vertrauen in eine Technologie bedeutet, ein bestimmtes Ergebnis, ein bestimmtes Verhalten zu erwarten, wenn man sie einsetzt. Die Zuverlässigkeit eines Systems, seine schlechte Leistung oder unklare Abläufe und andere Faktoren können das in es gesetzte Vertrauen verändern. Vertrauen und Zuverlässigkeit sind also unterschiedliche Konzepte, die leider oft verwechselt werden.

Drei Dinge sind daher wichtig zu verstehen: Vertrauen ist eine Einstellung gegenüber einem menschlichen oder maschinellen Dritten (1), der helfen soll, ein bestimmtes Ziel (2) in einer Situation der Unsicherheit (3) zu erreichen. Ich kann Amazon vertrauen, dass mein Paket pünktlich geliefert wird, aber nicht, dass meine Privatsphäre respektiert wird.

Um auf die gestellte Frage zurückzukommen, können wir also antworten, dass wir tatsächlich in der Lage sind, KI in einem konkreten Kontext zu vertrauen. Aber ist das ein Grund, dies zu tun? Das ist eine andere Frage…

Zweite Frage: Sollten wir der KI vertrauen? Kurze Antwort: Nein. Lange Antwort: Es ist kompliziert.

Aus praktischer und normativer Sicht ist die Frage, ob wir KI vertrauen sollten, viel interessanter, weil sie die Diskussion auf das Thema der Vertrauenswürdigkeit verlagert. Während Vertrauen eine menschliche Einstellung und eine komplexe latente Variable aus psychometrischer Sicht ist, ist die Zuverlässigkeit eine viel technischere Frage, die mit den Eigenschaften der Technologie zusammenhängt. Wenn Joanna Bryson sagt, dass niemand der KI vertrauen sollte, ist ihre Botschaft sehr klar: Man sollte KI-Systeme (und viele andere Systeme) nicht blindlings benutzen.

Als Beispiel für falsches blindes Vertrauen wird oft der Fall eines Tesla-Fahrers angeführt, der bei einem Unfall ums Leben kam, weil er zockte und nicht auf die Straße schaute und somit dem System völlig vertraute. Ob der tödliche Unfall das Ergebnis von übermäßigem Vertrauen, irreführenden Marketingversprechen des Herstellers, mangelnder Intelligenz des Fahrers oder einer Kombination aus allen drei Faktoren war, werden wir wohl nie erfahren. In jedem Fall ist die Erziehung zu einem Nullvertrauen in Maschinen wahrscheinlich der sicherste Weg, um Verletzungen zu vermeiden.

Keinem System zu vertrauen und sich selbst eines Systems zu berauben, das bessere Ergebnisse bringen könnte, ist kein Allheilmittel. Ideal wäre es, ein „kalibriertes Vertrauen“ zu fördern, bei dem der Benutzer seinen Vertrauensgrad (ob und wie er vertraut) an die Leistung des betreffenden Systems anpasst. Abhängig von der Leistung oder trotz der Leistung, denn viele Unternehmen sind dafür bekannt, die tatsächlichen Fähigkeiten ihrer Produkte zu übertreiben oder zu verbergen (die Werbeargumente sollten auf den Prüfstand gestellt werden).

Die Kalibrierung unseres Vertrauens kann also Leben retten, aber im Falle von Unsicherheit und hohem Risiko in der Mensch-Maschine-Beziehung ist es besser, ein Null-Vertrauen anzunehmen (better safe than sorry).

Dritte Frage: Sollten wir aufhören, über Vertrauen zu sprechen? Kurze Antwort: Ja. Lange Antwort: Es ist kompliziert.

Wenn es heißt, dass man der KI nicht trauen sollte, lautet die wichtigste Botschaft unserer Meinung nach: Denkt nach, bevor ihr handelt. Aber Denken ist anstrengend. Wäre es nicht toll, wenn ich einem Unternehmen blind vertrauen könnte, dass es meine Privatsphäre respektiert und meine Produkte pünktlich liefert? Tut mir leid, aber Blockchain ist hier keine Hilfe, und versuchen Sie erst gar nicht, uns eine Krypto-Lösung vorzugaukeln. Ein Label kann ein guter Anfang für alle Dinge sein, die nicht reguliert sind. Aber machen wir die Dinge nicht noch komplizierter, indem wir einen weiteren Akteur in die Vertrauensgleichung einbeziehen, den wir ohnehin nicht ganz verstehen? Sollten wir das Vertrauen in Etiketten als Indikator für das Vertrauen in Maschinen in der Zukunft untersuchen?

Letztlich ist Vertrauen als Einstellung ein interessantes Thema für Psychologen. Aber wenn wir über Maschinen oder Funktionen sprechen, sollten wir die richtigen Begriffe verwenden und uns auf die Zuverlässigkeit konzentrieren, denn das ist das, was wir am besten kontrollieren können.

Folgefrage: Was ist mit Recht und Vertrauen?

Bezeichnungen sind nützlich, um Zuverlässigkeit zu gewährleisten, aber sind Gesetze nicht eine bessere Option? Sollten wir nicht alle unsere Bemühungen auf Gesetze und Vorschriften konzentrieren? Ist dies unser einziger wirklicher Indikator für Vertrauenswürdigkeit? Erstens: Ja, wir sollten uns sehr um Gesetze und Vorschriften bemühen, um die Verantwortlichkeit der Designer zu gewährleisten. Zweitens, nein: Die Gleichung „Gesetz und Vertrauen“ ist eine falsche Antwort. Der Grund für Gesetze sollte nicht darin bestehen, das Vertrauen zu stärken, sondern vielmehr darin, die Rechenschaftspflicht und das reibungslose Funktionieren der Gesellschaft zu fördern. Der grundlegende Zweck eines Gesetzes besteht darin, Normen festzulegen, die Ordnung aufrechtzuerhalten, Streitigkeiten zu schlichten und Freiheiten und Rechte zu schützen, und nicht darin, das Vertrauen in die Menschen oder in KI zu stärken.

Schlussfolgerung: Kümmern Sie sich nicht um die Details

Gesetze und Ethiksiegel lösen das Problem des Vertrauens nicht. Es könnte sogar sein, dass die Formel „je mehr man einer Technologie vertraut, desto mehr benutzt man sie“ nicht zutrifft. Die Menschen verlassen sich aus den irrationalsten Gründen auf die am wenigsten vertrauenswürdigen Produkte – der rationale homo oeconomicus ist tot. Die Menschen von heute sind durch und durch sozial, sie schätzen Bequemlichkeit und Geselligkeit. Wir mögen Menschen, wir mögen Bindungen, und da wir kein anderes Verhaltenswissen mobilisieren können, vermenschlichen wir sogar Maschinen.

Dieser Anthropomorphismus ist gar nicht so schlecht, vorausgesetzt, die Agenten sind nicht absichtlich darauf ausgelegt, Menschen zu manipulieren. Sicherlich ist der Ausdruck „vertrauenswürdige KI“ eine anthropomorphe Sprache, aber er hat den Vorteil, dass er eine Botschaft vermittelt, die von fast jedem, der eine Vorstellung von diesem unscharfen Gefühl des Vertrauens hat, sofort verstanden wird. Würde man von erklärbarer oder verantwortlicher KI sprechen, würde das nur ein sehr kleiner Teil der Menschen verstehen.

Auch wenn die Begriffe „Vertrauen“ und „Zuverlässigkeit“ im Zusammenhang mit KI zu Recht kritisiert werden, können sie auch begrüßt werden. Sie ermöglichen es jedem, die Hauptgründe für den Bau und die Nutzung dieser komplexen technologischen Objekte und ihre Auswirkungen auf die Gesellschaft zu verstehen. Vielleicht täten wir alle besser daran, die Dinge entspannter anzugehen und vertrauenswürdige KI eher als eine Vision denn als eine technisch präzise Aussage zu sehen.

Autoren

Marisa Tschopp, Psychologin, Forscherin scip AG

Prisca Quadroni, Juristin, Mitgründerin Legal & Strategy Consulting AG

Marc Ruef, Cybersecurity-Experte, Leiter Forschung scip AG

Similar talks

Overcoming the Challenges of AI Development in the Health Sector with Expert Guidance

The challenges to developing AI-based solutions in the health and medical sectors are significant yet navigable with the right combination of expertise.

KI und rechtliche Überlegungen

Die Aussicht auf die Einführung von KI in einem Unternehmen wirft viele Fragen auf. Hier die Antworten auf einige von ihnen.

Partnerschaft mit Modulos AG

Die Modulos AG und AI LSC bündeln ihre Kräfte, um vertrauenswürdige KI- und Compliance-Dienstleistungen im Einklang mit den kommenden KI-Vorschriften anzubieten