Unsere Veranstaltung
Besondere Vorsicht und Sorgfalt bei der Spezifikation nötig
Designentscheidungen von heute prägen ganz entscheidend unsere Zukunft, ist der Appell von Prof. Dr. habil. Andrea Herrmann. Denn sie hat noch nicht erlebt, dass eine Automatisierung rückgängig gemacht wurde. Ein griffiges Beispiel: Autonomes Fahren macht Führerscheine überflüssig. Es gibt dann also irgendwann Autobesitzer ohne Führerschein, die das Steuer gar nicht mehr übernehmen könnten. Wollen wir das?
Es gibt nicht nur das vollständig autonome Auto und das vollständig vom Fahrer gesteuerte, sondern man unterscheidet Zwischenstufen in fünf Autonomiegraden. Bisher durfte Grad 3 auf die Straße, aber eine Änderung des Straßenverkehrsgesetzes erlaubt ab diesem Jahr Grad 4 in begrenzten Bereichen.
Die Autonomie des Fahrzeugs besteht im eigenständigen Entscheiden, zum Beispiel bei Routenwechseln wegen Stau, aber auch bei der Reaktion in Gefahrensituationen. Im Extremfall: Wen soll das Auto überfahren, wenn Bremsen nicht mehr möglich ist? Die Katze? Die Mutter mit Kinderwagen? Den alten Mann? Diese Entscheidung fiele auch einem Menschen schwer! Das autonome Auto sollte durch vorausschauendes Fahren und das Einhalten von Verkehrsregeln möglichst nicht in solche Situationen geraten. Aber das hilft nichts, wenn plötzlich ein Tier oder Mensch hinter einem Hindernis hervor auf die Straße springt.
In einem Online-Experiment des MIT sollen Probanden diese Entscheidungen treffen (siehe https://moralmachine.mit.edu). Interessant dabei: Es gibt kulturelle Unterschiede, wie hoch ein Leben eines Menschen bewertet wird … Haftungsfragen sind ebenfalls noch ungeklärt, denn ein Fehler des autonomen Systems könnte sowohl ein Produktfehler (Programmierfehler) sein und unter die Produkthaftung fallen als auch durch ein falsches Training durch den Fahrer bzw. Benutzer verursacht worden sein. Die Fachliteratur zählt zahlreiche Fälle auf, in denen aufgrund schlechter Trainingsdaten eine Künstliche Intelligenz (KI) das Falsche lernte.
Wie kann eine Maschine also korrekte ethische Entscheidungen treffen? Dafür müssten wir genau klären, was das überhaupt ist. In der aktuellen Diskussion treten zwei unterschiedliche Ethik-Schulen gegeneinander an: Utilitarismus versus Deontologie.
Beim Utilitarismus gilt der Grundsatz, dass man diejenige Handlungsoption wählt, die allen den größten Nutzen bringt oder den geringsten Schaden verursacht. Diese Nutzwertanalyse ist jedoch schwierig, da man dafür Echtzeitprognosen für Folgen von Handlungsalternativen quantitativ bewerten muss. Dies wiederum erfordert Wissen über die Welt, das Maschinen nicht haben (können). Es müsste auch festgelegt werden, ob ein junger oder alter Mensch mehr wert ist. Falls durch die KI im Durchschnitt die Unfallrate sinkt, dann wäre es laut Utilitarismus in Ordnung oder sogar gefordert, Autos durch KI steuern zu lassen. Es ist durchaus denkbar, dass viele Tätigkeiten durch eine KI fehlerfreier ausgeführt werden als durch Menschen, z. B. weil sie nicht müde wird, keine Angst hat und sich nicht ablenken lässt.
Bei der Deontologie dagegen gelten absolute Regeln, die ausnahmslos gelten. Da sich diese gegenseitig im konkreten Spezialfall widersprechen können, müssen sie priorisiert sein. Solche Regelwerke sind Gesetze, die Menschenrechte, Ethik-Richtlinien oder die Asimov-Regeln. Es ist jedoch schwierig, alle möglichen Situationen durch Regeln abzudecken. Darum sollte die KI zusätzlich noch lernen, ähnlich wie ein Fahrschüler. Trotzdem würde die Deontologie das autonome Auto nur dann für ethisch vertretbar halten, wenn es das Asimov-Gesetz „Eine Maschine darf keinen Menschen töten“ einhalten kann.
Da dies nicht garantiert werden kann, darf der Mensch momentan die Verantwortung für das Fahren nicht vollständig an die Maschine abgeben, sondern bleibt verantwortlich.
Noch kritischer ist die Vorstellung einer Superintelligenz, die den Menschen übertrifft und die Entwicklung von Software und KI übernimmt. Dies könnte laut dem Philosophen Nick Bostrom die letzte Erfindung des Menschen sein. Danach übernimmt die Superintelligenz den gesamten Innovationsprozess. Dabei orientiert sie sich konsequent an dem ursprünglich definierten Ziel. Falls dieses darin besteht, Büroklammern herzustellen, transformiert die Superintelligenz das ganze Weltall in eine Büroklammerfabrik. Wir müssen uns also genau überlegen, wie wir das Ziel der Superintelligenz formulieren. Unliebsame Überraschungen sind jedoch nicht ausgeschlossen, wenn die KI uns alles aus der Hand nimmt.
Prof. Andrea Herrmann fasst zusammen: Was braucht die autonome KI, um möglichst ethisch agieren zu können? Sie muss den Entscheidungsbedarf selbstständig erkennen und dann mehrere Handlungsalternativen finden, bewerten und die passende auswählen können. Sie braucht die richtigen Bewertungskriterien, wobei noch geklärt werden muss, ob dabei der Deontologie oder dem Utilitarismus gefolgt werden soll. KI benötigt ein umfangreiches Weltverständnis, um Handlungsfolgen einschätzen zu können. Sie muss ihre Entscheidungen und deren Begründungen protokollieren, um Transparenz und Nachvollziehbarkeit herzustellen – ähnlich der Blackbox im Flugzeug als erweiterter Fahrtenschreiber. Auf Anfrage muss eine ethische KI ihre Entscheidung begründen können („Explainable AI“). Und sie lernt aus Feedback.
Die Entscheidung darüber, was KI darf, gestaltet unsere Zukunft, wie Prof. Andrea Herrmann betont. Ihre Empfehlung lautet: KI darf keine Entscheidungen treffen, die Menschen schädigen könnten. KI soll/kann menschliche Intelligenz nicht nachahmen, sondern ergänzen, z. B. durch Messen, Merken oder Auswerten von Daten. Situationen und deren Folgen einzuschätzen, ethische Urteile und Empathie, das sollte der Verantwortungsbereich des Menschen bleiben. KI und Mensch können einander aber zum perfekten Team ergänzen.
Fragen zum Studium
Kostenloses Infomaterial anfordern