Fundstück der Woche: Die Moral Machine

Home  >>  Fundstück  >>  Fundstück der Woche: Die Moral Machine

Fundstück der Woche: Die Moral Machine

Es gibt derzeit kaum einen Automobil- oder Tech-Konzern, der das autonome Fahren nicht als das Zukunftsthema im Bereich Mobilität sieht. Daimler, BMW, Audi aber auch Tesla und Google arbeiten an eigenen Konzepten, die den Fahrer schon bald überflüssig machen könnten. Auf den großen Automessen werden Werbefilme gezeigt, in denen junge dynamische Menschen in silberglänzenden Karossen sitzen und Mails beantworten oder sich während der Fahrt mit ihren ebenfalls sehr attraktiven Familienmitgliedern unterhalten. Es könnte alles so schön sein! Also in einigen Jahren. Wenn es wirklich autonome Fahrzeuge gibt, in denen kein Fahrer, sondern nur noch Passagiere sitzen. Einige Jahre wird das vermutlich noch dauern, hängen wir auf einer sechsstufigen Entwicklungsskala derzeit irgendwo zwischen Stufe 2 (teilautomatisiert) und 3 (hochautomatisiert) fest. Bleibt also noch Zeit, sich über ethische Aspekte des autonomen Fahrens Gedanken zu machen.

Neben dem Komfort und der neuen Freiheit für den Autofahrer ist es vor allem der Sicherheitsaspekt, den Autohersteller und Befürworter des autonomen Fahrens ins Feld führen. Der ADAC schätzt, dass 90 Prozent aller Unfälle auf deutschen Straßen durch menschliches Versagen verursacht werden. Das erscheint logisch, denn wir alle wissen, dass der Mensch manchmal Fehler macht. Wir sind unkonzentriert, wir fahren zu schnell, übersehen das Stoppschild oder beim Abbiegen den Radfahrer. Autonome Systeme hingegen machen (zumindest in der Theorie) keine Fehler. Unzählige Sensoren (z.B. Kameras, Ultraschall oder Laser) erfassen die Umwelt des Fahrzeugs und reagieren in Millisekunden. Zum Beispiel, wenn der Vordermann plötzlich bremst oder ein Tier auf die Straße läuft. Soweit so gut. Aber wie entscheidet ein autonomes System in Situationen, in denen es um Leben oder Tod geht? Können wir solche Entscheidungen wirklich in die Hände einer Maschine legen?

Wissenschaftler vom Massachusetts Institute of Technology (MIT) haben mit der Moral Machine eine Plattform geschaffen, die verschiedene moralische Dilemmata, vor denen ein selbstfahrendes Auto in Zukunft stehen könnte, durchspielt und analysiert. Die Ausgangssituation ist immer dieselbe: Ein selbstfahrendes Auto mit plötzlichem Bremsversagen sieht sich vor der Entscheidung entweder gegen eine Betonbarriere zu krachen oder ungebremst einen Zebrastreifen zu passieren. Im ersten Fall sterben alle Insassen des Fahrzeugs, im zweiten Fall die Fußgänger, die den Zebrastreifen überqueren. Dreizehn verschiedene Szenarien mit unterschiedlichen Charakteren (Ältere Menschen, Kinder, Führungskräfte, Kriminelle, Hunde und Katzen) werden von der Moral Machine vorgegeben. Zusätzlich können Nutzer noch weitere Szenarien erstellen. Am Ende der Simulation wertet die Moral Machine die Ergebnisse aus und vergleicht diese mit den Entscheidungen der anderen User. Ganz neu ist die Dilemma-Theorie nicht. Neben dem Schiffbrüchigen-Dilemma aus der griechischen Philosophie gibt es weitere moralische Gedankenexperimente wie z.B. das Weichensteller-Problem aus den 30er Jahren. Besondere Aktualität erlangt die Dilemma-Problematik vor dem Hintergrund der Entwicklung autonomer Fahrzeuge verbunden mit der Frage: Sollen Maschinen in Zukunft Entscheidungen treffen, die so weitreichende Folgen haben wie eben geschildert? Oder soll der Mensch trotz aller technischen Raffinessen, die in seinem automatisierten Fahrzeug verbaut sind, in seiner Eigenschaft als vernunftbegabtes Wesen in letzter Instanz die Entscheidungen treffen (auch wenn sie vielleicht falsch sind)? Unsere Empfehlung aus der MESCHMASCH-Redaktion: Heute Abend die Moral Machine durchspielen und danach mit dem Partner oder Freunden die Ergebnisse diskutieren.

Teilen und Drucken
Email this to someone
email
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Print this page
Print

4 Comments so far:

  1. Christian Steinmeyer sagt:

    Hi! Ich bin gerade frisch auf diese Plattform gestoßen und finde sie sehr spannend. Ich würde es jedoch begrüßen, wenn die Auseinandersetzung mit den „Fundstücken“ ein bisschen kritischer als in diesem Beispiel stattfinden würde. Es ist vielleicht einmal ganz interessant, solche Gedankenexperimente durchzuspielen, aber zielführend sind sie nicht. Dazu folgende Punkte:

    1. Die Grundsituation ist sehr unrealistisch: Plötzliches Bremsversagen, bei einer hohen Geschwindigkeit mit nur zwei Möglichkeiten, wobei jeweils Menschen sterben. Zunächst einmal gibt es immer mehr Möglichkeiten als zwei (was natürlich ein Gedankenexperiment schwieriger machen würde), dabei hätte ein autonomes Fahrzeug stets die Aufgabe, jene zu finden, bei der mögichst wenig Schaden entsteht (wie auch immer das genau aussehen mag). Dann haben die Hersteller von autonomen Fahrzeugen natürlich die Aufgabe, Backups einzubauen und ihre Maschinen dadurch fail-safe zu machen (bis zu einem bestimmten Grad). So könnte man etwa ein Bremssystem, welches beim Bremsen Energie gewinnt (wird in vielen elektrischen Fahrzeugen verwendet), so umkehren, dass man die Bremskraft erhöht oder Ähnliches. Darüber hinaus werden solche Fahrzeuge mit Unmengen an Sensoren ausgestattet, die mögliche Gefahren, wie etwaiges Bremsversagen frühzeitig erkennen und solche Situationen dementsprechend vermieden werden. Dass auch dabei keine 100% der Fälle abgedeckt werden können, ist mir bewusst. Dazu mehr unter dem nächsten Punkt.

    2. Die Betrachtungsweise hilft nicht: Wem sollte man das Leben gewähren und wem nicht? Das ist eine Frage, die niemand beantworten kann, auch keine Ingeneurinnen oder Ingeneure von autonomen Fahrzeugen. Aus sozialer Perspektive ist es vielleicht interessant zu sehen, was Menschen dazu denken, aber Maschinen werden niemals Informationen besitzen um auch nur ansatzweise „sinnvolle Entscheidungen“ zu treffen, zumal es reine Ermessenssache ist, was dabei als sinnvoll erachtet werden sollte (Alter, Lebenserwartung, Moralvorstellung…?).

    3. Der Vergleich zu der aktuelle Situation fehlt: Wie sieht es denn heutzutage aus? Heute treffen Menschen entsprechende Entscheidungen, allerdings nicht, indem sie sich stundenlang zuhause Gedanken darüber machen und mit Anderen diskutieren, sondern indem sie instinktiv in der tatsächlichen Situation reagieren, wenn sie sie nicht vermeiden konnten. Dabei spielt Moral eine vermutlich kleine Rolle. Deswegen, und weil es unmöglich ist, alle Situationen im Vorhinein zu berücksichtigen, sollte man meiner Meinung nach keine entsprechenden Versuche der Vorweg-Entscheidung unternehmen. Viel sinnvoller wären generelle Werte, wie das Schützen von Leben und nachgestellt das Vermeiden von Schaden insgesamt. Sollten in einem mathematischen Modell des autonomen Fahrzeuges dann mehrere Möglichkeiten mit dem selben „Wert“ entstehen, ist die einzig faire Größe der Zufall. Auch wenn das zunächst nicht ausreichend erscheinen mag ist der letzte Punkt unheimlich wichtig, um die Situation richtig einschätzen zu können.

    4. Die Betrachtung der Verhältnismäßigkeit fehlt: Es wird auch bei autonom fahrenden Fahrzeugen zu Unfällen kommen. Ja. Aber es werden deutlich weniger Unfälle mit deutlich weniger Opfern und Schäden enstehen als ohne sie. Die meisten davon werden höchstwahrscheinlich in einer Übergangsphase passieren, bei denen menschliches Versagen der anderen Unfallbeteiligten die (Haupt-) Ursache sein wird. Das viel sinnvollere Gedankenexperiment wäre also: Wenn man zwei Möglichkeiten hätte: Entweder bleibt man beim bisherigen System, oder man führt autonome Fahrzeuge ein, mit dem Risiko, dass es zu entsprechend moralisch schwierigen SItuationen kommen kann, aber ebenfalls mit der Gewissheit, dass es zu 10%, 50%, 100%, 1000%, oder 10000% (…) weniger Unfällen insgesamt kommt, welche dieser Möglichkeiten sollte man wählen?

    • MESCHMASCH sagt:

      Stimmt, die Situation ist extrem vereinfacht und zugespitzt – und damit umso kontroverser. Wir wollten das Experiment kurz vorstellen, um auch über die von Ihnen angesprochenen Aspekte diskutieren zu lassen. Ob die Auswahl aus zwei Optionen nun realistisch ist oder nicht, sie führt dennoch vor Augen, dass wir bei vollständig autonomen Fahrzeugen alles den Algorithmen überlassen – und diese entscheiden im Extrem(-Un)fall über Leben und Tod. Diese Situationen kann man einem Fahrzeug nicht einprogrammieren. Die Frage wäre also: Wie kommt die Maschine zu dem einen oder anderen Ergebnis – und wie sehr beeinflussen wir diese Entscheidungsfindung?

  2. Geo Green sagt:

    …, aber Maschinen werden niemals Informationen besitzen um auch nur ansatzweise „sinnvolle Entscheidungen“ zu treffen, … schrieb Herr C.S.

    Die KI, welche diese Entscheidungen trifft, wird durch die konstante Integration und Verbindung der täglich zunehmenden, schier unendlichen Erfahrungswerte immer bessere Lösungen zu liefern in der Lage sein. Kann es sein, dass Sinn und Denken zum Großteil auf Erfahrungen basieren, womit die KI, da sie nichts vergisst oder verdrängt, nahezu alle Eventualitäten in Betracht ziehen wird, um sinnvoll zu entscheiden. Selbst die Früchte von Phantasie und genialer Innovationsgabe, die man den Menschen gerne als Alleinstellungsmerkmal andichtet, könnten ihre Wurzeln in einem Geflecht von Erfahrungswerten, Kombinatorik und der bewussten Ausrichtung einer Lösungssuche in andere, scheinbar falsche oder sinnlose Richtungen haben. Nach dem Prinzip der Falsifikation oder der Regel des 10. Mannes, rein um auch die der Logik und dem Naheliegenden widersprüchlichen Möglichkeiten für gesuchte Lösungen auszuloten und so über (un)erwünschte Nebeneffekte zu völlig neuen Einsichten zu kommen. Das gilt natürlich auch für die Verbindung von Informationen, die nicht vereinbar scheinen oder einander gar nicht zu tangieren scheinen. Durch die Schnelligkeit und Gleichzeitigkeit der Gedankenprozesse von dafür verwendeter KI scheinen die Möglichkeiten für innovative, sinnvolle und auch phantasievolle Lösungen viel näher als man denkt.

    Die Möglichkeiten heutiger, geschweige denn zukünftiger KI zu verharmlosen, erscheint, wie die Geschichte zeigt, eher unangenehm, mit ihnen achtsam umzugehen und zu wachsen, eher ratsam.

    • MESCHMASCH sagt:

      Guter Einwand. Bei der Frage nach dem Sinn von Sinn sind wir fast schon beim Thema Religion…
      Niklas Luhmann definierte: „Sinn ist laufendes Aktualisieren von Möglichkeiten.“ Wenn wir nun eine KI als geschlossenes System betrachten, ist jegliches Ergebnis, zu dem die Algorithmen des Systems kommen, „sinnvoll“, weil es mit einer klaren Aufgabenstellung Komplexität reduziert (das heißt noch lange nicht, dass wir Menschen den Sinn verstehen oder nachvollziehen können, das wäre dann eine Frage der Mensch-Maschine-Kommunikation). Je komplexer die KI ist, desto mehr müssen wir darauf achten, aus welchen Daten (= die „Erfahrungen“) und mit welchen Algorithmen die KI arbeitet. Also ja, wir müssen damit sorgsam umgehen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.