
Das Trolley-Problem auf der Straße
Eine Variante des Ausgangsproblems entwickelt sich gerade bei der Programmierung selbstfahrender Autos. In einer Studie der University of California wurde Befragten folgendes Beispiel gegeben: Sie und ein weiterer Passagier fahren in einem autonomen Fahrzeug auf einer einspurigen Straße, rechts und links Mauern. Auf der Straße vor Ihnen laufen drei Fußgänger bei Rot über die Straße. Soll die Steuerung Ihr Auto gegen eine Mauer krachen lassen? Die Mehrheit der Befragten sprach sich dafür aus, dass möglichst alle anderen Verkehrsteilnehmer Autos mit einer utilitaristischen Steuerung haben sollten, sie selbst würden jedoch lieber ein Fahrzeug fahren, das seine Passagiere unter allen Umständen beschützt. Das MIT (Massachusetts Institute of Technology) hat eine Moral Machine entwickelt, mit der man seine eigenen Entscheidungen mit denen der anderen Testpersonen online vergleichen kann. Andere Ansätze verwenden Virtual Reality, um menschliches Verhalten in Situationen dieser Art zu erheben.
Rechtsphilosophische Überlegungen zur Entscheidungsautonomie autonomer Fahrzeuge
Mit der Einführung autonomer Fahrzeuge (AV) rückt eine grundlegende Frage der Rechtsphilosophie und Technikethik in den Vordergrund: Wer trägt die moralische und rechtliche Verantwortung für Entscheidungen in Dilemmasituationen, wenn nicht mehr ein Mensch, sondern ein System entscheidet? Das klassische Trolley-Problem, ursprünglich von Philippa Foot (1967) formuliert, dient in abgewandelter Form als Ausgangspunkt für die Diskussion, ob und wie Maschinen Entscheidungen über Leben und Tod treffen dürfen – und nach welchen Prinzipien.
Im Mittelpunkt dieses Papiers steht ein hypothetisches Szenario: Ein selbstfahrendes Auto mit zwei Insassen kann aufgrund einer plötzlichen Situation (drei Fußgänger laufen bei Rot auf die Straße) nicht mehr rechtzeitig bremsen. Die einzige Alternative besteht darin, gegen eine Mauer auszuweichen – mit hoher Wahrscheinlichkeit tödlichen Folgen für die Fahrzeuginsassen. Die Frage lautet: Darf oder soll das Fahrzeug sich selbst zerstören, um die Fußgänger zu retten?
Problemstellung: Technische Entscheidung versus moralischer Konflikt
Im Gegensatz zu menschlichen Fahrern verfügen autonome Systeme über keine Intuition, kein Bewusstsein, kein Gewissen – sie handeln nicht aus moralischer Einsicht, sondern folgen algorithmischen Regeln (vgl. Damasio, 1994; Haidt, 2001). Damit stellt sich nicht nur ein technisches, sondern ein rechtsphilosophisches Problem: Können normativ ambivalente Situationen durch Regeln vollständig aufgelöst werden – oder muss es eine Letztverantwortung geben, die jenseits des Systems liegt? Eine utilitaristisch programmierte KI könnte etwa zu dem Ergebnis kommen, dass drei Leben schwerer wiegen als zwei – und somit die Insassen „opfert“. Doch bereits an dieser Stelle wird deutlich: Eine solche Entscheidung ist keine neutrale Rechenoperation, sondern ein normativer Eingriff mit tiefgreifenden moralischen und rechtlichen Implikationen.
Autonomie, Freiheitsrechte und Menschenwürde
Ein zentrales rechtsphilosophisches Argument gegen eine rein utilitaristische Logik liegt in der Unantastbarkeit der Menschenwürde (Art. 1 Abs. 1 GG). Ein System, das die Tötung seiner Nutzer kalkuliert, verletzt möglicherweise deren subjektive Freiheitsrechte – insbesondere das Recht auf Leben (Art. 2 Abs. 2 GG) und körperliche Unversehrtheit.
Nach Immanuel Kant (1785/1990) darf der Mensch niemals bloß als Mittel zum Zweck verwendet werden, sondern stets nur auch als Zweck an sich. Würde das Fahrzeug im Sinne eines höheren Nutzens (drei statt zwei Leben) aktiv die Zerstörung seiner Insassen herbeiführen, würde dies gegen das kantische Gebot der Achtung vor dem moralischen Status des Individuums verstoßen.
„Handle so, dass du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst.“
– Kant (Grundlegung zur Metaphysik der Sitten, 1785/1990, S. 429)
Verantwortung und Delegation
Nach klassischem Verständnis ist Verantwortung unteilbar: Wer handelt, trägt Verantwortung für die Folgen. Bei autonomen Systemen verschiebt sich diese Verantwortung – von der handelnden Person auf eine diffuse Kombination aus Entwickler:innen, Betreiber:innen und Gesetzgeber:innen (vgl. Hilgendorf, 2018).
Ein autonomes Fahrzeug trifft keine Entscheidung im juristischen Sinne, da ihm kein Willensakt und keine Normbegründung zugrunde liegt. Die Maschine handelt nicht verantwortlich, sondern gemäß externer Programmanweisungen. Damit ergibt sich ein strukturelles Defizit: Wer entscheidet, wenn keiner verantwortlich ist? Oder: Darf Verantwortung auf ein System delegiert werden, das keine Verantwortung tragen kann?
„Wenn Maschinen Entscheidungen treffen, ohne dass Menschen Verantwortung übernehmen, gerät das Rechtssystem an seine Grenze.“
– Hilgendorf (2018, S. 47)
Die Rolle ethischer Intuition in rechtlicher Normbildung
Das Recht lebt nicht nur von Kodifikation, sondern auch von gesellschaftlicher Normakzeptanz. Moralische Intuitionen – etwa das Unbehagen beim aktiven Töten – fließen in Rechtsnormen ein und legitimieren sie (vgl. Haidt, 2001). Künstliche Intelligenz hingegen kann keine Intuition besitzen, da sie keine emotionale oder soziale Perspektive auf den Entscheidungsinhalt einnimmt. Es fehlt ihr die Fähigkeit, das moralisch „Falsche“ zu empfinden, selbst wenn sie es korrekt identifiziert.
Daher kann KI auch keine Rechtsquelle im Sinne moralischer Geltung sein, sondern nur Werkzeug innerhalb eines normativen Rahmens, der von Menschen festgelegt werden muss.
Rechtspolitische Implikationen
Die Lösung solcher Dilemmata darf nicht an das System selbst delegiert werden, sondern erfordert politische und rechtsphilosophische Entscheidungen:
- Wer haftet im Schadensfall? Die Passagiere, die Hersteller, der Programmierer?
- Darf eine Maschine töten, auch wenn es rechnerisch „vernünftig“ erscheint?
- Soll die Zahl der Geretteten ein rechtlich legitimes Kriterium sein?
Diese Fragen zeigen, dass es nicht genügt, technische Systeme nach moralphilosophischen Modellen zu trainieren – vielmehr braucht es rechtlich verbindliche Festlegungen, was Maschinen in Extremsituationen dürfen, sollen oder niemals tun dürfen.
Lösung
Das autonome Fahrzeug im Trolley-Szenario offenbart eine tiefe Herausforderung für das Verhältnis von Technik, Moral und Recht. Die Abwesenheit ethischer Intuitionen bei KI-Modellen macht sie grundsätzlich ungeeignet, moralische Verantwortung zu tragen. Entscheidungen über Leben und Tod können nicht automatisiert werden, ohne dass das Recht seinen legitimatorischen und menschenrechtlichen Kern verliert.
Künstliche Intelligenz kann kalkulieren – aber sie kann nicht urteilen. Das ethische Dilemma kann daher nur durch gesellschaftliche Normbildung und rechtliche Rahmensetzung gelöst werden – nicht durch maschinelle Entscheidungslogik.