Читать книгу Todesalgorithmus - Roberto Simanowski - Страница 15

Opferlogik

Оглавление

So groß das ethische Dilemma der Todesalgorithmen auch ist: Ihnen nicht die Regie zu überlassen, wäre auch keine Lösung. Noch unmoralischer, als kühl und herzlos das Leben eines Kindes gegen das eines Rentners abzuwägen, wäre es, eine Technologie zu blockieren, die Zehntausende von Unfalltoten pro Jahr verhindern könnte. So jedenfalls die Argumentation der Befürworter des autonomen Fahrens und die Rechnung des Utilitarismus. Die Statistik ist das Totschlagargument der neuen Technologien, ganz gleich welche ethischen Dilemmata diese mit sich bringen. Selbst militärische Drohnen und autonome Waffen werden schließlich genau damit gerechtfertigt: weniger Kollateralschäden um den Preis ihrer konkreten Akzeptanz.

Die Statistik liefert zugleich das Argument dafür, im Ernstfall immer die Fahrzeuginsassen zu opfern. Zwar trifft diese die geringste Schuld an einem Unfall, wenn sie nur über den Algorithmus vermittelt am Straßenverkehr teilnehmen. Zwar werden, insofern Algorithmen verlässlicher operieren als Menschen, gerade jene die Unfälle verursachen, die nicht im Auto sitzen: das Kind, das dem Ball hinterher läuft, die Fußgängerin am Handy, der Fahrradfahrer, der das Gleichgewicht verliert. Aber es gilt zu unterscheiden zwischen der konkreten Schuld, die aus menschlichem Fehlverhalten resultiert, und jener generellen Schuld, die aus dem Technologiegebrauch folgt. Denn die eigentlichen Mobilitätsrisiken werden nicht von Fußgängern oder Fahrradfahrern erzeugt, sondern vom Autoverkehr, der schwere Gegenstände so schnell durch den Raum bewegt, dass ein Zusammenstoß damit tödlich sein kann. Auch wenn die Anzahl an Unfallopfern durch selbstfahrende Autos gesenkt wird, das Todesopfer an sich ist eine Folge des Autoverkehrs. Verlangt die neue Technologie eine Vorentscheidung zur Ausweichstrategie des Fahrzeuges im Ernstfall, wäre es also durchaus angemessen, das Opfer den Nutznießern des Mobilitätsrisikos aufzubürden.

Die Grundeinstellung der Fahrzeuginsassenopferung wäre ein symbolisches Opfer, das die Gesellschaft im Ausgleich für die Segnungen der neuen Technik all jenen abverlangt, die diese Technik nutzen. Es wäre in gewissem Sinne zugleich ein technisch basiertes Update jenes wirkmächtigen Konzepts, wonach das Individuum erst dann zu sich selbst findet, wenn es freiwillig für das Vaterland – als das Höhere, in das der Einzelne aufgeht – in den Krieg zieht. Der Unterschied: Man verschreibt sich nun nicht einem Mechanismus, der auf Zerstörung aus ist, sondern einer Technologie, die auf Kollisionsvermeidung zielt, was das Risiko, tatsächlich ein Opfer bringen zu müssen, auf eine akzeptable Höhe senkt. Die Vorbereitung der Gesellschaft auf diese Opferbereitschaft wird im Kontext einer anderen, ebenfalls mehr Sicherheit versprechenden und ebenfalls nicht unfallfreien Technologie erfolgen, die viel näher als das völlig autonome Auto vor ihrer generellen Einführung steht: die flächendeckende automatisierte Gesichtserkennung an öffentlichen Plätzen zur Bekämpfung von Kriminalität und Terrorismus. Auch bei sinkender Fehlerquote werden dieser Technologie Unschuldige zum Opfer fallen, was insgesamt aber selbst diese nicht davon abbringen wird, dem Einsatz solcher Sicherungssysteme zuzustimmen.

Eine andere Lösung wäre die Abstimmung: die Behandlung des ethischen Dilemmas mit quantitativen Mitteln. Was allerdings die einen als Basisdemokratie begrüßen würden, wäre den anderen als Maximierungskalkül Objekt der Kritik. Denn schon die Abstimmung, ob das Prinzip der deontologischen Ethik zur Disposition stehen und im Ernstfall eine utilitaristische Aufrechnung von Menschenleben stattfinden sollte, würde – als quantitatives Verfahren der Entscheidungsfindung – dem Vermessungsprinzip des Utilitarismus den Vorrang geben. Gewinnen würde nicht das beste Argument, sondern die größte Zahl, das also, was am meisten Zustimmung erringt und damit, wenn nicht Glück, so doch Zufriedenheit mit dem Ergebnis maximiert. Zieht man dann noch in Betracht, dass die Algorithmen, über deren Programmierung abzustimmen ist, letztlich nichts anderes sind als komplexe Rechenoperationen, lässt sich das Ganze, systemübergreifend, als eine bizarre Rückkoppelung des Mathematischen beschreiben: Die ethischen Probleme, die aus dem Erfolg des Systems Mathematik resultieren, werden selbst wiederum in mathematischer Form gelöst.

Angesichts der nicht nur durch die Moral Machine bestätigten regionalen Unterschiede liegt es freilich nahe, die Algorithmen unterschiedlich zu programmieren und die Entscheidung oder eben Abstimmung dazu regional vorzunehmen. In der Folge könnten, je nach moralischem Selbstverständnis und Mehrheitsentscheid, bestimmte Länder die Selbstopferung vorschreiben, andere streng utilitaristisch vorgehen und wieder andere immer der Rettung der Insassen den Vorrang geben. Natürlich ließen sich die Algorithmen per GPS leicht auf die territorial jeweils geltenden Normen rekodieren, um die unterschiedlichen Wertvorstellungen national durchzusetzen. Aber soll VW fern ab vom deontologischen Deutschland in südlichen Ländern tatsächlich autonome Autos anbieten, die vor allem das Leben von „higher status characters“ und Haustieren schützen oder das der heiligen Kuh? Das wäre so befremdend, wie wenn Google in China die Welt so darstellen würde, wie es den dortigen Machthabern genehm ist. Hieße die regionale Entscheidung nicht, den moralischen Normen den Anspruch einer universalen Geltung und damit ihre moralische Rückversicherung zu entziehen?

Angemessener erscheint da der Vorschlag, im Ernstfall einen Zufallsgenerator über die anzuwendende Norm entscheiden zu lassen. Der Verstoß gegen das Aufrechnungsverbot von Menschenleben wäre dann durch dessen Variabilität getilgt. Die Entscheidung der künstlichen Intelligenz nähert sich dem Modus der menschlichen Spontaneität. Aber auch dies wäre keine verfassungsgemäße Programmierung. Auch dies würde die am Straßenverkehr beteiligten Personen „zu einem bloßen Objekt degradieren“; ganz zu schweigen von anderen Abwägungen, wenn Gefahrlastgüter involviert sind, die im Kollisionsfall weitreichende Umweltschäden nach sich ziehen würden.14 Deswegen sei auf der Frage beharrt, ob es möglich ist, einer global operierenden Technik einen ethischen Standard zu geben, der global Verbindlichkeit beanspruchen kann. Dabei geht es um mehr als die Beseitigung regionaler Differenzen. Es geht um die Frage, ob sich auf der Ebene der angewandten Ethik die gegensätzlichen Perspektiven einer Allgemeinen Ethik, hier als deontologisch und konsequentialistisch markiert, versöhnen lassen.

Die Voraussetzungen stimmen nicht optimistisch. Werte und die daraus ableitbaren Rechte sind nicht universell, sondern kulturell verschieden. Das zeigt, wenn es um universell geltende Menschenrechte geht, nicht zuletzt die Bangkok Declaration on Human Rights 1993, die „Asian Values“ gegen den ‚Menschenrechtsimperialismus‘ des Westens in Stellung bringt. Den kulturellen Unterschied, wenn es um das Weichensteller-Dilemma geht, bezeugen die Erhebung der Moral Machine

Todesalgorithmus

Подняться наверх