Читать книгу Digitale Ethik. Leben in vernetzten Welten - Petra Grimm - Страница 7

1.4 Werte in einer digitalisierten Gesellschaft

Оглавление

Werte sind Vorstellungen, Ideen bzw. Ideale. Sie bezeichnen, welche Handlungen und Einstellungen wünschenswert sind, damit das Zusammenleben in der Gesellschaft gelingt. Werte können im Wesentlichen drei Funktionen erfüllen: Sie steuern unsere Handlungen, beeinflussen unsere Wahrnehmung und Wirklichkeitskonstruktion und sie stellen Motive für unser Handeln dar.

Welche Werte gelten und welche Relevanz sie haben, ist kulturell, historisch und milieubedingt variabel. Allgemein gültige Werte sind mit der 1948 durch die Vereinten Nationen beschlossenen Erklärung der Allgemeinen Menschenrechte konsensuell festgeschrieben worden. »Moralische Werte sind«, so der Ethiker Rüdiger Funiok, »Gesinnungen, Einstellungen und gute Gewohnheiten (Tugenden): in der Internetethik beispielsweise kluge Zurückhaltung bei der Einstellung persönlicher Daten, Achtung der Urheberrechte anderer, Ehrlichkeit bei der Mitteilung über gespeicherte Daten.« Um Demokratie und Menschenrechte zu erreichen, zu sichern und zu erhalten, finden sich solche »moralischen Einstellungen […] in Grundsätzen der wirtschaftlichen und politischen Ordnung«3.

Allein auf sich gestellt bleiben Werte allerdings abstrakt; in einer Geschichte hingegen können sie erfahrbar gemacht werden: ihre Bedeutung wird anhand eines Beispiels konkretisiert und die Werte sind auf diese Weise kontextuell eingebunden. Geschichten vermitteln Werte implizit oder explizit; bei Ersterem lassen sie sich durch die Handlung ableiten, bei Letzterem werden sie in der Erzählung direkt thematisiert. So vermittelt z. B. die folgende Geschichte implizit durch die Handlung eine Reihe von Werten:

An einem Montag im Frühjahr 2025 fährt ein autonomes Fahrzeug in der Innenstadt eine Straße entlang, am Straßenrand parken Autos. Plötzlich reißt eine junge, gestylte Frau, die auf dem Weg zu ihrem Casting als Model ist, ihre Autotür auf und steigt schnell aus. Gleichzeitig will gegenüber gerade ein älterer Mann, ein Nobelpreisträger, der in Gedanken vertieft ist, die Straße überqueren. Die Bremsen des autonomen Fahrzeugs versagen, das Fahrzeug muss entweder ausscheren und damit den Nobelpreisträger anfahren, oder es bleibt »auf Kurs« und überfährt das Model. Was dann geschieht, erzählt ein Fußgänger, der Zeuge dieses Geschehens ist, am nächsten Tag in einem Video auf YouTube …

Diese Geschichte mit offenem Ende adaptiert das berühmte moralische Gedankenexperiment um das sogenannte »Trolley-Problem«4: Nach welchen ethischen Prinzipien wird entschieden, wie die Weichen eines Zugs gestellt werden, wenn diese in jedem möglichen Fall zum Tod von Menschen führen – jedoch mit verschieden hohen Opferzahlen entsprechend der jeweiligen Weichenstellung? Dieses Dilemma wird derzeit in den Medien in unterschiedlichen Varianten erzählt, um moralische Konflikte beim autonomen Fahren zu verdeutlichen: Wie sollen autonome Fahrzeuge reagieren, wenn sie automatisierte Entscheidungen treffen? Das Massachusetts Institute of Technology (MIT) bietet auf seiner Webseite die Möglichkeit an, solche Entscheidungssituationen selbst durchzuspielen.5 Allerdings ist eine Bewertung und Entscheidung über Leben und Tod der jeweiligen Fußgänger oder Fahrzeuginsassen weder ethisch noch rechtlich zweifelsfrei begründbar, sofern das individuelle Recht auf Leben jedem Menschen zugestanden wird.

Die oben erzählte Geschichte verhandelt Werte implizit: So stehen die Werte »Jugend« und »Schönheit«, die das Model verkörpert, dem Wert »Wissenschaft«, repräsentiert durch den Nobelpreisträger, gegenüber. Ebenso wird der Wert »Verantwortung« lediglich ex negativo thematisiert, indem derjenige, der für die Konsequenzen verantwortlich ist, selbst nicht in der akuten Situation involviert ist: Denn die Handlung des autonomen Fahrzeugs hat zwar schwerwiegende Folgen, wie den Verlust von »Gesundheit« oder gar »Leben«, aber der Handlungsakteur, das Auto, kann diese Verantwortung nicht übernehmen – es ist nur eine Sache, kein denkender Mensch. Verantwortlich ist allenfalls der Programmierer des Fahrzeugs bzw. das Unternehmen, das dieses in Auftrag gegeben hat.

Diese hier über die Handlung vermittelten Werte könnten nun auch explizit von einem Erzähler benannt werden, z. B. indem er die moralischen Fragen stellt: Darf ein Algorithmus den Wert eines Menschen beurteilen? Dürfen Maschinen eine automatisierte Entscheidung über Leben und Tod überhaupt treffen? Geschichten, ob reale oder fiktive, können also dazu dienen, Werte- und Normenkonflikte zu reflektieren und zu beurteilen.

Digitale Ethik. Leben in vernetzten Welten

Подняться наверх