Читать книгу Kämpf um deine Daten - Max Schrems - Страница 14

7. Analysieren, Verknüpfen und »Big Data«

Оглавление

Die heutigen, unglaublich umfangreichen Sammeltätigkeiten sind schon sehr beeindruckend. Noch spannender ist jedoch, was mit diesen Daten dann noch alles passieren kann. Wenn meine persönlichen Informationen irgendwo im Keller vergammeln würden, wären meine Sorgen eher gering. Natürlich passiert aber genau das Gegenteil: Auch die Verwertung unserer Daten wird immer umfangreicher. Auch hier wird täglich tiefer in unser Leben eingedrungen.

Leistungsfähigere Computer können auch bei großen Datenmengen tiefgreifende und detaillierte Analysen auf Knopfdruck zaubern. Aus tausenden Informationen und Faktoren wird schnell ein Wert, eine Entscheidung oder eine Aussage errechnet. Aus hunderten Artikeln, die Sie auf Amazon angesehen und den paar, die Sie gekauft haben, wird in wenigen Millisekunden errechnet, was Sie vielleicht auch noch interessieren könnte. Aus tausenden Suchabfragen der letzten Jahre errechnet Google, gemeinsam mit anderen Faktoren, ob Sie beim Suchwort »Ägypten« auf der ersten Seite Urlaubsinformationen oder eher Informationen zur derzeitigen politischen Lage bekommen. Facebook errechnet auf Knopfdruck aus tausenden Meldungen jene relevanten Informationen, die Sie auf der ersten Seite angezeigt bekommen. Die passende Werbung wird auch gleich mitberechnet. Dafür werden jeweils Millionen Informationen verarbeitet und verknüpft. Alter, Interaktionshäufigkeit, Freundschaften, Klickverhalten, angegebene und errechnete Interessen, Reaktionen von Freunden und hunderte weitere Informationen werden bemüht, um für Sie ein paar Meldungen auszuwählen.

Wenn ein Dienst das gut macht, ist die Wahrscheinlichkeit höher, dass Sie etwas kaufen, was Sie eigentlich nie wollten, weiter auf der Seite bleiben und weiterklicken. Die Nachteile solcher Analysen sind heute noch halbwegs überschaubar. Im schlimmsten Fall landen wir regelmäßig in einer sogenannten »Filter Bubble«: Damit beschreibt man das Phänomen, dass automatische Analysen den größten Teil der Informationen wegfiltern und damit bestimmen, was wir sehen oder eben auch nicht sehen. Der Informationsreichtum des Netzes wird dadurch beschnitten, ohne dass wir auswählen können, was wegkommt. Die Informationen werden immer weiter auf unsere Interessen eingeschränkt. Das bedeutet auch, dass wir in unserem eigenen informationellen Saft immer weiter einkochen. Wie bei einer Tageszeitung schneiden die Algorithmen jene Seiten weg, die Sie selten lesen. Politik? Weg damit! Sie blättern eh immer nur drüber. Dafür gibt es jetzt 25 Seiten Sport und Chronik. Wenn Sie glauben, jeder bekommt die gleichen Ergebnisse bei Google, die gleichen Updates bei Facebook oder die gleichen Vorschläge bei Amazon, dann liegen Sie falsch. Es wird alles anhand Ihrer Daten gefiltert und angepasst. In den USA geht das so weit, dass Republikaner tendenziell nur die Meinung von Republikanern und Demokraten nur demokratische Meinungen sehen. Andere Meinungen und neue Dinge, für die wir uns bis dato nicht interessiert haben, werden weggefiltert. Demokratiepolitisch ein Wahnsinn.

Aber im Vergleich mit anderen Möglichkeiten ist diese Filter-Problematik eher ein Kindergeburtstag. Mit ein paar Daten und einer guten Analyse kann man beispielsweise in Ihre Gebärmutter sehen – kein Scherz. Target, ein US-Supermarkt, machte Schlagzeilen, weil ein Verantwortlicher erklärte, dass der Supermarkt einen »Schwangerschaftsindex« für seine Kunden anlegt. Dafür haben die Analytiker von Target in Millionen Datensätzen Verbindungen gesucht. Dinge, die Kunden gekauft haben, bevor sie später Kindersachen kauften. Die Analytiker hatten am Ende eine Liste von Dingen, die statistisch relevant waren. Wenn Kundinnen diese Produkte kauften, konnte der Supermarkt sogar den Geburtstermin relativ genau errechnen. Der zuständige Analytiker meinte dazu in der New York Times, man schicke natürlich keine Aussendung mit »Gratulation zu Ihrem ersten Kind!« Man macht das etwas subtiler. An die Kunden werden »zufällig« die entsprechenden Werbungen oder Gutscheine für Babykleidung, Kinderwägen und Wickeltische verschickt. Die Aufregung in den USA war groß.

Natürlich ist davon auszugehen, dass Target nicht nur einen Schwangerschaftsindex, sondern auch unzählige andere solcher Indices für jeden Kunden anlegt. Target hält sich dabei an alle (US-) Gesetze. Der Mitarbeiter räumte gegenüber der New York Times aber ein: »Selbst wenn man sich an die Gesetze hält, kann man Dinge tun, bei denen den Leuten schlecht wird.« Ob Target den betroffenen Leuten entsprechende Gutscheine für Beruhigungstropfen zuschickt, ist nicht überliefert.

Penetrant umworben zu werden kann schon sehr grenzwertig sein. Noch problematischer wird es aber im gegenteiligen Fall, also wenn Sie gewisse Dinge nicht mehr bekommen, weil Ihre Daten analysiert wurden. Wenn Sie keine Gutscheine oder Angebote bekommen, die alle anderen bekommen, weil Sie nicht genug Umsatz bringen, wenn Sie keinen Vertrag bekommen, weil die Analyse Sie als unprofitablen Kunden ausgewiesen hat. Das muss nicht bedeuten, dass Sie nicht zahlen. Vielleicht zahlen Sie einfach nur zu wenig. Vielleicht gehen Sie nicht jedem Werbeversuch auf den Leim. Wenn Sie beispielsweise ein disziplinierter Kunde sind und eben nur die Sonderangebote nutzen, sich aber dann nicht zu großen Käufen hinreißen lassen, dann bringen Sie keinen ausreichenden Profit.

Heute ärgern wir uns, weil wir ohne Kundenkarte irgendwo keine Minus 20% bekommen. In Zukunft werden wir hingegen oft gar nicht mehr wissen, welche Optionen es gibt und was vor uns versteckt wird. So etwa hat der Zahlungsdienst PayPal mit einigen US-Airlines die Kundendaten ausgetauscht. Diese Airlines speichern in ihrer Kundenkartei, dass Sie ein PayPal-Konto haben. Wenn Sie ein Ticket kaufen, werden alle anderen Zahlungsoptionen ausgeblendet, und Sie können nur noch mit PayPal zahlen. Die Unternehmen sparen damit Kreditkartengebühren und haben vermutlich auch einen besseren Tarif von PayPal bekommen. Wenn Sie lieber mit Kreditkarte gezahlt hätten, dann ist das Ihr Problem. Ähnliches gibt es auch mit Kreditinformationen. Wenn Sie als höheres Risiko gelistet sind, können Sie nur noch vorauszahlen, die anderen Optionen werden Ihnen nicht mal mehr angezeigt. Der Vorteil für die Unternehmen: Sie wissen nicht mal, was Sie nicht bekommen.

Zur immer tiefer gehenden Analyse kommt die immer umfassendere Verknüpfung und Wiederverwendung von Daten hinzu. Wie im PayPal-Beispiel werden Daten über den einzelnen Zweck der Datensammlung, über die einzelnen Unternehmen und über alle anderen Grenzen hinweg verknüpft. Durch die Verknüpfung entsteht aus einzelnen Datenpunkten ein eng verwobenes Datennetz zu jeder Person. Wie bei einem Puzzle ergibt erst die Zusammenschau aller Teile das detaillierte Gesamtbild. Die Gesamtheit ist dabei mehr als die Summe der Einzelteile, viel mehr.

Dieser Prozess passiert einerseits über die Verknüpfung Ihren Daten aus verschiedenen Quellen, zum Beispiel bei direkten Kooperationen verschiedener Unternehmen, über Datenhändler und über die Integration von externen Systemen. Andererseits werden Ihre Daten auch mit den Daten anderer Personen verknüpft, die Ihnen irgendwie ähnlich sind oder Rückschlüsse auf Sie zulassen.

Ein Beispiel: Wenn man von Ihnen etwa nur weiß, dass Sie ein gewisses Studium an einer Uni besucht haben, so lassen sich die Informationen aller anderen Personen mit dem gleichen Merkmal mit Ihren Daten verknüpfen. Wenn Sie, wie ich, Rechtswissenschaften studiert haben, sind Sie statistisch gesehen vermutlich finanziell besser ausgestattet, konservativ und, wenn Sie das Studium überlebt haben, vermutlich auch nicht ganz doof. Wenn Sie, wie ich, im 6. Bezirk in Wien wohnen, sind Sie tendenziell finanziell okay ausgestattet, wählen Grün, kaufen Bio-Fleisch und sind ein Bobo oder zumindest nah dran einer zu werden. Wenn Sie 1987 geboren sind, dann sind Sie vermutlich Teil der »Generation Praktikum«, sind finanziell nicht so gut ausgestattet und haben bis heute keinen genauen Karriereplan.

Man sieht also, dass man schon aus drei Informationen mit einer gewissen statistischen Treffergenauigkeit Dinge errechnen kann. Wenn Sie nur die Zahlen 1060, A101 oder 1987 sehen, ist das nicht vorstellbar, aber durch die Verknüpfung mit anderen Personen, die auch als Postleitzahl 1060, als Studienkennziffer A101 und als Geburtsjahr 1987 haben, lässt sich aus diesen mickrigen drei Zahlen ein gutes Bild zeichnen. Das Ganze funktioniert, ohne diese zusätzlichen Informationen vom einzelnen Nutzer einsammeln zu müssen. Die Unternehmen brauchen nur Informationen über eine gewisse Zahl der Personen, die zu einer Gruppe gehören, um auf den Rest hochrechnen zu können. Die einzelne Person weiß nicht einmal, dass sowas passiert und geht daher auch überhaupt nicht davon aus, dass die Postleitzahl mehr als den groben Wohnort verraten kann.

Noch weiter kann man das treiben, wenn Sie beispielsweise ein Profil auf Facebook haben. Facebook braucht nicht mal mehr Ihre Angaben zu Studium, Wohnort oder Geburtsjahr. Durch Ihre Freunde lässt sich auch das ausrechnen, denn tendenziell haben Sie entsprechende Freundesgruppen, die gleich alt sind (Schulfreunde), die das Gleiche studiert haben (Studienfreunde) oder das Gleiche arbeiten (Arbeitskollegen). Über deren Daten lassen sich dann auch Ihre Informationen hochrechnen. Bei E-Mail-Konten oder anderen digitalen Beziehungen ist das natürlich auch möglich.

Das Problematische daran ist unter anderem, dass Daten, die wir irgendwo angeben, für vollkommen unvorhergesehene, absolut unerwartete Berechnungen verwendet werden. Oft sind das auch Sekundärverwendungen, die nichts mit der ursprünglichen Datensammlung zu tun haben. Wenn Sie etwa Ihre Postleitzahl in einem Webshop für die Zustellung hergegeben, haben Sie nie zugestimmt, dass dadurch Ihr vermutlicher Bio-Fleisch-Konsum oder Ihre Kreditwürdigkeit errechnet werden. Wenn Sie jemanden zu Ihrem Adressbuch hinzufügen, gehen Sie nicht davon aus, dass das zur Berechnung Ihres Wohnorts verwendet werden könnte. Das ist ein vollkommen anderer Verwendungszweck, als Sie ursprünglich dachten.

Das Problem erkannten Datenschützer schon in den 1980ern. Daher wurde in unsere Datenschutzgesetze die sogenannte »Zweckbindung« eingefügt. Das bedeutet, dass Daten nur für den jeweiligen Sachzusammenhang verwendet werden sollen und nicht für irgendwas Unerwartetes. Zweckbindung hört sich etwas formalistisch an, das Konzept kennen wir aber auch im täglichen Leben: Wenn Sie zum Arzt gehen und ihm intime Informationen über Ihre Schmerzen beim Stuhlgang geben, dann erwarten Sie implizit, dass diese Informationen nur für die Behandlung verwendet werden. Sie wären empört, wenn der Arzt das am Stammtisch weitererzählt oder wenn er die Daten an ein Pharmaunternehmen weitergibt, das Ihnen eine Testpackung Hämorrhoidenzäpfchen zuschickt. Sie erwarten vollkommen logisch, dass die Information für einen bestimmten, abgeschlossenen Zweck verwendet wird.

Die Zweckbindung, die Sie beim Arzt vollkommen natürlich erwarten, gilt laut Gesetz bei allen Daten, sie wird in der Praxis jedoch weitgehend ignoriert. Unternehmen definieren entweder den Zweck so allgemein, dass ohnehin alles erlaubt ist, oder sie vergessen auf diese Beschränkung überhaupt. Damit ist dann auch sichergestellt, dass alle Daten aus allen Quellen für jeden Zweck analysiert oder verknüpft werden dürfen. Frei nach dem Motto: »Cool, die Daten haben wir eh schon!«, wird einfach alles kreuz und quer verarbeitet und verknüpft. Die Bindung an einen spezifischen Zweck gibt es oft nur am Papier.

Generell sehen wir, dass wir selbst sehr sparsam mit den Informationen sein können, die wir preisgeben. Durch zweckfremde Nutzung, Verknüpfungen mit anderen Daten, statistische Auswertungen und Analysen kann man aber schon aus ein paar wenigen Informationen sehr viel mehr hochrechnen. Diese Systeme sind in etwa soetwas wie ein informationstechnisches Perpetuum mobile. Aus Daten werden immer neue Daten generiert. Daten sind also nicht ein Mal da und liegen dann genau so auf irgendwelchen Festplatten sondern verhalten sich heute wie ein permanent nachwachsender und sich aus sich selbst vergrößernder Rohstoff. Immer größere Massen an Rohdaten, gemeinsam mit immer mehr Verknüpfungen, Analysen und Statistiken erlauben es, den Pool an Informationen aus sich selbst heraus zu vergrößern. Das ist ein Teil des Phänomens, das heute oft mit dem Schlagwort »Big Data« beschrieben wird. Der Leitsatz »Was ich nicht angebe, können sie nicht wissen« ist schon längst überholt. Heute heißt es viel eher: »Nur was sie nicht errechnen können, können sie nicht wissen«, und täglich kann man mehr hochrechnen, analysieren und verknüpfen.

Eines der Probleme dabei ist, dass diese Hochrechnungen und Verknüpfungen nur in der durchschnittlichen Masse stimmen, nicht in jedem Einzelfall. Ich habe zwar Recht studiert, würde mich aber nicht als konservativ bezeichnen. In meinem Bezirk gibt es auch Straßen, die eher nicht auf finanziell gute Bedingungen schließen lassen. Nicht alle in meiner Generation machen unbezahlte Praktika.

Die Unternehmen nehmen diese Ungenauigkeit in Kauf. Die Hochrechnungen stimmen eben bei ein paar Prozent nicht. Wenn ich aber bei 80% richtig liege, reicht das für eine Steigerung des Umsatzes oder die generell richtige Einschätzung der Kreditwürdigkeit schon aus. Wenn Sie zu den restlichen 20% gehören, ist das eben Ihr Problem. Sie müssen dann eben in einen reicheren Bezirk übersiedeln, damit alles wieder seine Richtigkeit hat. Nein, das ist kein Scherz. In einigen Ländern bringt das eine deutliche Veränderung in der Bewertung. Da sind 100 Euro mehr für die höhere Miete vielleicht ein gutes Investment.

Oft liegen diese Ungenauigkeiten auch daran, dass hier nicht logische Brücken und »Kausalitäten« berechnet werden (also zum Beispiel: wer Rechtswissenschaften studiert hat, verdient tendenziell mehr als jemand ohne Schulabschluss), sondern nur nach »Korrelationen« gesucht wird. Das bedeutet, man errechnet einfach nur, dass Faktor A mit Faktor B zusammenhängt, kümmert sich aber nicht mehr um die Frage, warum das so ist. Das ist natürlich viel einfacher und effektiver, als sich kompliziert zu überlegen, welche Zusammenhänge bestehen könnten.

So ist es auch vollkommen korrekt, wenn festgestellt wird, dass Schwarze in den USA ein höheres HIV-Risiko haben, Kinder von Migranten schlechter in der Schule sind und Frauen in gewissen Uni-Studien besser abschneiden. Das bedeutet aber nicht, dass alle Migranten doofer und alle Frauen intelligenter wären oder mehr Pigmente in der Haut HIV-Infektionen begünstigen. Für all diese Zusammenhänge gibt es irgendwelche, oft sehr komplexe Ursachen, also Kausalitäten im Hintergrund, die an hunderten Faktoren in unserer Gesellschaft liegen. Diese Kausalitäten werden bei der reinen Betrachtung von Korrelationen ausgeblendet.

Das ist natürlich kein unmittelbares Problem von Big Data. Wir Menschen tun das auch. Wir sind leider oft nicht in der Lage oder einfach zu faul, um die wahren Zusammenhänge zu erforschen und zu erkennen. Wir haben aber gleichzeitig einen inneren Drang, Zusammenhänge als Kausalitäten zu sehen und nicht als Korrelationen. Wir wollen einfache Erklärungen, auch wenn wir keine haben.

Was Menschen betrifft, sollten wir aber inzwischen wissen, dass Korrelationen nicht der Königsweg sind. Nicht alle Menschen einer Gruppe sind gleich, auch wenn vielleicht gewisse Faktoren mit der Zugehörigkeit zu einer Gruppe korrelieren. Diese Unterstellung, dass jemand »eh so wie alle anderen einer Gruppe« ist, nennen wir daher heute schlichtweg Diskriminierung. Wenn Sie einem Schwarzen sagen: »Du bist arm, weil viele Schwarze arm sind«, ist das für viele Menschen offensichtlich. Wenn Sie aber Frauen eine billigere Versicherung anbieten, weil die Gruppe »männlich« generell mehr Kosten verursacht, dann ist das schon weniger offensichtlich. Es ist aber nichts anderes: Weil viele Männer für eine Versicherung teurer sind, soll ich ebenfalls mehr zahlen. Wie komme ich aber dazu, nur weil meine Geschlechtsgenossen mehr Unfälle bauen oder eher ungesund leben, wenn ich das genaue Gegenteil bin? Das ist nichts anderes als eine geschlechtsbasierte Gruppenhaftung. Die EU unterband diese Form der Diskriminierung aufgrund eines X- oder Y-Chromosoms mit »Unisex-Versicherungen«. Eigentlich nur logisch, trotzdem eine große Diskussion und ein Dammbruch in vielen Ländern.

In den USA ist es weiter vollkommen normal, dass der Tarif Ihrer Autoversicherung je nach Automarke, Autotyp, Alter, Bildung, Wohnort, Geschlecht und unzähligen anderen Faktoren berechnet wird. Nur die Hautfarbe wird noch nicht herangezogen, das wäre wohl dann politisch inkorrekt.

Wenn Sie dann, so wie ich, einen ausländischen Führerschein haben, den Sie nach unzähligen Fahrstunden und Kursen langwierig erworben haben, müssen Sie trotzdem deutlich mehr zahlen, als jemand der einen US-Führerschein hat, den man auch in 30 Minuten bekommt. Ich wurde als Ausländer einfach in einen Topf mit Leuten geworfen, die für ein Kilo Kaffee Ihren Führerschein in irgendeinem Entwicklungsland bekommen haben. Das ist eine der Unschärfen in der Praxis. Pech.

Bei massenhafter Datenverarbeitung und Analyse zahlt es sich einfach nicht aus, auf den Einzelfall einzugehen. Das ist wie beim Tontaubenschießen. Wenn Sie nur wenige Schüsse haben und nur wenige Tontauben, dann konzentrieren Sie sich auf die eine Tontaube und zielen genau. So war das in unserer kleinen analogen Welt. Wenn Sie aber 100 Gewehre haben, die pro Sekunde 1 000 Schüsse abgeben und Sie müssen 10 000 Tontauben treffen, dann drücken Sie einfach nur drauf. Durch die Masse an Schüssen und Objekten treffen Sie im Großen und Ganzen schon irgendwas, solange Sie generell in die richtige Richtung zielen.

Ähnlich passiert das auch in vielen neuen Systemen zur massenhaften Datenauswertung. Die paar Schuss, die danebengehen, sind einfach nur eine Fehlerquote. Dabei fällt auch die Individualität des einzelnen Menschen in den Bereich Fehlerquote. Bleibt nur abzuwarten, ob durch noch mehr Daten und noch mehr Analysen dieser Daten die Auflösung höher und die Fehlerquoten kleiner werden. Eine paradoxe Hoffnung.

Ein weiteres Problem bei vielen der Phänomene, die als Big Data bezeichnet werden, ist, dass Sie in den meisten Fällen gar nicht nachvollziehen können, welche Faktoren in welchem Verhältnis bei einer solchen Analyse eine Rolle spielen. Nicht mal die Techniker, die diese Systeme erstellen, können das immer genau erklären. Ihnen reicht es oft, dass das System am Ende ein möglichst gutes Ergebnis bringt. Man probiert einfach verschiedene Versionen und vergleicht die Ergebnisse (»trial and error«). Die Version mit dem besten Ergebnis wird genommen. Details zu erforschen wäre auch wieder sinnlos investiertes Geld.

Noch einen großen Schritt weiter in unsere intimen Informationen geht es, wenn aus den bestehenden Daten nicht nur neue Daten generiert werden, sondern auch noch unser zukünftiges Verhalten hochgerechnet werden kann. Das hört sich jetzt für Sie vielleicht etwas absurd, futuristisch und nach dem Film »Minority Report« an, ist aber heute schon in vielen Bereichen Realität.

Ein Kreditranking ist nichts anderes als eine Wahrscheinlichkeit, dass Sie zukünftig Ihre Rechnungen zahlen. Errechnet wird das, je nach Kreditbüro, aus Ihrem bisherigen Verhalten und dem Vergleich mit dem Verhalten anderer Menschen, die Ihnen ähnlich sind. Die Prognosen sind so gut, dass Unternehmen durchaus viel für diese Informationen bezahlen.

Auch die Idee, Zukunftsvoraussagen mit unglaublich großen Datenmengen zu machen, ist nicht wirklich neu. Denken Sie an den Wetterbericht. Hier werden schon lange Milliarden Datenpunkte von Messstationen auf der ganzen Welt verrechnet, und am Ende kommt das Wetter der nächsten Stunden oder der nächsten zwei Wochen auf ein paar Kilometer genau raus. Das Ganze funktioniert auch mit einer sehr hohen Trefferwahrscheinlichkeit. Mit der immer billigeren Rechenleistung zogen solche Systeme auch bereits in anderen Bereichen, wie der Naturwissenschaft oder im Börsenhandel, ein.

Problematisch wird es für Sie, wenn nicht mehr das Wetter, Aktienkurse oder irgendwelche Objekte mit Milliarden Datenpunkten erfasst und dann analysiert werden, sondern Sie das Objekt der Berechnung werden. Wenn die Kosten für solche Analysen immer billiger werden und die Daten immer umfangreicher und genauer, so ist es nicht unwahrscheinlich, dass genau das die Zukunft ist. Die Messpunkte gibt es heute schon, und sie liefern jetzt schon Unmengen an Daten: Ihre Klicks, Ihre Suchanfragen, Ihre Handydaten und die Daten der vernetzten Geräte, die Sie täglich verwenden. Anreichern kann man das immer noch mit Daten von Datenhändlern oder anderen Personen. Aus all diesen kleinen Informationen wird Ihre persönliche Großwetterlage errechnet. Was Sie denken werden, was Sie zukünftig wollen könnten, wer Sie zukünftig sein werden. Dabei lassen sich Dinge vorhersagen, die Sie selbst noch gar nicht wissen. Weil das immer leichter und billiger wird, werden das auch immer mehr Unternehmen oder Staaten anwenden. Dass Unternehmen unser Kaufverhalten analysieren und uns dann gezielt sagen, was uns sonst noch interessieren könnte, ist heute schon Realität – vor allem im Netz. Ein extremeres Beispiel sind Systeme, die in den USA ausrechnen, ob ein Straftäter rückfällig werden könnte, was in die Bewährungsentscheidung einfließt. Andere Systeme berechnen Orte, an denen nach den neuesten Daten vermehrt Straftaten auftreten werden, die Polizeikräfte patrouillieren dort präventiv und kontrollieren vermehrt Leute. In den USA werden Verbrechensrückgänge von bis zu 30% kolportiert. Was vor 10 Jahren also noch Science-Fiction war, ist heute schon zu einem gewissen Grad real.

Nicht alle theoretisch möglichen Prognosesysteme werden uns morgen in der Realität beschäftigen. Wenn Sie aber an die Verbrechensbekämpfung denken, ist sowas wie in »Minority Report« nicht mal so absurd: IT-Systeme können heute schon mit einer respektablen Trefferwahrscheinlichkeit unser Verhalten berechnen und damit unter Umständen auch Verdachtsmomente gegen einzelne Personen liefern. Diese Systeme werden auch immer weiter verbessert. Wenn sie gut genug funktioniert, kann eine solche Analyse durchaus einen ernstzunehmenden Verdacht darstellen, dass jemand etwas getan hat oder zukünftig tun wird.

Genau so ein begründeter Verdacht oder ähnliche Ansatzpunkte sind in demokratischen Ländern üblicherweise die Basis, um Maßnahmen gegenüber den einzelnen Bürgern zu erlauben (zum Beispiel Hausdurchsuchungen, Identitätsfeststellungen, DNA-Tests oder der Ausspruch von Wohnungsverboten gegenüber potenziell gewalttätigen Ehemännern). Solche Maßnahmen werden heute schon gesetzt, um in der Folge überhaupt feststellen zu können, ob jemand tatsächlich ein Täter ist oder um zukünftige Gefahren zu vermeiden. Heute braucht man dazu einen begründeten Verdacht, also einen analogen Anhaltspunkt.

Wenn die Recherche eines Polizisten, eine Meldung bei der Polizei oder der Tipp eines Hinweisgebers als Verdachtsmoment für solche Maßnahmen ausreichen, warum soll dann nicht auch eine zu 95% korrekte Computerprognose so ein begründeter Verdacht sein? Im Kern ist eine Big Data-Analyse ja auch nichts anderes als das, was die Polizei heute schon tut. Man sucht Informationen, kombiniert diese, vergleicht sie mit Erfahrungswerten und zieht seine Schlüsse in vielen Fällen auch im Hinblick auf zukünftige Entwicklungen. Der Unterschied ist nur, dass man das mit Hilfe der Technologie noch viel umfangreicher, genauer und flächendeckender machen kann. Ein permanentes Analysesystem könnte also eine richtiggehende Verdachts-Fabrik werden und permanent Tipps über Aktuelles und Zukünftiges absondern. Der Überwachungsdruck würde damit um ein Vielfaches steigen, die Aufklärungsraten aber eventuell auch.

Was wir heute schon sehen, sind erste Ansätze einer solchen Entwicklung in einzelnen Bereichen, oder zumindest, dass die Technologie dafür Einzug hält. Wenn es aber billig genug ist, betrifft die digitale Glaskugel dann nicht mehr nur potenzielle Straftäter, Häftlinge oder Ihre Zahlungsmoral, sondern einen Großteil Ihres täglichen Lebens. Sie werden klassifiziert und abgestempelt, bevor Sie selbst noch eine Entscheidung getroffen haben. Alles andere wäre auch unlogisch. Ein Bauer wartet auch nicht, bis es wirklich regnet und gibt dem Wetter damit eine zweite Chance, wenn der Wetterbericht eindeutig und üblicherweise korrekt ist. Warum sollten Unternehmen oder der Staat Ihnen gegenüber anders handeln?

Auf einer moralischen Ebene sieht es aber ganz anders aus: Ihr freier Wille wird von diesen Prognosen einfach negiert. Der freie Wille, die Unberechenbarkeit des Menschen ist nach dieser Logik nur eine Fehlerquote. Der Mensch ist in einer solchen Zukunft generell ein berechenbares Ding und kein freies Wesen mehr.

Das ist natürlich ein ethisch und philosophisch höchst problematisches Minenfeld: Wie frei sind Ihre Entscheidungen überhaupt? Hat der Mensch eigentlich einen wirklich freien Willen, so wie wir uns das landläufig vorstellen? Sind wir nicht alle irgendwie Sklaven von Logik, berechenbaren biologischen Abläufen in unserem Gehirn, unserer Erziehung oder Sozialisation? Bildet eine digitale Prognose dann nur unsere freien Gedanken ab oder unsere inneren Zwänge?

Wie viel Macht haben Einrichtungen und Experten, die das berechnen können? Sollen Private das überhaupt dürfen? Soll der Staat das dürfen? Wer kontrolliert das? Wollen wir, dass irgendjemand so viel Macht hat? Wollen wir, dass jemand in unser Hirn blickt und berechnen kann, was darin vermutlich zukünftig passieren wird?

Was passiert, wenn der Algorithmus falsch liegt? Wer haftet für eine Fehlprognose? Wie kann eine Fehlprognose überhaupt bewiesen werden, wenn schon wegen der Prognose eine mögliche Tat, ein Vertrag oder ein Kredit nie zustande kommt? Trifft dann nicht der Algorithmus schon vorab eine Entscheidung, die im Einzelfall faktisch nicht mehr als die falsche enttarnt werden kann?

Konkret bei Straftaten: Wenn ein Computer vorab mit hoher Wahrscheinlichkeit berechnen kann, dass jemand eine Straftat begehen wird, müssten wir dann nicht schon aus moralischen Gründen präventiv eingreifen und die Tat verhindern? Hat der Täter dann aber noch eine persönliche Schuld, wenn wir doch schon vorab berechnen konnten, dass er sich so entscheidet und insofern die Entscheidung gar nicht frei, sondern irgendwie vorgezeichnet war? Würde ein Eingriff nicht die berechnete Zukunft verändern und damit die Prognose irrelevant werden lassen? Ist ein Täter nicht genauso schuldig, wenn er nur versucht, eine Tat zu begehen, aber durch einen Eingriff von außen abgehalten wurde? Muss man diese Täter dann wegen der versuchten Tatbegehung einsperren?

Was ist gleichzeitig mit den braven Bürgern? Wenn ein Verbrechen zu 99% aufgedeckt oder verhindert wird, dann wäre es einfach nur noch dumm, ein solches zu begehen. Wenn Sie in einer solchen Welt dann vor der Entscheidung zwischen einem richtigen und einem verwerflichen Verhalten stehen, sind Sie de facto gezwungen, richtig zu handeln. Vernichten wir damit nicht auch die Möglichkeit, zwischen Gut und Böse frei zu entscheiden und damit unsere persönliche Verantwortung? Wie kann ich mich noch aus Überzeugung ethisch korrekt verhalten, wenn ich de facto keine andere Möglichkeit habe? Verkümmert unsere Ethik dann mangels eines praktischen Anwendungsbereichs? Wo ist die Balance zwischen einer hohen Aufklärungsquote und der Freiheit, sich zwischen Gut und Böse zu entscheiden? Ist das Problem der Kriminalität wirklich gelöst, wenn man sie einfach unterdrückt?

Begreifen wir uns in einer Welt, in der die Analysen und Prognosen unseres Verhaltens überhand nehmen, überhaupt noch als Individuum oder nur noch als Teil einer berechenbaren Masse, ohne Anspruch auf relevante individuelle Abweichungen? Machen wir uns in einem solchen System nicht zu einem total willenlosen und berechenbaren Objekt? Ist das alles noch ethisch tragbar und mit der Würde des einzelnen Menschen vereinbar?

Fühlen Sie sich hier etwas wie bei den theoretischen Fragen aus diversen fiktionalen Filmen? Ja? Ich mich auch! Aber genau diese Fragen, und viele andere mehr, diskutieren Experten schon heute ganz ernsthaft. So extrem abgehoben sind diese Überlegungen auch nicht, denn viele der aktuellen Entwicklungen führen genau in diese Zukunft. Viele Elemente dieser Zukunft existieren heute schon und werden in Teilen auch bereits eingesetzt. Diese technische Entwicklung lässt sich auch mit einer gewissen Sicherheit fortschreiben. Die Grenze wird daher keine technische, sondern maximal eine gesellschaftspolitische sein.

Kämpf um deine Daten

Подняться наверх