Читать книгу Qualitätsunterschiede - Ralf Becker - Страница 8
Qualitätsunterschiede II
ОглавлениеDie Differenz zwischen Quantifizierung und Digitalisierung verweist auf einen weiteren Qualitätsunterschied, der mit Blick auf die folgenden Untersuchungen begrifflich erfasst sein will. Unter Quantifizierung (von lat. quantum für ›Größe‹ und facere für ›machen‹) soll ganz allgemein das Herstellen einer zählbaren Größe verstanden werden. In einem sehr weiten Sinne kann man jeden Zählvorgang als eine Form der Quantifizierung auffassen. Es scheint jedoch etwas übertrieben, das Abzählen der im Kühlschrank befindlichen Eier als einen Akt des Quantifizierens zu beschreiben, muss hier doch die Zahlform nicht erst hergestellt werden, da jedes Ei eine von jedem anderen Ei klar abgegrenzte Einheit bildet. Etwas anderes ist es dagegen, den Wert einer Packung Eier durch ein Geldquantum, den Preis zu bestimmen. Auch die Messung einer Strecke durch die Anzahl von Schritten ist etwas anderes als die ›Messung von Wärme‹ durch die Ablesung eines Thermometers. Nicht extensive, wohl aber intensive Größen können im engeren Sinne quantifiziert werden, da für Wärme, Lautstärke, Schärfe oder Farbintensität die Zahlenförmigkeit allererst hergestellt, eben gemacht werden muss, während Ausdehnung bereits ein Quantum besitzt. Quantifizierende Handlungen verfolgen das Ziel, qualitative Unterschiede in quantitative Differenzen zu übersetzen. Es liegt hier eine echte metabasis eis allo genos, ein Übergang in eine andere Gattung vor.
Das Wort Digitalisierung leitet sich vom lateinischen digitus für ›Finger‹ ab. Die Metapher verweist auf das Abzählen diskreter Einheiten an Fingern. Kinder lernen auf diese Weise den Sinn von Zahlen kennen. Stellvertretend für unsere Finger operieren wir üblicherweise, weil es praktischer ist, mit Ziffern. Der Mathematiker Claude Shannon hat 1948 den Ausdruck binary digit eingeführt, um eine Maßeinheit für den Informationsgehalt einer Nachricht zu finden. Die kleinste Einheit ist demnach 1 Bit, das ist der elementarste Informationsgehalt, der in einem von zwei möglichen Zuständen enthalten ist, z. B. ja oder nein (siehe Kap. 3). In gewisser Hinsicht ist Digitalisierung daher die Quantifizierung von Information. Der Ursprung in der Nachrichtentechnik legt jedoch nahe, Digitalisierung als ein Phänomen sui generis zu begreifen, und dies aus mindestens zwei Gründen: Zum einen hat der Informationsbegriff im Zuge der Digitalisierung eine solche Ausdehnung erfahren, dass es nicht sinnvoll erscheint, die Reihe: intensive Größen, Wertrelationen u. dgl. einfach durch ›Information‹ zu erweitern. Vielmehr wird nun alles, das mit digitaler Technik erfasst und bearbeitet werden kann, zur Information erklärt.
Der andere Grund, Digitalisierung von Quantifizierung zu unterscheiden, liegt in der jeweiligen technischen Umsetzung. Das klassische Instrument zur Quantifizierung ist das Messgerät, in dem zuvor erwähnten Beispiel das Thermometer für die Quantifizierung von Wärme. Das Werkzeug der Digitalisierung hingegen ist der Computer, ein Hilfsmittel zur Ausführung von Berechnungen (von lat. computare für ›berechnen‹). Vereinfacht gesagt dient Quantifizieren dem Messen, während Digitalisieren dem Berechnen dient. Die Quantifizierung macht etwas (für Messungen) zählbar, die Digitalisierung berechenbar. Wenn Hannah Arendt von der »Berechenbarkeit menschlicher Angelegenheiten«26 spricht, die in der Neuzeit gestiftet wird, dann lässt sich die Herstellung dieser Berechenbarkeit daher als Digitalisierung beschreiben.
Die Idee des Computers reicht weit zurück. Bereits Gottfried Wilhelm Leibniz im 17. und Raimundus Lullus im 13. Jahrhundert formulierten Ideen für logische bzw. symbolische Maschinen, die logische Kalküle abarbeiten können. Formalisierte Anweisungen für eine endliche Abfolge von Schritten zur Lösung eines Problems, vor allem für Berechnungen, heißen Algorithmen. Der Ausdruck geht auf den latinisierten Namen des arabischen Mathematikers Al-Chwarizmi zurück, der im 8./9. Jahrhundert in Bagdad lebte. Symbolische Maschinen arbeiten mit Algorithmen. Digitalisierbar ist grundsätzlich jede Handlung, die an eine symbolische Maschine delegiert werden kann.27 Ein griffiges Beispiel dafür ist der Taschenrechner, ein Werkzeug, das so konstruiert ist, dass es menschlichen Benutzern Ergebnisse für Rechenaufgaben liefert. Computer selbst rechnen jedoch nicht. Rechnen ist ein zielgerichtetes Handeln, und Maschinen sind keine Akteure.28 Daher ist diese Bezeichnung für Maschinen irreführend, ursprünglich wurden so menschliche Rechnerinnen und Rechner (z. B. bei der NASA) genannt. Der Doppelaspekt der Formalisierung (in bloße Zeichenkombinationen) und Algorithmisierung (in programmierbare Zeichenoperationen) markiert den Eigensinn der Digitalisierung gegenüber der Quantifizierung.
Als einer der ersten hat Georg Simmel in seiner Philosophie des Geldes (1900) das historisch gewachsene Erkenntnisideal identifiziert, »alle qualitativen Bestimmtheiten der Wirklichkeit in rein quantitative aufzulösen«.29 Auch Simmel führt als Beispiel die Wärmemessung durch Thermometer an. Der paradigmatische Fall, an dem sich der »Übergang von dem qualitativ bestimmbaren zu dem quantitativ symbolischen Ausdruck«30 nachvollziehen lässt, ist jedoch das Geld. Die monetäre Symbolisierung der Wirklichkeit steht stellvertretend für eine immer umfassendere Rationalisierung des Lebens durch Zählen, Messen und Berechnen. Messen ist Wissen lautet die Parole dieses Denk- und Lebensstils. Das Geld repräsentiert das »messende, wägende, rechnerisch exakte Wesen der Neuzeit«.31 Die Geldwirtschaft »bewirkt von sich aus die Notwendigkeit fortwährender mathematischer Operationen im täglichen Verkehr. Das Leben vieler Menschen wird von solchem Bestimmen, Abwägen, Rechnen, Reduzieren qualitativer Werte auf quantitative ausgefüllt«.32 Aus der Analyse des Geldwesens gewinnt Simmel sein »Stilbild der Gegenwart«: »Die geistigen Funktionen, mit deren Hilfe sich die Neuzeit der Welt gegenüber abfindet und ihre inneren – individuellen und sozialen – Beziehungen regelt, kann man großenteils als rechnende bezeichnen. Ihr Erkenntnisideal ist, die Welt als ein großes Rechenexempel zu begreifen, die Vorgänge und qualitativen Bestimmtheiten der Dinge in einem System von Zahlen aufzufangen«.33
Von diesem Intellektualismus zeugt auch und gerade die »rechnerisch-exakte Naturdeutung«:34 Die moderne Naturwissenschaft begreift »die Erscheinungen nicht mehr durch und als besondere Substanzen, sondern als Bewegungen […], deren Träger gleichsam weiter und weiter ins Eigenschaftslose abrücken«, und löst schrittweise die Weltinhalte »in Bewegungen und Relationen« auf.35 Was sich wie eine Vorwegnahme der fünf Jahre später publizierten Einsteinschen Relativitätstheorie (bzw. von Ernst Cassirers zehn Jahre später erschienenem Werk Substanzbegriff und Funktionsbegriff) liest, lässt sich ebenso an der Definition physikalischer Größen nach dem Internationalen Einheiten-System (SI-Einheiten) unter Verwendung von Naturkonstanten belegen. So ist beispielsweise das Kilogramm als Einheit für Masse (m) durch die Plancksche Konstante mit Hilfe der Definitionen von Meter und Sekunde festgelegt. Das physikalische Maßsystem bestimmt Maßeinheiten nicht mittels Substanzen (man denke z. B. an das Pariser Urmeter), sondern durch Beziehung zu anderen Maßeinheiten. Es ist kein Zufall, dass die Bedeutungsdimension von physis als das Wesen einer Sache aus dem modernen Naturverständnis völlig herausgefallen ist. Was als natürlich gelten kann, gibt sich nicht mehr substantiell, sondern wird allein in Relation zu messenden und rechnenden Erkenntnishandlungen bestimmt. Natürlichkeit ist ein Widerstandskoeffizient, der über die rein logische Widerspruchsfreiheit hinaus den Verknüpfungsspielraum von Messgrößen begrenzt.
Die folgenden Untersuchungen beleuchten das Erkenntnisideal der ›Welt als einem großen Rechenexempel‹ von der ›rechnerischexakten Naturdeutung‹ her. Damit bewegen sie sich nicht außerhalb der zuvor skizzierten mehr oder weniger gesellschaftskritischen Gegenwartsdiagnosen. Vielmehr gründen die in diesem Buch versammelten Studien in der Hypothese, dass sich in gesellschaftlichen Verhältnissen ein Naturverhältnis des Menschen artikuliert. Diese systematische Voraussetzung ist freilich nicht neu – leitet sie doch bereits die Dialektik der Aufklärung von Horkheimer und Adorno (1944). Die beiden Autoren rekonstruieren bekanntlich die europäische Geschichte als eine Geschichte der Naturbeherrschung. Wir haben es daher nicht mit einer Alternative zu tun: entweder Gesellschaft oder Natur, sondern beide Dimensionen sind auf intrikate Weise ineinander verschlungen, die sowohl dem Kulturrelativismus als auch dem Naturalismus Hohn sprechen. Weder ist Natur bloß ein gesellschaftliches Konstrukt noch Gesellschaft ein Naturereignis. Vielmehr sind sie Aspekte der einen Welt des Menschen, die sowohl gesellschaftlich als auch natürlich verfasst ist. Mit Ernst Wolfgang Orth soll diese Welt des Menschen als Kultur bestimmt werden.36 Es mag auf den ersten Blick irritieren, Natur als Aspekt oder Dimension von Kultur aufzufassen. In einem wohlverstandenen Sinne bekenne ich mich durchaus zu einem moderaten Kulturalismus (siehe Kap. 1).