Читать книгу Kognitive Kybernetik - Anton Reutlinger - Страница 5
Technische Kybernetik
ОглавлениеVon Menschen konstruierte Systeme sind zielgerichtet und zweckbestimmt. Der Zweck und die Funktionsweise der Teilsysteme ist ausschließlich im Zweck des Gesamtsystems begründet, weshalb genau hier die Probleme der technisierten Welt beginnen, indem das Eigenleben der Teilsysteme und ihre Interaktionen untereinander und mit der Außenwelt nicht ausreichend berücksichtigt werden. Die typische Konstruktionsmethode ist Top-down, also das Zerlegen eines Problems in kleinere, leichter lösbare oder bereits gelöste Teilprobleme; eine Methode, die erstmals 1637 von Descartes beschrieben wurde und heute als "stepwise refinement" bekannt ist. Da man die Welt nicht immer wieder neu erfinden will, werden nach Möglichkeit bereits vorhandene, vorzugsweise standardisierte Bauelemente verwendet und zu Komponenten zusammengesetzt, so dass in der Praxis eine Kombination von Top-down und Bottom-up als Outside-in-Konstruktion am häufigsten anzutreffen ist. Diese Methode wird intuitiv auch in der naturwissenschaftlichen Forschung angewendet, indem beobachtete Phänomene zu den bereits bekannten Gesetzen von Physik und Chemie in Beziehung gesetzt werden.
Eines der Charakteristika der Technischen Kybernetik ist die vom Konstrukteur oder Betreiber vorgenommene, einmalige oder periodisch zu wiederholende Vorausberechnung des Systemverhaltens zur Zielerreichung. Die Grundlage dafür ist die in der Konstruktion implantierte Möglichkeit der deterministischen Einflussnahme auf das System als Steuerung oder Lenkung. Die Zielsetzung ist meist starr, wenngleich versucht wird, genau dies durch adaptive Systeme und mehr oder weniger "intelligente" Systeme, besonders Roboter, zu umgehen und sie dem Menschen immer ähnlicher zu machen. Andererseits ist es bisher eben nicht gelungen, die kognitiven Fähigkeiten des Menschen vollständig zu imitieren und trotz erstaunlicher und bewundernswerter Errungenschaften ist nicht sicher, ob es überhaupt machbar ist. Man hat es geschafft, Sonden auf winzigen Asteroiden im Weltraum landen zu lassen, aber man hat bis heute erfolglos versucht, ein Auto per Computer kollisionsfrei durch fließenden Straßenverkehr zu lenken. Die technologischen Prinzipien und Mechanismen dieser Systeme sind demzufolge bereits bekannt und bilden den Ausgangspunkt für die Kognitive Kybernetik.
Bei technischen Systemen als menschlichen Artefakten ist die Variabilität prinzipiell proportional zur Komplexität. Die Zweckbestimmtheit technischer Systeme bringt es mit sich, dass umso mehr Varianten möglich sind, je mehr Bauteile und Teilsysteme variiert werden können. Die Vielfalt der Bedürfnisse der Anwender sowie die Vielfalt der Eigenheiten der Umwelt macht die Variation notwendig zur Optimierung der Zweckmäßigkeit in Anpassung an die Bedürfnisse in den jeweiligen Umweltgegebenheiten. Bei Autos gibt es deutlich mehr Varianten als bei Tretrollern. Bei natürlichen Artefakten, also den Spezies im Spektrum des Lebens, ist es umgekehrt. Es gibt augenscheinlich bei den kleinsten Lebewesen sehr viel mehr Varianten als bei Elefanten oder Walen oder auch bei Hominiden. Das ist ein deutliches Argument für die Zweckfreiheit der Lebewesen und für die biologische Evolution des Lebens, weil beide nur dadurch vernünftig erklärbar sind.
Die Grundbausteine der Technischen Kybernetik sind Sensoren und Detektoren zur Gewinnung und Quantifizierung der notwendigen Information, Transformatoren und Prozessoren zur Interpretation, Verarbeitung und Umformung von Information und schließlich Aktoren zur Anwendung der Information (z.B. Schrittmotoren), letztlich der Systemzweck. Die Anordnung der Bausteine zu einem kybernetischen System ist auch bekannt als EVA-Schema, d.h. Eingang-Verarbeitung-Ausgang. Nicht zu vergessen sind Übertragungs- und Speicherungssysteme, die zusammen mit Sensor- und digitalen Computersystemen Schlüsselfunktionen einnehmen und einen enormen Innovationsschub erfahren haben. Die Teilsysteme oder Verarbeitungseinheiten bestehen selbst wieder aus Teilsystemen, z.B. elektronische Schaltnetze und Schaltwerke mit Gedächtnisfunktion, so dass sie eine rekursive oder verschachtelte Struktur bilden. Aus Zuverlässigkeits- und Kapazitätsgründen sind moderne Systeme meist redundant ausgelegt und verteilt angeordnet. Man unterscheidet Steuerungsketten und Regelkreise, realisiert als lineare Steuerungs- und rückgekoppelte Regelungssysteme mit festen Sollgrößen, bzw. adaptive Regelungssysteme mit variablen Sollgrößen. Die aufwendigere Regelung ist gegenüber der Steuerung notwendig, wenn unplanbare Ereignisse und Fremdeinwirkungen korrigiert und kompensiert werden müssen. In jedem Fall ist die Funktionsweise und damit die Abfolge der Zustandswechsel vom Konstrukteur durch Auswahl und Anordnung der Bausteine vorgegeben und folgt meist einer halbsynchronen Übertragung mit Steuerung durch Sender oder Empfänger, manchmal auch einer synchronen Übertragung mit Takt- oder Uhrsteuerung. Die Sensordaten werden entweder periodisch abgefragt - allgemein als Polling, als pull-Prinzip oder hier als halbsynchron-empfängergesteuert bezeichnet - oder die Sensoren schicken Daten, vornehmlich bei Alarmsystemen, in eigener Initiative - allgemein als Interrupt, als push-Prinzip oder hier als halbsynchron-sendergesteuert bezeichnet - an die zentrale Verarbeitungseinheit. Die vierte elementare Kommunikationsform ist die asynchrone Übertragung ohne Steuerung von außen. Sie findet in der Technischen Kybernetik weniger Verwendung, weil sie zusätzlich einen Puffer erfordert und weil ihr Ablauf weniger vorhersehbar und steuerbar ist. In der Transportlogistik dagegen ist sie sehr häufig und in verschiedenen Formen anzutreffen, mit einem Lager, Speicher, Tank, Behälter oder dergleichen als Puffer. Eine Sonderform asynchroner Übertragung ist möglich, wenn ein oder mehrere Empfänger immer bereit sind. Diese Übertragungsform ist in natürlichen Systemen die Regel, wie z.B. die Planeten als Empfänger der Sonnenstrahlung.
Jedes kybernetische System ist prinzipiell ein Kommunikationssystem. Es ist zusammengesetzt aus einem Signalerzeuger, der Signalstrecke, einem Signalfilter und dem Signalempfänger. Das Signal kann beispielsweise die Lufttemperatur sein wie bei einem Heizungssystem und der physische Signalträger ist dann Heißwasser oder Heißluft. Wenn variable Signalempfänger zu bedienen sind, dann ist ein Regelungssystem notwendig, vor allem auch dann, wenn Störungen auf der Signalstrecke eine unvorhersehbare Filterung des Signals bewirken. Ein aktiver, also steuerbarer Signalfilter als Regler, ermöglicht die Bedienung unterschiedlicher Signalempfänger bzw. unterschiedliche oder variable Bedürfnisse der Signalempfänger. Dazu muss beim Signalempfänger die Signalwirkung gemessen und gegebenenfalls mit dem Bedürfnis verglichen werden. Das besorgt beim Thermostat das Thermometer.
Die Architektur technischer Kommunikationssysteme, besonders Computernetzwerke, wird beschrieben durch das weltweit standardisierte, sogenannte 7-Schichtenmodell mit den drei Hauptschichten Transportschicht, Netzwerkschicht und Anwendungsschicht. Anwendungen in vernetzten Kommunikationssystemen, wie die menschliche Sprache, integrieren und erstrecken sich über alle Schichten, von der physischen Schicht der den Schall übertragenden Luft bis zu den Bedeutungen der sprachlichen Begriffe und den Deutungen der Aussagen. Eine umfassende Kommunikationstheorie ist daher nicht möglich, denn sie müsste annähernd eine "great unified theory" der Welt sein, da alles Geschehen der Welt Kommunikation ist, jeweils auf unterschiedlichen Betrachtungs- oder Aggregationsebenen, vom Menschen über technische Systeme, über Moleküle und Atome als Kommunikationssysteme bis zu den Elementarteilchen. An jeder Kommunikation zwischen Lebewesen sind alle niedrigeren Betrachtungsebenen beteiligt. Das Schichtenmodell ist eine starke Vereinfachung, weil sie sich jeweils nur auf eine bestimmte der Aggregations- oder Systemebenen bezieht und die übrigen ausblendet. Durch die Modularität des Schichtenmodells wird eine hohe Flexibilität in Form eines Baukastensystems erreicht, so dass Anwendungen auf verschiedenen Übertragungsmedien eingesetzt werden können, ohne dafür von Grund auf neu konstruiert werden zu müssen. Die Transportschicht beschreibt das physikalische Übertragungsmedium mit der passenden Kodierung der Signale, Datenorganisation, Paketierung und Steuerung der Übertragung zwischen zwei unmittelbar oder physisch verbundenen Punkten. Die Netzwerkschicht beschreibt die Funktionen und Protokolle für Verbindungsaufbau und -abbau, die notwendig sind zur Adressierung von Knoten, Vermittlung in strukturierten Netzen, Koordination, Steuerung, Sicherung und Kontrolle der anwendungsneutralen Übertragung von Datenpaketen zwischen den Punkten eines Netzwerkes. Die Anwendungsschicht schließlich beinhaltet die Kodierung, Darstellungsweise und Bedeutung der Zeichen sowie Konventionen der Kommunikationspartner zur Verständigung und einige typische Funktionen zur Datenübertragung zwischen Anwendungen auf verschiedenen Netzwerkknoten oder Kommunikations- und Rechnersystemen. Programme der Anwendungsschicht benutzen Funktionen der Netzwerkschicht, so wie deren Dienstprogramme die Funktionen der Transportschicht nutzen.
Für die Übertragung zwischen Sensoren und zentraler Verarbeitungseinheit bzw. zwischen Verarbeitungseinheit und Aktoren kommen verschiedene Strategien zur Anwendung: die fortlaufende Übertragung eines Zustandes mit festgelegten Übertragungsintervallen oder die bedarfsgesteuerte Übertragung aktueller Zustandsänderungen. Die Auswahl ist abhängig von den Voraussetzungen und Eigenschaften des Systems und der eingesetzten Technologien - z.B. "Eigenintelligenz" der Teilsysteme und Übertragungs- und Verarbeitungskapazitäten - sowie den Auswirkungen auf und Anforderungen an das System wie Wirksamkeit, Wirtschaftlichkeit, Zuverlässigkeit, Sicherheit. Die Auswirkungen der gewählten Strategie und ihrer Parameter auf die Kybernetik des Systems prägen sein dynamisches Verhalten und tragen zur Komplexität bei. Vor- und Nachteile sind in jedem Anwendungsfall zu bewerten.
Die Qualität eines Regelungssystems ist sehr stark von zwei Parametern abhängig: der Sensibilität bzw. Zeitdauer zur Erkennung einer Abweichung vom Sollwert und der Zeitdauer für die Reaktion des Stellgliedes bis zur Wirkung auf die Regelgröße. Beide Parameter sind entscheidend von der Anzahl der Messungen, mit andern Worten der Durchläufe der Rückkopplungsschleife, pro Zeitintervall abhängig. Zusammen bestimmen diese Parameter das dynamische Verhalten jedes Regelungssystems. Im ungünstigen Fall können Abweichung und Reaktion sich gegenseitig so aufschaukeln, dass es zu chaotischem Verhalten oder sogar zur Zerstörung des geregelten Systems kommt. Ursachen dafür sind Zeitverzögerungen im Regelkreis durch Laufzeiten und Speichereffekte. Um dies zu verhindern, kann die Reaktion des Reglers auf verschiedene Arten bestimmt werden: proportional zur gemessenen Abweichung, zur über ein Zeitintervall gemittelten Abweichung und schließlich zur Änderungsschnelligkeit der Regelgröße: Proportional-, Integral- und Differentialregelung. Noch effektiver als die nachlaufenden Formen der Regelung ist eine vorausschauende Regelung, was bei häufig wiederkehrenden, wie schwingenden und statistisch erfassbaren Ereignissen möglich ist. In Einzelfällen ist eine Übersteuerung der Fremdeinflüsse machbar, die allerdings sehr energieaufwendig sein kann, wenn die Sollgröße außerhalb des ungeregelten Schwankungsbereiches liegt. Diese kybernetisch interessante Strategie wird in technischen Systemen daher relativ selten eingesetzt, während sie in biologischen Systemen die Überlebenswahrscheinlichkeit beträchtlich erhöhen kann bei ausreichend vorhandenem Energieangebot. Das markanteste Beispiel dafür sind die von Temperaturschwankungen unabhängigen Warmblüter. Wenn die Sollgröße innerhalb des ungeregelten Schwankungsbereiches liegt, dann ist dagegen eine technisch aufwendigere Zwei-Wege-Regelung - z.B. Heizung-Kühlung oder beschleunigen-bremsen - erforderlich. In jedem Fall ist die Schnelligkeit der eingesetzten Teilsysteme von ausschlaggebender Bedeutung für eine Regelung in Echtzeit oder Nahzeit.
Roboterarme werden im allgemeinen von einem Computer gesteuert, der a priori nichts über den Roboter weiß. Er kennt weder die Eigenschaften des Materials, noch die der Struktur, noch die Möglichkeiten und Grenzen seiner Bewegungen. Der Vorteil ist die universelle Verwendbarkeit des Computers wie die des Roboters, der Nachteil ist die Notwendigkeit der spezifischen Anpassung, d.h. der Programmierung, die entsprechend umfangreich ist, sowohl in der Konstruktion als auch im Betrieb. Dagegen sind die Steuerung und die Motorik von Lebewesen in Koevolution, gemeinsam im Verlauf der Phylogenese durch millionenfache Variation und Selektion entstanden, so dass sie a priori aufeinander abgestimmt sind. Eine Fülle von Informationen, die dem Computer explizit und mühsam einprogrammiert werden müssen, sind hier implizit und versteckt fest eingebaut oder hardwired. So haben weder der Roboter noch der Computer ein "Gefühl" für die allgegenwärtige Schwerkraft. Charakteristikum des Computers ist die Trennung von Datenspeicher und Prozessor - die sogenannte Von-Neumann-Architektur - und die Invarianz der Menge seiner inneren Systemzustände, um die ökonomisch begründete Wiederverwendbarkeit und Mehrfachverwendbarkeit zu erreichen.
Technische Systeme unterscheiden sich von natürlichen Systemen unter anderem dadurch, dass sie ein- und ausgeschaltet werden können, dass ihr Zustand also jederzeit wieder auf einen bekannten Anfangszustand gesetzt werden kann. Beim Abschalten oder Abstürzen eines Computers sind außer den Daten auf Plattenspeichern nur die wenigen systemspezifischen und für den Start eines Computers notwendigen Daten, die in einem batteriegespeisten oder einem nichtflüchtigen Halbleiterspeicher aufbewahrt sind, nicht verloren. Daraus ergibt sich eine zwingende und fundamentale Konsequenz: das technische System muss gegen Unterbrechungen und Störungen gesichert werden und es muss den zweckgemäßen Betrieb nach einer Unterbrechung wieder aufnehmen können, indem es einen kontrollierten Zustand einnimmt. In der Regel muss es den Zustand einnehmen, den es vor der Unterbrechung hatte. Das bedeutet nichts anderes, als dass ein technisches System ein kontrollierendes Metasystem - das Objekt der Kybernetik - erfordert, das oftmals selbst wieder ein technisches System mit der Fähigkeit zu autonomen Entscheidungen oder das letztlich der Mensch ist. Das kontrollierende Metasystem dient einem weiteren Zweck, nämlich der Justierung, dem Tuning und der Kalibrierung sowohl in Steuerungs- als auch in Regelungssystemen und es erfordert eine eigene Rückkopplungsschleife. Die leicht erkennbare Konsequenz ist eine Endloskette von Metainstanzen, die nur vom Menschen abgeschlossen werden kann.
Nach und nach hat der Mensch Maschinen geschaffen, die mit Hilfe der Kybernetik seine Leistungen verbessern oder seine Mängel kompensieren: Kraft, Beweglichkeit, Wahrnehmungsvermögen, Organfunktionen und schließlich die mentalen Fähigkeiten werden verstärkt, ergänzt oder ersetzt. Sigmund Freud bezeichnete den Menschen als Prothesengott, Johann Gottfried von Herder als Mängelwesen, der Philosoph Helmuth Plessner schrieb "der Mensch ist von Natur aus künstlich". Arnold Gehlen sieht Technik als die entscheidende "Entlastungsinstanz des instinktarmen, unangepassten, unspezialisierten, weltoffenen Mängelwesens Mensch". Ist noch etwas übrig außer den Gefühlen und dem Leben an sich? Die nächste technische Revolution steht bereits vor der Tür mit der Steuerung und Manipulation neurologischer Funktionen mittels implantierter Sender und Empfänger, den sogenannten Brainchips oder "Stimoceiver" (Jose Delgado, Kevin Warwick) zur elektrischen Stimulation von Nervensignalen und Auslösung motorischer oder emotionaler Effekte. Daneben gibt es spekulative bis esoterische Entwicklungen wie Psychoakkustik oder Neurofeedback zur Leistungssteigerung des Gehirns, Beschleunigung des Lernens, Bewusstseinserweiterung und dergleichen mehr. Aus der Verbindung von Gehirn, Computer und drahtloser Übertragung soll die "Wunderbox" hervorgehen.
Bedauerlich und tragisch ist, dass die Menschheit ihre handwerklichen, künstlerischen und intellektuellen Höchstleistungen nicht zu ihrem eigenen Wohl erbracht hat, sondern allzu oft an Könige, Kirchen und Kriege verschwendet hat - von denen sie allerdings auch finanziert wurden. So ist auch die Technische Kybernetik als Kind des Krieges geboren worden, nicht zufällig und zeitgleich mit der Informations- und Kommunikationstheorie von Shannon & Weaver und den ersten Exemplaren der Computertechnik. Daher ist es nicht verwunderlich, dass die heutigen technischen Möglichkeiten Ängste und ethische Bedenken hervorrufen. Technikfolgenabschätzungen gehören daher zum unverzichtbaren Instrumentarium der modernen Gesellschaft und politischen Führung.