Читать книгу GLOBALE PROVINZ - Georg Rainer Hofmann - Страница 10

Darmstädter Computergraphik – Symmetrien und Perspektiven (1982 – 1986)

Оглавление

Die neue Wissenschaft »Informatik« ist zunächst eher am Rand des allgemeinen Studien- und Hochschulbetriebs positioniert. Ein wichtiger Impuls für ihre allgemeine gesellschaftliche Wahrnehmung ist die Entwicklung von Graphik-Computern, die vielfarbig-bunte Bilder berechnen und verarbeiten können.

Auch in der ersten Hälfte der 1980er-Jahre hatte ein Abiturient den Wunsch, ein Studium zu beginnen, welches Aussichten auf eine einigermaßen zukunftsfähige und einträgliche berufliche Tätigkeit mit sich brachte. Nicht nur meine Überlegungen gingen in Richtung Physik. Der bevorstehende Ausbau der Nutzung der Atomenergie und eine Tätigkeit in einem der neuen Kraftwerke erschien vielen Abiturienten sehr lukrativ zu sein. Auch hielt ich mich hier für absolut qualifiziert – hatte ich doch in der Physik-Abiturprüfung, zum Thema der Gleichungen des Erwin Schrödinger, die Note »sehr gut« erhalten. Ich ahnte noch nicht, wie sehr sich der Wert einer solchen Leistung im Laufe des Lebens relativieren würde.

Aus reiner Bequemlichkeit kam für mich nach der Schulzeit nur der naheliegende Studienort Darmstadt in Frage. So konnte ich weiterhin zu Hause im Odenwald wohnen bleiben und täglich mit dem PKW hin und her pendeln. In Darmstadt gab es die zur Kaiserzeit gegründete Technische Hochschule Darmstadt (THD). Diese THD sollte etwa 15 Jahre später, im Oktober 1997, in »Technische Universität Darmstadt« (TUD) umbenannt werden. Umgekehrt nahmen einige nicht-universitäre Hochschulen – als Fachhochschulen ohne Promotionsrecht, aber mit der Lizenz zum Pragmatismus – nun ihrerseits eine Umbenennung in »Technische Hochschule« vor.

An der TH Darmstadt erschien damals nicht nur ein Studium der Physik, sondern auch anderer technischer Fächer ganz attraktiv zu sein. Ich war mir alles andere als gewiss, was zu tun wäre. Im Herbst des Jahres 1982 trat ich schließlich ein Studium – ausgerechnet – der Informatik an. Ein Onkel arbeitete bei der Deutschen Lufthansa und meinte: »Computer sind die Zukunft!« Vielleicht gab das den Ausschlag. Im Jahr 1982 war das Fach Informatik an der THD noch ein absoluter »second choice«. Sie erschien als ein gerade noch brauchbarer Kompromiss aus akademischem Anspruch, praktischer Umsetzbarkeit und ökonomischer Relevanz. Mit dem Studium der Informatik verband ich – für meinen Teil – damals keine besonderen Erwartungen. Ich habe sowohl das Studienfach Informatik als auch den Studienort TH Darmstadt (THD) aus absolut niederen Beweggründen gewählt. Es war sowohl ein weichenstellender Zu- als auch Glücksfall. Aber, »die Welt ist alles, was der Fall ist« – wie es ein Österreichischer Philosoph einmal auf den Punkt gebracht hat.

Im Jahr 1982 besaßen viele Studierende Autos, wie einen VW Käfer oder einen Opel Kadett. An den Autos kann der Stand der Technik im Alltag der damaligen Zeit erläutert werden. Der typische Motor war ein Ottomotor mit etwa 30 bis 40 PS. Es gab keine Servobremse oder Servolenkung, keine elektrischen Fensterheber, keinen Airbag, irgendwelche Computer waren schon gar nicht in diesen Autos vorhanden. Die Vergaser-Motoren verbrauchten verbleites Benzin – locker mehr als 10 Liter pro 100 km. Um den kalten Motor starten zu können, musste die in den Vergaser einströmende Luft mit einer Seilzug-Starterklappe namens »Choke«, der »Würgung«, zunächst begrenzt werden. War der Motor warm, konnte man den Choke wieder zurückstellen. Die Karosserien rosteten an allen Ecken und Enden. Immerhin waren diese Autos schon etwa einige Jahre benutzbar. Das modernste Auto war damals wohl der »Audi quattro« – er hatte zwar schon einen Allradantrieb, aber (noch) keinen Abgaskatalysator.

Noch auf Jahre hinaus sollte die akademische Informatik – nicht nur an der THD – von Personen geprägt werden, die irgendetwas anderes gelernt oder studiert hatten, und dann im langsam aufkommenden Boom des Metiers Informatik als Quereinsteiger auftraten. Einer der Mitarbeiter im Rechenzentrum der THD war ein gelernter Frisör, der uns – als ich später wissenschaftlicher Mitarbeiter war – am frühen Morgen im Rechnerraum durchaus die Haare schneiden konnte, so dies gewünscht wurde. Auch die meisten Informatik-Professoren an der THD waren selbstredend noch keine echten Informatiker. Studierte Elektrotechniker waren für die Praktische Informatik zuständig, die Theoretische Informatik wurde von Mathematikern vertreten. Informationstechnologie wurde damals von (vor allem männlichen) Experten für (hauptsächlich männliche) Nutzer gemacht. Der Frauenanteil in der Informatik-Professorenschaft an der THD lag bei exakt null Prozent.

Die Informatik war erst wenige Jahre zuvor überhaupt in das Portfolio der akademischen Lehre aufgenommen worden. Die THD hatte dabei allerdings eine wichtige Vorreiterrolle gespielt. Die Darmstädter Hochschullehrer Alwin Walther und Robert Piloty waren frühe Informatik-Pioniere. Es war indes nicht klar, ob sich die Informatik dauerhaft an den Hochschulen würde etablieren können. Sie hätte durchaus das gleiche Schicksal wie die einst mit vielen Hoffnungen bedachte Kybernetik erleiden und wieder in der Versenkung verschwinden können. Die THD hatte mit großem Mut eine der ersten Informatik-Fakultäten namens »Fachbereich Informatik« in Deutschland gegründet. Das war zu meinem Studienbeginn gerade erst zehn Jahre her. Der erste Doktorand in der Informatik in Darmstadt war im Jahr 1975 übrigens Wolfgang Coy, der später als Professor an der Universität Bremen und an der Humboldt-Universität zu Berlin tätig wurde. Viele Jahre später sollte, nach der Anzahl der Studierenden gerechnet, das Fach Informatik eine sehr wichtige Rolle in der akademischen Ausbildung spielen – und das nicht nur am Hochschulstandort Darmstadt.

Exkurs – Das Informatik-Lehrbuch von Koch und Rembold aus dem Jahr 1977

Wenn man das so liest, dann muss man sehen, dass in diesen frühen Jahren so etwas wie die »wissenschaftliche Literatur« der Informatik nur rudimentär existierte. Gegen Ende des Jahres 2013 würdigte man das Erscheinen eines der ersten Lehrbücher im Carl Hanser Verlag, München. Seitens des Verlags war man fast überrascht, dass die Informatik als universitäre Disziplin mit der Gründung der ersten Informatikfakultät an der TU Karlsruhe erst gut 40 Jahre alt war. Wir erleben erst seit den letzten 40 Jahren das Aufkommen der »Computerwissenschaften« in Deutschland mit allen massiven Folgen für Gesellschaft und Wirtschaft.

Die unglaublich breite und schnelle Expansion eines neuen Faches und seine Durchdringung aller Bereiche wurden durch eine erste Generation von Informatikern in Gang gesetzt, die von ihrer Ausbildung her noch eher Mathematiker oder Elektroingenieure waren. In diesem Kontext war das erste, 1977 im Carl Hanser Verlag erschienene Buch zur Ausbildung von angewandten Informatikern ein Wegbereiter. Es war die »Einführung in die Informatik für Naturwissenschaftler und Ingenieure« von Günter Koch und Ulrich Rembold, wobei dem Ersteren, als »Zeitzeugen« der Geschichte der Informatik als Studienfach, das Verdienst zukommt, die Initiierung, Konzeption und den größten Teil der Texte des Buches verfasst zu haben. Dieses Pionierwerk wird bis heute verlegt und ist aktuell unter seinem Ursprungstitel lieferbar.

Es konnte sich als Lehrbuch der Informatikingenieure vieler Generationen so lange halten, weil die in den 70er-Jahren von Koch und Rembold dazu verfassten Konzepte und Grundlagen weitsichtig geplant und formuliert worden waren. Die »Einführung in die Informatik für Naturwissenschaftler und Ingenieure« gehört zu den publizistischen Meilensteinen der Informatik und ihre Autoren zu den maßgeblichen Pionieren.¶

Das Rhein-Main-Gebiet und auch die Stadt Darmstadt waren in den 1980er-Jahren noch stark vom Kalten Krieg geprägt. Wiesbaden, Darmstadt, auch Babenhausen und Aschaffenburg waren wichtige US-amerikanische Garnisonsstädte. Einen nicht geringen Teil des Frankfurter Flughafens hatte die U.S. Air Force in Benutzung. Mein Auto hatte ein recht einfaches UKW-Radio, das war meistens auf »AFN Frankfurt« (American Forces Network Frankfurt) eingestellt. Ein eher einfaches Radio war nicht so diebstahlgefährdet – teure Autoradios wurden damals gerne und öfters aus den Autos gestohlen. Der AFN residierte in der Frankfurter Bertramstraße neben dem Hessischen Rundfunk. Sonntagnachmittags lief bei AFN immer »Casey’s coast to coast«. Das war die US-amerikanische Hitparade, präsentiert von Moderator Casey Kasem.

Man kann sich den Entwicklungszustand der Informationsgesellschaft um das Jahr 1982 klarmachen, wenn man bedenkt, was es damals alles noch nicht gab und wie Studierende damit zurechtkamen. Es gab keine Mobiltelefone, zum Telefonieren musste man entweder zu Hause sein – oder aber einen öffentlichen Telefonzellen-Münzfernsprecher benutzen. Die Telefone in den Büros der THD waren für Studierende tabu. Zuhause im Odenwald hatten wir erst seit wenigen Jahren ein privates Telefon zur Verfügung. Ein Telefonapparat und sein Anschluss wurden von der staatlichen Deutschen Bundespost auf Antrag zugeteilt und quasi »amtlich« installiert. Der Telefondienst war eine staatliche Leistung, für die kein »Preis«, sondern »Gebühren« zu bezahlen waren. Dokumente wurden per Briefmarkenpost verschickt. Wenn es schneller gehen sollte, konnte man die Zustellung am Zielort per rotem »EXPRESS«-Aufkleber beschleunigen, der natürlich extra Porto kostete. Die SMS der damaligen Zeit waren umschlaglose Papp-Postkarten, die man mit bereits aufgedruckter Briefmarke im Postamt kaufen konnte. Kurze Texte ließen sich auch mithilfe von Fernschreibern »Telex« national – und auch international – elektronisch in Echtzeit verschicken.

Es gab noch keinerlei elektronische Kommunikation zwischen den Hochschullehrern der Informatik und den Studierenden. Übungsaufgaben wurden als kopierte Übungsblätter im Anschluss an die Vorlesungen ausgeteilt. Sie wurden zum Teil in Live-Tutorials von Studenten der höheren Semester betreut. Musterlösungen dazu gab es als Papier-Aushänge in den spezifischen »Schaukästen« in den Gängen der Institute – zum Ansehen oder manuellen Abschreiben vor Ort. Studien-Skripte und Materialien konnte man im Institut des Professors als Kopiervorlage ausleihen oder aber als Buch, das der Professor verfasst hatte, im Handel kaufen. Studierende erhielten einen kleinen Rabatt, wenn sie per vom Professor ausgestellten »Hörerschein« im Buchhandel nachweisen konnten, dass sie die zum Buch passende Vorlesung besuchten.

Selbst in der Informatik war die notwendige Literatur damals nur in Papierform verfügbar. Studierende konnten sie in der »Hessischen Landes- und Hochschulbibliothek Darmstadt« ausleihen. Der Zugriff auf wissenschaftliche Arbeiten war ein ultra-langsamer Vorgang, der pro Zugriff einige Tage Zeit kostete. Manche Bücher waren ständig anderweitig ausgeliehen und standen damit faktisch nicht zur Verfügung. Zeitschriften waren oft gar nicht ausleihbar, sondern wurden nur in den Lesesaal der Hochschulbibliothek ausgegeben. Da saß man dann stundenlang und schrieb zu zitierende relevante Textstellen per Hand ab. Die einzige Alternative zur Handschrift war die mechanische Schreibmaschine. In der Stadt gab es Schreibbüros, die die handschriftlichen Vorlagen der Abschlussarbeiten und Dissertationen der THD-Absolventen mit Schreibmaschinen abtippten und in einen ordentlichen Schriftsatz brachten. Für Vervielfältigungen existierten aber schon Xerographie-Kopierer. Das waren riesige Apparate, man konnte sie per Münzeinwurf in Betrieb nehmen. Sie standen an zentraler Stelle in der Nähe der großen Hörsäle. Kopien waren teuer – der Preis von einer D-Mark pro Seite war nicht ganz unüblich.

In der ersten Hälfte der 1980er-Jahre gab es noch lange nicht das, was später als »Social Network« oder als »Messenger Service« bekannt werden sollte. Daher war die Kommunikation in der Studentenschaft noch sehr viel mehr als in den 2010er-Jahren, oder gar zu Beginn der 2020er-Jahre, auf persönlicher Präsenz basierend. Dauernd war irgendwo ein »Happening« oder ein »Event« fällig. Angekündigt werden konnte das damals nur per Plakataushang oder über das Verteilen von Handzetteln, also nicht elektronisch. Die Mensa war in der Regel den ganzen Tag über sehr gut besucht, also nicht nur zur Nahrungsaufnahme. In der Mensa traf man sich als Peer-2-Peer-Lerngruppe zur Bearbeitung von Übungsaufgaben und Klausurvorbereitung. Man erklärte sich die Lehrgegenstände gegenseitig. Man kann ja durchaus zufrieden sein, wenn es gelingt, den Kommilitonen einen Sachverhalt zu erklären. Denn wenn man etwas erklären kann, dann müsste man es auch selbst verstanden haben.

Die Studierenden waren in einem hohen Maße politisch organisiert. Wenn Hochschulwahlen anstanden, dann gab es für die studentischen Vertretungen in Senat oder Fachbereichsrat Bewerberlisten des »Marxistischen Studentenbunds Spartakus« (DKP-affin – DDR-UdSSR-orientiert), der »Hochschulorganisation Kommunistische Studenten« (KPD/ML-affin – albanisch orientiert), einer »Kommunistischen Hochschulgruppe« (KBW-affin – China-orientiert), des »Sozialistischen Deutschen Studentenbunds« (SPD-affin), des »Liberalen Hochschulverbands« (FDP-affin – einige Leute firmierten meiner Erinnerung nach noch unter dem schönen Kürzel LSD – Liberaler Studentenbund Deutschland) und natürlich des »Rings Christlich-Demokratischer Studenten RCDS« (CDU-affin). Hinzu kamen Studentenvereine, die ihre Nationalität mit einer politischen Botschaft verbanden und dahingehend politisch-missionarisch auftraten. Das war damals etwa bei Studierenden aus dem Iran oder aus Vietnam der Fall.

Das »health management«, eine »Gerechte Sprache« und die »political correctness« waren für die Studierenden noch nicht erfunden. In der Mensa waren alkoholische Getränke absolut üblich, und geraucht wurde dort auch. Zigaretten wurden von Werbeleuten in kleinen Dreier-Päckchen am Eingang der Mensa an die Studierenden verschenkt – zum Probieren. Das krasseste technische Lifestyle-Feature des damaligen modernen Lebens war der »Sony Walkman«, mit dem man unterwegs Tonbandkassetten hören konnte. Michael Jackson hatte mit »Thriller« einen Hit und in Deutschland kam Nena mit »99 Luftballons« gerade groß heraus. Ich fand diese Art von Musik nicht so sehr spannend, sondern eher die Neue und Elektronische Musik. Auch die surrealistische Lyrik von Bob Dylan (»Gates of Eden, Desolation Row«) war faszinierend.

Ich hielt es – und halte es immer noch – generell für einen schweren Irrtum, anzunehmen, dass das Hören von Musik vor allem der Erholung dienen solle. In Darmstadt spielte im SV-Darmstadt-98-Fußballstadion am Böllenfalltor im September 1984 eine Band namens »The Police«. Deren Musiker Sting und Andy Summers kannte ich von Eberhard Schoener und seiner Art (»Video Magic«) der Elektronischen Musik. Der Kartenverkauf am Eingang hatte seine Stellung aufgegeben, denn keiner wollte damals in Darmstadt so etwas wie »The Police« hören. Man ließ uns, wie alle anderen zufällig vorbeikommenden Passanten, gerne gratis zum Konzert, damit es wenigstens ein paar Zuhörer gäbe. Vorne auf der Bühne zeigte Sting zum sichtbaren Mond und fragte das Publikum: »can you see the moon?«, um dann mit seinem Lied fortzufahren:

»Giant steps are what you take,

Walking on the moon,

I hope my leg don’t break,

Walking on the moon,

We could walk forever.«

Ist das der Zeiten eigener Geist, den man den Geist der Zeiten heißt? Wie wäre der Eintrittskartenverkauf wohl verlaufen, wenn damals schon Facebook und Twitter verfügbar gewesen wären?

Im Jahr 1981 stellte die Firma IBM einen »Portable Computer« PC vor. Damit wurde auf ein Angebot reagiert, dass eigentlich schon seit 1977 auf dem Markt war, nämlich die »Personal Computer« der Firma Apple – die hießen auch »PC« und das schon länger. IBM hatte sich, wie andere Großrechnerhersteller der damaligen Zeit, mit Skepsis die Frage gestellt, wozu in aller Welt ein Mensch einen »persönlichen Rechner« auf seinem Schreibtisch brauchen könnte. Wofür sollte ein solcher PC wirklich gut sein? Was sollte denn damit bitteschön berechnet werden können – oder gar müssen? Man ging deshalb das Thema PC seitens IBM ein wenig halbherzig an. Ein eigenes PC-Betriebssystem wollte IBM nicht entwickeln, man ließ sich deshalb ein »Disc Operating System« (DOS) von einem Jungunternehmer namens Bill Gates liefern.

Professor Dr. Thomas Wolf, Berlin

Exkurs – Die IT-Abteilung und ihre Leitung im Wandel der Zeit – Der PC auf dem Schreibtisch erscheint

Wenn man das so liest, dann muss man wissen, dass der »Computer am Arbeitsplatz« sozusagen über Umwege eingeführt worden ist. In der ersten Hälfte der 1980er-Jahre bahnte sich in der wissenschaftlichen Welt – nicht nur bei meinem damaligen Arbeitgeber Merck in Darmstadt – eine Revolution in der IT an. Man könnte sagen, dass die langen Anwendungs-Entwicklungszeiten und die langen Antwortzeiten der Zentralrechner durch eine quasi »Guerilla-Taktik« überwunden werden konnten. Die Beschaffung und Inbetriebnahme von komplexen und teuren Messgeräten in den Laboren erforderte eine dezentrale IT zu deren Steuerung und Betrieb. An diesen Geräten gab es eigene Prozessrechner.

Diese relativ kleinen betrieblichen Prozessrechner sollten später als »PC« bekannt werden. Sie konnten als Laborausstattung »under cover« an der zentralen IT vorbei als Auswerteeinheiten beschafft werden. Ihre Kosten galten nicht als IT – sondern als Labor-Kosten und fielen daher nicht weiter auf. Aber man konnte – welch ein Wunder – damit alles Mögliche machen, wofür man vorher die Leistungen der zentralen IT brauchte. Allerdings reagierte das zentrale IT-Management wenig zielführend. Statt diese Entwicklungen der dezentralen IT zum Nutzen des Unternehmens zu kanalisieren, sah es seine Aufgabe vor allem darin, die dezentralen Beschaffungswege zu behindern. Es sollte möglichst die »ganze IT« weiterhin auf den bewährten Produkten der Firma IBM basieren.


Ein – wie es auf dem Gehäuse steht – »Personal Computer« des Fabrikats Casio. Er ist mittels BASIC programmierbar, hat eine Tastatur und einen kleinen graphischen Bildschirm. Abgebildet ist das Exemplar, das ich mir ungefähr im Jahr 1983 zum Beginn des Studiums gekauft hatte.

Diese erste Generation der Rechenzentrumsleitung, die »Chief Information Officers« (CIOs), hatten vor allem die beiden Aspekte der Technik und der Kosten im Blick. Solange alles zentral lief, war dieses CIO-Monopol der Technik und Kompetenz unangreifbar. Es erodierte stark ab Mitte der 1980er-Jahre, spätestens mit der Verbreitung der PCs. Mit der explosionsartigen Verbreitung der PCs begann die große Zeit der dezentralen IT, die scheinbar viel billiger war als die zentrale. Der Aufwand für Entwicklung und Betrieb wurde von Anwendern nebenher erledigt, und deren Gehälter tauchten nicht als IT-Kosten auf. Einige »PCs« erreichten die Leistungsfähigkeit von kleinen dezentralen Rechenzentren.

Auf der Herstellerseite hatte diese Entwicklung einen massiven Umbruch zur Folge. Die Zeit des Quasi-Monopols der IBM endete, es folgte der Aufstieg von Firmen, wie erst HP, dann auch Microsoft, Compaq oder auch Dell. Apple betrat den Weltmarkt. Andere Firmen, wie etwa Digital Equipment, verschwanden ganz.

Nach der Erosion und dem Wandel der IT von zentral zu dezentral in den 1980er-Jahren konnte man einen ähnlichen Effekt in den 2010er-Jahren beobachten. Diesmal erfolgte eine Erosion der IT von dienstlich zu privat. Der Grund hierfür war das Aufkommen der Smartphones und die damit verbundene unmittelbar personenbezogene IT. So erfolgte etwa die Kommunikation zwischen Beschäftigten untereinander und wiederum mit der Kundschaft über Apps der – notabene privat beschafften – Smartphones. Auf der Herstellerseite wurde diese Zeit des »bring your own device« vor allem von der Firma Apple und ihren Produkten maßgeblich mitgestaltet.¶

Im Informatik-Grundstudium der Jahre 1982 bis 1984 hatte man in aller Regel keinen eigenen PC zur Verfügung. Denn ein solches Gerät war noch ziemlich teuer in der Anschaffung. Ein Computer, den man sich eventuell leisten konnte, war seit dem Ende der 1970er-Jahre in der Form von programmierbaren Taschenrechnern verfügbar. Es gab auch bereits die sogenannten »Taschencomputer«, »Pocket Computer« (PC), die mit BASIC programmierbar waren. Sie kamen etwa ab dem Jahr 1982 in den Verkauf und kosteten einige Hundert D-Mark. Solche Geräte konnten sich Studierende durchaus leisten. Sie waren für die Lösung ingenieurmathematischer Probleme ganz hilfreich.


Ein IBM-Lochkartenstanzer, wie er in der betrieblichen Datenverarbeitung und im Informatikstudium zu Beginn der 1980er-Jahre zum Einsatz kam. Exponat des »technikum29 Computermuseum« in Kelkheim (Taunus). Solche Geräte waren in der Datenverarbeitung weit verbreitet, und damals war es nicht vorstellbar, dass sie jemals nicht mehr eingesetzt werden würden. Der Lochkartenstanzer war das einzige technische Gerät, mit dem man im Informatik-Grundstudium in Interaktion treten konnte. Der eigentliche Computer der Serie SIEMENS 7.500 mit Betriebssystem BS2000 des THD-Rechenzentrums stand, den Studierenden nicht direkt zugänglich, in einem separaten Raum.

Im Grundstudium an der TH Darmstadt wurden Programmieraufgaben am Großrechner des Rechenzentrums des Fachbereichs Informatik nicht etwa in BASIC, sondern in den Programmiersprachen PASCAL, ASSEMBLER oder auch LISP durchgeführt. Es gab eine Anlage aus der Serie SIEMENS 7.500 mit dem Betriebssystem BS2000, die für uns Studenten im Batchbetrieb lief. Der Rechner stand in einem eigenen großen und klimatisierten Raum – und er war für Studierende wie mich nicht direkt zugänglich. Wir mussten unsere handschriftlich entworfenen Programmtexte mit einem Lochkartenstanzer in Lochkartenstapel umwandeln. Der Stapel, der »Batch«, wurde dann an ein Lesegerät abgegeben – und das war es dann, in aller Regel, für diesen Tag. Der Rechner las das Lochkarten-Programm ein und führte es irgendwann aus. Das Ergebnis war ein Ausdruck auf grünlich-gräulichem Recycling-Endlospapier, den das Programm produziert hatte und der auf einem superlauten Trommeldrucker ausgedruckt wurde. Dieser Ausdruck konnte durchaus erst über Nacht erscheinen und dann am nächsten Tag an einer Art Ausgabetheke abgeholt werden. Machte man in der Übung einen Fehler, dann kostete ein neuer Versuch wieder einen ganzen Tag.

Am Fachbereich Informatik an der THD war das Studium der Informatik noch stark an traditionelle Lehrangebote angelehnt, um den »Work Load« des Studiums zu erzielen. Wir hörten im Grundstudium Analysis I und II, Lineare Algebra I und II, Wahrscheinlichkeitsrechnung, Elektrotechnik und noch anderes mehr. Man fragte sich als Student bei einigen dieser Fächer auch damals schon, was diese mit der Praxis der Informatik »als solcher« zu tun haben könnten. Die Vorlesungen im Grundstudium waren als Massenveranstaltungen mit mehreren hundert Zuhörern ausgelegt.

Der Mathematik-Professor in Analysis gefiel sich selbst sehr darin, den Studierenden seine Fähigkeiten im arithmetischen Kopfrechnen zu demonstrieren. Er konnte quasi, »in Echtzeit« vor sich hinmurmelnd, irgendwelche gerade vorbeikommenden Aufgaben lösen. Er sagte etwa so etwas wie, »14 mal 26, das macht 364«, einfach so daher. Einmal murmelte er ein »256 im Quadrat« – und er war noch nicht beim »das macht« angelangt, als ein neben mir sitzender Informatik-Kommilitone im großen Hörsaal »65 536« nach unten brüllte. Alle wandten sich nach ihm um, was er mit einem hochroten Kopf quittierte. Es war klar, dass er das nie und nimmer in dieser Zehntelsekunde per Taschenrechner herausgefunden haben konnte. Der dahingehend beeindruckte Analysis-Professor war sozusagen »aus Versehen« auf eine Zweierpotenz-Rechenaufgabe getreten. Wir Informatikstudenten waren aber für so etwas sensibel.

Exkurs – Informatik und Wirtschaftswissenschaften – Wirtschaftsinformatik

Wenn man das liest, so muss man anmerken, dass an der THD nach dem Vordiplom im Hauptstudium ein Zweitfach gewählt werden musste, um das Studium der Kerninformatik zu ergänzen. Es sollte damit von Seiten der Studienordnung quasi der »Anwendungsbezug« des Informatik-Kernstudiums hergestellt werden. An der THD konnte man zwar bereits seit einigen Jahren die sogenannte »Wirtschaftsinformatik« studieren. Die THD hatte dieses Fach deutschlandweit als erste Hochschule überhaupt eingeführt. Es war also brandneu, aber keineswegs auch ausgemacht, ob man diesem Berufsbild wirklich trauen konnte. In der Tat lief man Gefahr, sich den exotischen Titel »Diplom-Wirtschaftsinformatiker« anzueignen, der sich eventuell nicht bewähren würde und einem lebenslang wegen seiner Unbrauchbarkeit zur Last werden würde.

Allerdings erschien mir vor diesem Hintergrund »irgendwas mit Wirtschaft« ganz spannend zu sein. Ich ging zunächst zu betriebswirtschaftlichen Vorlesungen, die »Einführung in die BWL« und »Buchführung« hießen. Die Hochschullehrer dort betrieben nur allereinfachste Mathematik und redeten in einem völlig überhöhten Jargon von trivialem Zeug wie »Kontenrahmen« und »Buchungssätzen«, und dass man eines Tages als Betriebswirt ganz unglaublich viel Geld verdienen könnte. Zudem versuchten sie sich mit den Studierenden gemein zu machen. Einer leerte sogar – während seiner BWL-Vorlesung – eine von einem Studenten aufs Podium gereichte Flasche Bier. Das war nun wirklich nicht mein Fall.

So ähnlich wie »BWL« hörte sich von weitem »VWL« an – das könnte eine Alternative sein. Eine von mir probehalber besuchte volkswirtschaftliche Vorlesung »Einführung in die VWL« war in der Tat ein anderer Sport. Auf dem Podium sprach ein mir wegen seiner Souveränität auffallender Professor. Er hieß Bert Rürup. Ich fasste den Entschluss, an seinem Institut VWL als Zweitfach zu studieren. Es wurden in seinen Seminaren – damals absolut richtungsweisende – Themen wie die »Negative Einkommenssteuer« und das »Bedingungslose Grundeinkommen« behandelt. Die Diplomprüfungen standen dann im Sommer des Jahres 1986 an. Das waren im Prinzip ein paar 30-minütige Interviews, die die Professoren mit den Kandidaten und Kandidatinnen durchführten. Diese ganz wenigen Prüfungen machten den Wert des gesamten Diploms aus. Ein Assistent des Instituts war Zeuge und Manöverbeobachter. In so einer halben Stunde wurden die vier Semester des gesamten(!) Zweitfachs VWL querbeet und für den Kandidaten scheinbar zufällig-willkürlich abgefragt. Bei Bert Rürup erhielt ich so für die »ganze VWL« ein »gut« – aus »Rücksicht auf die armen Eltern«, wie er ironisch hinzufügte.¶

Es gab an der THD auch Lehr-Angebote aus der Philosophie. Ein Seminar bei Jörg Pflüger und Robert Schurz hieß »Soziale Beziehung Mensch-Maschine«. Es war und ist eine wichtige Sache, das Verhältnis eines einzelnen Menschen zu einer Maschine zu analysieren und das Verhältnis von »Mensch« zum »System« anthropozentrisch zu bewerten. Die damaligen Darmstädter Untersuchungen zur programmierten Gesellschaft und die Rolle der sogenannten »Mega-Maschinen« waren wegweisend. Die Fächer VWL und Philosophie sollten sich später als über die Maßen relevant und nützlich erweisen, wenn es galt, Fragen der Struktur von Software- und Service-Märkten, aber auch ethische Fragen der Informationsgesellschaft zu adressieren. Und so war die Befassung mit Themen aus der VWL und der Philosophie wieder einmal sowohl ein Zufall als auch ein Glücksfall.

Exkurs – Frühe Arbeiten zur Mensch-Maschine-Beziehung

Wenn man das so liest, dann muss man auch sehen, dass diese Darmstädter Aktivitäten durchaus die Aufmerksamkeit der überregionalen Öffentlichkeit fanden. Das Nachrichtenmagazin »Der Spiegel« berichtete von den Darmstädter Arbeiten zur »Sozialen Beziehung Mensch-Maschine« im März 1987. Man fragte in diesem Nachrichtenmagazin, ob es sein könne, dass begeisterte Computerfreaks in ihrem Bewusstsein verarmen und zum »mechanischen Denken« neigen.

Der Psychologe Robert Schurz und der Informatiker Jörg Pflüger, beide in Darmstadt tätig, hätten das Verhalten von Computerfreaks studiert, so »Der Spiegel«. Aus den Daten habe man den Normalbürger der computerisierten Zukunftsgesellschaft bestimmt. Dieser Typ, so Pflüger und Schurz, sei meistens auf der Flucht – vor den anderen Menschen, der Verantwortung und den eigenen Gefühlen, kurz – vor der Unberechenbarkeit des Lebens. Wenn an die Stelle der Sozialkontakte die anonyme Beziehung zur Maschine tritt, dann wächst die Beziehungslosigkeit unter den Menschen – mit unabsehbaren Folgen. Doch je weniger man von Computern versteht, umso größer werden Ehrfurcht und Angst vor ihr: Technikverweigerer sehen den »Big Brother«, Fortschrittsgläubige vergöttern die Maschine.

Wie rasch dabei der kindische Maschinenglaube zur »Ohnmacht der Vernunft« wird, beschrieb bereits der MIT-Professor Joseph Weizenbaum. Schon im Jahr 1966 hatte Weizenbaum ein Programm namens »Eliza« vorgestellt. Eliza hatte das Ziel, ein Gespräch – mit einem Psychologen im Rahmen einer Therapie – zu simulieren. Es gab Benutzer, die zunächst nicht glaubten, dass sie mit einem Computerprogramm statt mit einem Menschen redeten. Weizenbaum nahm diesen gedankenlosen Computergebrauch als Anlass zur Sorge. Er mahnte immer wieder einen kritischen Umgang mit Computern an. Speziell forderte er, dass der Mensch die letztendliche Kontrolle über die Systeme der »Künstlichen Intelligenz« (KI) behalten müsse.¶

Unter den hervorragenden Professoren der Informatik an der THD fiel mir José Luis Encarnação auf. Er war schon im Jahr 1975 an die THD gekommen, und er war weder betulich noch borniert. Professor Encarnação war keiner der Pseudo-Intellektuellen, die sich darin gefallen, Sachverhalte mit künstlicher Kompliziertheit und mit sophistischem Vokabular auszustatten, um ihm eine scheinbare akademische Fallhöhe zu verleihen. Er vertrat sein Fachgebiet mit einer kaum fassbaren Energie. Dispute mit ihm, und die blieben im späteren Leben ja nicht aus, wollten sehr gut vorbereitet sein. Vorgebrachte Gegenargumente konnten von Encarnação unaufhaltsam und dampfwalzenartig überfahren werden. Er war aber keineswegs unbelehrbar. Er nannte sein Fachgebiet und sein Institut »Graphisch-interaktive Systeme« (GRIS). Man sagte auch »Computergraphik« dazu. Die Schreibung der »Graphik« mit einem »ph« war dem φ in γραφω – grapho, also schreiben, zeichnen geschuldet. Wir behalten diese Orthographie hier bei. Aber was sollte diese »Computergraphik« sein und was sollte daraus werden können? All das mutete ziemlich seltsam an.

Ein GRIS, ein »Graphisch-interaktives System«, war damals ein Computer, der im Gegensatz zu den herkömmlichen Rechnern nicht nur Zeichen, als Buchstaben und Zahlen, verarbeiten und anzeigen konnte, sondern eben auch Graphiken. Darunter stellte man sich zunächst quasi »Strichzeichnungen«, also Vektorbilder vor. Die konnten zum Beispiel mit einer vom GRIS-Computer angesteuerten Zeichenmaschine, einem »Plotter«, als eine technische Zeichnung berechnet und ausgegeben werden. Man konnte sich auch vorstellen, dass man irgendwann diskrete »digitale Rasterbilder« in einem Computer würde speichern und verarbeiten können. Das war aber zunächst noch eher utopisch, denn für viele hundert oder tausende Bildpunkte – »Pixel« – eines Rasterbildes hatte man einfach noch nicht den erforderlichen Speicherplatz zur Verfügung.

Professor Encarnação hatte bei der Leitung der THD durchgesetzt, dass er bei GRIS – vom Hochschulrechenzentrum weitgehend unabhängig – spezielle Computergraphik-Rechner betreiben durfte. Einer der Rechner hatte ein Wechsel-Festplatten-System mit einer Kapazität von zwei Megabyte. Der dazugehörende Datenträger mochte etwa vier Kilogramm Masse gehabt haben. Eine handelsübliche Backup-Disc von zwei Terabyte im Jahr 2020 hat eine um eine Million mal höhere Kapazität – mit der Technik von damals hätte eine 2-Terabyte-Disc also der Masse eines kompletten Güterzugs entsprochen. Überdies hielt man für die Computergraphik die Entwicklung von spezieller schneller Computerhardware für erforderlich. Die Graphik-Rechner, die es noch gar nicht gab, wollte man am Institut GRIS an der THD einfach selber bauen. Dafür hatte man ein Hardwarelabor eingerichtet, und es gab ein Projekt namens »Homogener Multiprozessorkern« (HoMuK). Man konnte sich damals einen leistungsfähigen Graphik-tauglichen Rechner nicht zuletzt deshalb als einen Multiprozessor-Rechner vorstellen, weil die diversen Graphik-Algorithmen der Parallelität der Systeme entgegenkamen. Neben der Konstruktion der einzelnen Modul-Rechner war die Realisierung der sie verbindenden Kommunikationskomponente, das war der »HoMuK-Bus«, eine echte Herausforderung.

Professor Dr.-Ing. Dr. h.c. Dr. E.h. José Luis Encarnação, Darmstadt und Berlin

Exkurs – Die Anfänge der »Computer Graphics«

Wenn ich das so lese, an was sich Georg Rainer Hofmann aus studentischer Sicht erinnert, so steuere ich gerne einige Bemerkungen aus der Sicht des im Text erwähnten Professors bei.

Die Anfänge der Graphischen Datenverarbeitung – »Computer Graphics« – gehen zurück auf technische Entwicklungen in den USA, die circa in der Mitte der 1960er-Jahre stattgefunden haben, unter anderem am »Massachusetts Institute of Technology« (MIT) und an der University of Utah. Ich selbst habe im Jahr 1970 auf diesem Gebiet, also sehr früh in dessen Entwicklung, an der Technischen Universität in Berlin am Institut für Informationsverarbeitung bei Professor Wolfgang K. Giloi promoviert. Danach kam ich, nach einem Intermezzo als Professor an der Universität des Saarlandes in Saarbrücken, im Jahr 1975 auf einen Informatik-Lehrstuhl (ein Fachgebiet) an der TH, der heutigen TU, in Darmstadt. Der Lehrstuhl wurde »Fachgebiet Graphisch-Interaktive Systeme« (GRIS) genannt. Damit waren gleich zwei Claims markiert, die in der späteren Informationsgesellschaft von zentraler Bedeutung sein sollten. Zum einen war die »Graphik« das, was später unter anderem auch als »Multimedia« reüssieren sollte. Und zum anderen war die »Interaktion« neu, denn Computer wurden um das Jahr 1980 herum nicht im direkten Dialog von Menschen mit Maschinen, sondern im »Batch« betrieben. Beide Phänomene sollten Jahre später in der Informationsgesellschaft absolut alltäglich sein. Aber wir waren damals, um das Jahr 1980, herum in Darmstadt die Pioniere.

Mein Bestreben war es, dieses Fachgebiet GRIS als eine wichtige Disziplin in der Informatik zu etablieren und durchzusetzen. In der Zeit der Jahre um 1980 herum bedeutete »wichtig« in der Informatik vor allem, dass die Systeme einen Nutzwert in industriellen und gewerblichen Anwendungen darstellten. An einen kulturellen Beitrag der Informatik oder einen alltäglichen Unterhaltungswert der – gar multimedial-graphischen und interaktiven – Computer dachte damals noch kaum jemand. Daher ging es mir um die breite Einsetzbarkeit und Anwendbarkeit der Technologien, Methoden, Algorithmen und Systeme in »Industrie und Wirtschaft«, die wir in diesem neuen Fachgebietes GRIS erforschten und entwickelten. Dies implizierte, schon aus Kosten- und Effizienzgründen, dass die jeweiligen Anwendungen unabhängig von der im Einzelfall verwendeten Hardware und Peripherie programmierbar sein müssten.

Dafür entwickelte mein Darmstädter Fachgebiet in Partnerschaft mit anderen internationalen Gruppen ein »Application Programming Interface« (API) für Anwendungen der Computergraphik. Dieses API wurde »Graphisches Kernsystem – Graphical Kernel System« (GKS) genannt. Wir konnten von Darmstadt aus bei der fachlichen Entwicklung dieser damals sehr wichtigen Innovation eine auch international führende und tragende Rolle spielen.

Ich zeichnete zu dieser Zeit nicht nur verantwortlich für die Aktivitäten im Bereich der DIN-Normung, die in den 1980er-Jahren zur Entwicklung von GKS und vergleichbaren Graphik-Standards führten, sondern auch für den gesamten Aufbau von anderen DIN-Gremien, die für die Beiträge zur internationalen Normung der graphischen Datenverarbeitung zuständig waren. Das ist in der Entwicklung der Informationsgesellschaft ein relativ seltenes Phänomen, dass ein internationaler Standard wesentlich von Deutschland aus entwickelt, pilotimplementiert und geprägt worden ist. Ein zweites Beispiel wäre etwa die viele Jahre später erfolgte Entwicklung des MP3 zur Audiodaten-Kodierung.

Das GKS war der erste Internationale Standard für Computergraphik. Er hatte die Nummer ISO/IEC IS 7942 und wurde im Jahr 1977 eingeführt. In Deutschland war er schon etwas früher unter der Bezeichnung DIN 66252 veröffentlicht worden. Das GKS stellt verschiedene Basisfunktionen für die Programmierung von graphischen Anwendungen zur Verfügung. Zu diesem Zweck wurden im GKS-System mehrere, aufeinander aufbauende GKS-Leistungsstufen spezifiziert. Konzeptionell stellt das GKS-System abstrakte graphische Darstell- und Eingabemöglichkeiten zur Verfügung und ermöglicht die geräteunabhängige Programmierung von graphisch-interaktiven Anwendungen, sowohl zwei- wie auch dreidimensionaler Graphik. Mit diesem Konzept konnten bereits die Anforderungen vieler Anwendungen bedient werden, wie im Bereich Maschinenbau, Architektur und Bauingenieurwesen, Elektrotechnik, auch in der Medizin.

Das GKS wurde zu einer wichtigen Basis für »Computer-aided Design« (CAD), »Computer-aided Engineering« (CAE), »Computer-aided Manufacturing« (CAM), Entwurf elektronischer Schaltungen und Simulationstechniken, auch für Bildgebende Verfahren und Diagnosesysteme in der Medizin etc. Mit der Entwicklung des GKS war es uns gelungen, das Fachgebiet GRIS in der Informatik-Landschaft als Disziplin fest zu etablieren und zu verankern – auch in einem internationalen Kontext. Die Computergraphik entwickelte eine sozioökonomische Relevanz und damit einen Markt für Projekte der Angewandten Wissenschaft. In der Folge hatten wir bei GRIS und später am »Fraunhofer-Institut für Graphische Datenverarbeitung« (IGD) eine gute Situation, was die Gewinnung von Drittmitteln und die Akquisition von Forschungsaufträgen angeht.

Allerdings waren die nicht-technischen Bereiche der Kunst, Kultur und Geisteswissenschaften damit noch nicht für das Fachgebiet GRIS als Anwendungen erschlossen. Viele Personen aus diesen Kreisen meinten sogar, das würde gar nicht gehen, dass ihre hehren Disziplinen etwas mit der profanen »Digitalisierung« im Sinn haben könnten.¶

Bei diesen spannenden Themen bei GRIS wollte ich dabei sein. Nach dem Vordiplom konnte man sich am Fachbereich Informatik an der THD für einen Job als Studentische Wissenschaftliche Hilfskraft, abgekürzt »Hiwi«, bewerben. Ich wurde bei einem Wissenschaftlichen Mitarbeiter vorstellig, der Detlef Krömker hieß. Die Bewerbung war sehr informell. Ich bin damals – einfach so – in sein völlig verrauchtes Büro marschiert. Herr Krömker rauchte am Tag – meiner Schätzung nach – so eine bis maximal drei Packungen des Fabrikats »Camel ohne Filter«. Ich fragte ihn, ob es für mich als Hiwi etwas Sinnvolles zu tun gäbe. Und das war durchaus der Fall.

Ich wurde von Detlef Krömker bei GRIS akzeptiert, und im Frühjahr 1985 begann meine Karriere als Hiwi und damit als ein »Professional« – denn ich verdiente mein erstes Geld in der Informatik. Es galt, Schaltungen für das »HoMuK-System« in Betrieb zu nehmen. Das hieß insbesondere, leidige Entwurfsfehler zu finden und zu beseitigen. Es mag im Jahr 1985 gewesen sein, als man das Jubiläum »10 Jahre GRIS« beging. Professor Encarnação hatte jede Menge nationale und internationale Gäste von akademischer Bedeutung eingeladen, um sein Institut mit diversen akademischen Kolloquien gebührend zu feiern. Wir durften im Labor den experimentellen HoMuK-Aufbau einem Besucher von der TU Berlin vorführen. So eine Vorführung nannte man damals eine »Demo«. Der Besucher war Professor Wolfgang Giloi, bei dem wiederum seinerzeit Encarnação promoviert hatte. Giloi war der damalige »god father« der Rechnerarchitektur in Deutschland. Er lobte unsere Vorführungen und Arbeiten durchaus.

Am Institut GRIS gab es viele internationale Studierende und Gäste, weil Encarnação das glatte Gegenteil von provinziell war. Er verfolgte internationale Kooperationen und akquirierte internationale Projekte. Wir hatten Wissenschaftler aus China, Brasilien, USA, vielen Europäischen Ländern, auch aus Ländern des damaligen sogenannten »Ostblocks«. GRIS war ein wenig wie Raumschiff Enterprise, mit Vulkaniern und Klingonen und allen möglichen Leuten aus aller Welt und »aller Herren Länder«, wie man damals (noch) sagte. Es wurde klar, dass die entstehende Informationsgesellschaft nur als ein »internationales Unterfangen« sinnvoll, denkbar und gestaltbar ist.

In Darmstadt wurden in der Mitte der 1980er-Jahre die Briefe mit dem Motto »In Darmstadt leben die Künste« abgestempelt. Man zehrte noch von der Weitsicht Großherzog Ernst Ludwigs zu Beginn des 20. Jahrhunderts. Auf der Mathildenhöhe waren seinerzeit eine Reihe von Musterhäusern errichtet und damit der damals neuen Kunstrichtung des Jugendstils entscheidende Impulse verliehen worden. Nach dem Zweiten Weltkrieg sollten die Darmstädter »Ferienkurse für Neue Musik« eine nachhaltige weltkulturelle Bedeutung erlangen. Daran anknüpfend entschied man sich seitens der Stadt Darmstadt, für den Sommer des Jahres 1986 eine große Ausstellung und ein interdisziplinäres Symposium zum Thema »Symmetrie« auf die Beine zu stellen.

Das Symposium angestrebte Niveau war schlicht »Weltklasse«. Das Phänomen Symmetrie sollte in seiner gesamten Mannigfaltigkeit in der Bildenden Kunst, den Naturwissenschaften, der Mathematik, Musik, Philosophie etc. umfassend ausgelotet werden. Man hatte für das Riesenprojekt einen wissenschaftlichen Leiter gewinnen können. Es war ein – meiner Wahrnehmung nach – wahrer Universalgelehrter mit Namen Guerino Mazzola und er kam aus der Schweizer Ortschaft Dübendorf in der Nähe von Zürich. Auf seine Provenienz angesprochen, entgegnete er mir einmal, nach einem für ihn typischen »weischt Rrrainerrr« (mit gerolltem »r«), es sei nun gar nicht so wichtig, wo man herkommt, sondern viel mehr, wo man hingeht. Provinz sei überdies keine Frage der Geographie, sondern eine Frage der Geisteshaltung.

Mazzola hatte in Zürich unter anderem Mathematik und Physik studiert, mit 24 Jahren war er promoviert. Er arbeitete dann in Paris und Rom und habilitierte sich im Jahr 1980 im Fachgebiet der Kategorientheorie. Er war danach nach eigener Auskunft »verschiedentlich tätig«. Nun bezog er eine Projektwohnung in einem idyllischen Haus, direkt auf der Mathildenhöhe in Darmstadt.

Es mag im Sommer 1985 gewesen sein, als wir bei GRIS Guerino Mazzola erstmals begegneten. Es ging ihm um Raffaels Fresko »La scuola di Atene – Die Schule von Athen«. Raffael hatte das monumentale und etliche Quadratmeter große Bild Anfang des 16. Jahrhunderts auf eine Wand in der »Stanza della Segnatura«, dem für zeremonielle Unterschriftsleistungen des Papstes vorgesehenen Raum im Vatikan gemalt. Mazzola hatte einen Plan. Die im Fresko dargestellte Szene sollte als ein dreidimensionales Modell im Computer realisiert werden. Es sollte für die Symmetrie-Ausstellung im Sommer 1986 möglich sein, quasi »neue« Perspektiven und Ansichten der von Raffael dargestellten Szene zu berechnen und zu visualisieren, um so neue Erkenntnissen zur Struktur und Symmetrie des Freskos zu gewinnen.

Encarnação übergab das Mazzola-Problem an seinen Mitarbeiter Detlef Krömker, der wiederum auf mich als seinen Hiwi zukam. Zunächst hatten wir keine Ahnung, wie Guerino Mazzola zu helfen sei. Im Laufe der nächsten Jahre und Jahrzehnte sollte ich allerdings erfahren, dass dieser Umstand für fast alle Forschungs- und Beratungsprojekte – an deren Beginn – typisch ist. Denn wenn das Problem ein Einfaches wäre, könnte man für dessen Lösung ja auch andere Leute – als ausgerechnet uns – beauftragen.

Professor Dr. Guerino Mazzola, Minneapolis

Exkurs – Über Religion, Kunst und Wissenschaft

Wenn man das liest, so muss man sehen, dass meine »interdisziplinären Sünden« schon am Mathematischen Institut der Universität Zürich ihren Anfang genommen hatten. Mein Auftreten als der wissenschaftliche Generalsekretär des Darmstädter Symmetrieprojekts war die unmittelbare Folge davon. Ich hatte mich damals bereits in Zürich mit algebraischer Geometrie und Darstellungstheorie beschäftigt und bei Peter Gabriel (dem Mathematiker, nicht etwa dem Popmusiker) habilitiert. Die Algebra hatte ich bereits zur Entwicklung eines neuen interdisziplinären Gebietes der Mathematischen Musiktheorie quasi »missbraucht«, für viele Fachkollegen war das reine Ketzerei.

Der an der TH Darmstadt tätige Mathematikprofessor Rudolf Wille hatte mich vordem zu einem Vortrag zu meiner Mathematischen Musiktheorie eingeladen. Er fand daraufhin, dass ich für das Symmetrieprojekt genügend progressiv und auch provokativ wäre. Mein Vorhaben, im Rahmen des Symmetrieprojekts Raffaels »Schule von Athen« mithilfe von Computergraphik analysieren zu wollen. Das war nicht nur progressiv, sondern schon ein Sakrileg. Das kannte ich freilich, hatte doch bereits meine Computer-basierte mathematische Analyse von Beethovens »Großer Sonate für das Hammerklavier« eine ähnliche Ablehnung hervorgerufen.

Diese Arbeit war auf erbitterte Gegenreaktionen gestoßen, denn wie konnte ich nur jenes heilige Meisterwerk der ersten Wiener Klassik einer formalen Analyse unterziehen. Die Vorurteile der Kollegen vom philosophischen Fach sahen die Mathematik ohnehin als eine Wissenschaft, die nur komplizierte Tautologien produzierte. Besonders verdächtig war den Geisteswissenschaftlern mein damaliger Musikcomputer. Er war der Urahn der später konstruierten Maschine namens »MDZ71« – und dem Nachfolger »presto«. Mein Musikcomputer hatte die musikalischen Parameter der »Sonate für das Hammerklavier« erbarmungslos durcheinandergewirbelt. Ein Artikel über »Beethoven im Computer« war bereits in der »Neuen Zürcher Zeitung« erschienen.

Die von mir zu verantwortende Entwürdigung von heiligster musikalischer Kunst war also der wissenschaftskulturelle Hintergrund, mit dem dann ab dem Jahr 1985 Raffaels Fresko »with a fresh look« angegangen wurde. Zum Glück hatten mein Team und ich auf der Mathildenhöhe und der junge Informatikstudent Georg Rainer Hofmann und seine Kollegen an der TH Darmstadt, einen wichtigen Mentor im Symmetrieprojekt. Das war der prominente Schweizer Kunstwissenschaftler Oskar Bätschmann, der die neuen Methoden und die Computerkultur überaus herzlich begrüßte. Das war wichtig und zudem nicht unwesentlich, um das Raffael-Projekt zum Erfolg zu führen. Die eher traditionell eingestellten Kollegen von Bätschmann verurteilten das Unternehmen als einen ketzerischen Affront gegen die »Sancta Ecclesia« der Kunstwissenschaft. Nach Beethoven im Computer könnte nun auch noch Raffael im Computer die gängige religiöse Bewunderung der Großkunst stören. Das war schon »deadly shocking«.

Bei unserer Analyse der gängigen Literatur zur »Schule von Athen« mussten wir erkennen, dass bereits recht viele und wichtige geisteswissenschaftliche Erkenntnisse vorlagen. Aber offenbar hatte bisher noch niemand die genaue Geometrie der im Fresko verwendeten Zentralperspektive untersucht. Für Bätschmann war das nicht erstaunlich, lern(t)en doch Kunstwissenschaftler rein gar nichts über die Mathematik und genauen Methoden der Perspektive in ihrem Studium. Also machten wir uns zuallererst an die exakte Rekonstruktion der dreidimensionalen Darstellung im Fresko, wo in einem Raum 57 Personen dargestellt sind.

Es stellte sich heraus, dass Raffael erstens zwei Perspektiven miteinander verquickt hatte: Eine für die Raumteile vor der großen Treppe, eine zweite für die Raumteile hinter der Treppe. Diese virtuose Perspektiventechnik, die Raffael und seine Mitarbeiter vollkommen beherrschten, erzeugt eine quasi-filmische Annäherungsbewegung des Betrachters. Man wird, auf das Fresko schauend, regelrecht in dieses hineingezogen. Und zweitens fanden wir, dass der Doppelstern, den Ptolemäus rechts vorn auf seiner Tafel konstruiert, kein Davidstern ist, wie dies die Kunstwissenschaft bisher ohne weiteres Nachzudenken angenommen hatte. Es ist vielmehr eine Kombination von Dreiecken aus den Platonischen Körpern, was eigentlich kein Wunder in einer Schule von Athen sein dürfte.

Was damals durch die computergraphische Visualisierung der geometrischen Daten der »Schule von Athen« erkannt wurde, war die Tatsache, dass das Doppeldreieck des Ptolemäus isomorph ist zum Doppeldreieck der Fußpunkte der wichtigsten Menschenfiguren im Fresko. Diese Erkenntnis war nur möglich geworden durch den Perspektivenwechsel mithilfe der Algorithmen der Informatik. Das war ein absolutes Novum in der Analyse der »Schule von Athen«, welches ohne Computergraphik verborgen geblieben wäre. Auf philosophischer Ebene gewannen wir so einen weiteren Beleg dafür, dass die sogenannte »ganze Wahrheit« als ein Integral der möglichen Perspektiven gesehen werden muss. Diese Erkenntnis, das Yoneda-Lemma der Kategorientheorie, war nun besser sichtbar geworden. Das durch den Einsatz von komplexen Algorithmen errechnete Integral war der klassischen Kunstwissenschaft vorher unzugänglich.

Diese Resultate des Darmstädter Raffael-Projektes aus der Mitte der 1980er-Jahre sind und bleiben ein fundamentaler Fortschritt im Bestreben, das große Ganze, welches durch das »dis-capere« der Disziplinen zerschnitten wurde, wieder zusammenzufügen.¶

Schon Ende der 1970er-Jahre gab es in den USA an der University of Rochester im US-Bundesstaat New York eine Beschäftigung mit der sogenannten »constructive solid geometry« (CSG). Man hatte eine Beschreibungssprache und ein System namens »PADL-2« (Part and Assembly Description Language Version 2) entworfen. Das PADL kannte primitive, geometrische Objekte (wie Quader, Kugeln, Kegel etc.) und konnte daraus per mengentheoretischer Operationen (Vereinigung, Schnitt etc.) neue komplexere Objekte im Rechner synthetisieren. Detlef Krömker meinte, dass die zur Verfügung stehende Version PADL-2 für unser Raffael-Projekt eingesetzt und benutzt werden könnte – im Informatiker-Deutsch sagte man dazu wohl »hingebogen werden könnte«. Eine computergraphische Darstellung von menschlichen Körpern war damals schon sehr(!) ungewöhnlich. Es war eine schwierige Frage, wie das mit einem CSG-System und seinen primitiven geometrischen Formen möglich sein sollte.

Mazzola hatte auf der Mathildenhöhe in Darmstadt ein Sperrholzmodell der von Raffael dargestellten Szene aufgebaut. Darauf platzierte er hölzerne Gliederpuppen, die auch im Zeichenunterricht als Modell benutzt werden. Diese konnte er vom korrekten perspektivischen Betrachtungspunkt anvisieren. Mit solchen Holzpuppen wurden die Figuren im Fresko nachgestellt, die Gelenkwinkel der Gliedmaßen gemessen, und diese Daten wurden dann über PADL-2 modelliert und visualisiert. Die Herstellung von »Bildern« von unseren Berechnungen war eine Sache für sich. Das PADL-2 konnte Vektorbilder als Strichzeichnungen erzeugen, die man mit einem Plotter auf Papier zeichnen lassen konnte. Neben diesen eher technischen Zeichnungen sollten aber auch Farbbilder für das Exponat für die Ausstellung her, also digitale Bilder, farbige Rasterbilder, die aus Pixeln aufgebaut waren. PADL konnte so etwas als »shaded pictures« berechnen und in einer Auflösung von 512 mal 512 Bildpunkten in einer Datei abspeichern.


Titel der Springer-Publikation »Rasterbild-Bildraster« vom Sommer 1986.

Sehen oder zeigen konnte man so ein Bild, einen »Frame«, damit noch lange nicht. Die Datei mit dem Rasterbild wurde dann vom Siemens-Zentralrechner per Telefonmodem auf einen Spezialrechner bei GRIS übertragen, und in einem »frame buffer« gespeichert. Daran war ein Farbmonitor angeschlossen und man konnte – bitte sehr! – das Bild endlich wirklich sehen. Denn dieser Monitor, mit einer klassischen Braunschen Röhre ausgestattet, konnte tatsächlich ein farbiges Rasterbild darstellen. Normale Computermonitore zeigten nur Zeichen monochrom in Grün oder Orange. Das Ganze kostete pro Frame leicht mehrere Stunden Aufwand. Bilder für die Ausstellung brauchten aber noch eine »Hardcopy« – zum An-die-Wand-Hängen.

Für ausstellungsfähige Bilder wurde eine 35-mm-Kleinbildfilm-Fotokamera mit Teleobjektiv auf einem Stativ in einiger Entfernung vor dem Monitor platziert. Das Teleobjektiv milderte die kugelförmige Verzeichnung des Bildschirms. Das Stativ brauchte man, weil es einige Sekunden Belichtungszeit pro Aufnahme benötigte, um das Flimmern des Monitors zu eliminieren. Und so wurden Foto-Negative und auch Vortragsdias unserer Rechenergebnisse fabriziert. Es gab ja noch keine Beamer oder gar große LED-Monitore, also projizierte man in der Symmetrie-Ausstellung eine Diashow mit klassischen Projektoren auf eine Leinwand. Ein Übernehmen der Bilder in ein digitales Dokument, etwa als Abbildung in einer Textdatei, war damals noch völlig utopisch. Das wurde erst möglich mit der Entwicklung der »Architekturen Offener Dokumente« (ODA), wie sie im Kontext des BERKOM-Projekts einige Jahre später erfolgen sollte.

Für das Erstellen von Diaschau-Bildern mit »Textelementen«, Schrift oder Formeln, wurde die mit einem Laserdrucker ausgedruckte entsprechende Papierseite mit schwarzer Schrift auf einem Repro-Fototisch durch ein Gelbfilter aufgenommen. Das 35-mm-Negativ zeigte dann weiße Schrift auf blauem Grund. Dieses Negativ konnte im Vortag wiederum quasi als ein Dia gezeigt werden. Und dieses »Weißauf-Blau«-Schriftbild war damals schon schick. Wegen des Raffael-Projekts war ich quasi »ständig« im Institut GRIS. Professor Encarnação genehmigte mir sogar einen Büroarbeitsplatz mit einem eigenen Telefon auf dem Schreibtisch. Das Telefon war bis zur Mitte der 1980er-Jahre wohl das wichtigste Kommunikationsmittel im Büro. Es hatte eine Wählscheibe und war grau – das Fabrikat »Siemens FeTAp 611« hieß daher auch die »Graue Maus«. Dieser Büroarbeitsplatz mit Telefon war ein damals fast unglaubliches Privileg für einen Hiwi-Studenten.

In der Rückschau fällt das fast »niedlich« zu nennende Arbeits- und Prozess-Tempo in der Mitte der 1980er-Jahre auf. Man hatte an einem normalen Arbeitstag eine um Längen geringere Ereignis- und Termindichte zu bewältigen als dies viele Jahre später der Fall war. Das Telefon war das einzige Echtzeit-Medium, die Briefpost hatte eine Reaktionszeit von einigen Tagen. Das Telefax war noch nicht alltäglich und überall in Gebrauch. Drängte ein Kooperationspartner auf eine versprochene Zuarbeit, so konnte man ihn am Telefon vertrösten, das sei schon in der Post. Und man hatte noch den ganzen Tag Zeit, es wirklich zu erledigen und zur Post zu geben.

Einige der Begleitumstände waren unglaublich provinziell und idyllisch, verglichen mit der »around the clock action«, die die entwickelte Informationsgesellschaft Jahrzehnte später mit sich bringen sollte. Gegenüber des Instituts GRIS in Darmstadt gab es eine Gaststätte »Bayerischer Hof«. Setzte man sich dort zur Mittagszeit an einen Tisch, so wurden ohne Bestellung die Tagessuppe und ein halber Liter Bier – eine »Halbe« – gebracht. Dann gab es ein warmes Tellergericht nach Speisekarte. So eine Mittagspause konnte schon mal gut zwei Stunden dauern. Der Nachmittag hatte, abhängig von der Zahl der zu Mittag konsumierten »Halben«, manchmal eine geradezu lässige Grundstimmung.

Das Darmstädter Raffael-Projekt zeigte mithilfe der Perspektivenwechsel in der synthetischen dreidimensionalen Szene, dass Raffaels Fresko zwei Perspektiven aufweist, die allerdings den gleichen Fluchtpunkt, aber eine verschiedene Tiefenskalierung haben. Dadurch entsteht eine Dynamik die den Betrachter quasi in das Bild »hineinzieht«. Professor Encarnação erreichte im Sommer 1986 beim Springer-Verlag in Heidelberg, dass dort eine Monographie zu unserem Raffael-Projekt erschien. Sie hieß »Bildraster-Rasterbild – Anwendung der Graphischen Datenverarbeitung zur geometrischen Analyse eines Meisterwerks der Renaissance: Raffaels Schule von Athen«. Die Autoren waren Guerino Mazzola, Detlef Krömker und ich – obwohl ich ja erst ein Student war. Unser Ansprechpartner beim Springer-Verlag war übrigens Gerd Rossbach. Er sollte ab dem Jahr 1992 die ersten »Deutschen Multimedia Kongresse« (DMMK) initiieren.


Bilder vom Raffael-Projekt der Darmstädter Symmetrie-Ausstellung aus dem Jahr 1986. Szenenmodell und Holzpuppen, die vermessen wurden, und ihre Modellierung und Visualisierung mit dem PADL-2-System.



In der Kulturszene waren wir bei einigen professionellen, aber reaktionären Kunsthistorikern quasi »unten durch«. Möglicherweise waren sie gereizt, weil sie erkennen mussten, dass ihre Unkenntnis der Mathematik und Geometrie, mit der sie manchmal gar kokettierten (»in Mathe hatte ich immer eine Fünf«), hier ein wirklicher Nachteil war. Sie verstanden einfach nicht, um was es bei der »Schule von Athen« ging und spürten, dass sie den geometrischen Fähigkeiten eines Raffael absolut nicht gewachsen waren. Das ärgerte sie. So durften wir von völlig Ahnungslosen verfasste Pressetexte lesen, dass wir »Raffaels großartiges Fresko zu einer unsäglichen Badeanstalt« hätten verkommen lassen. Um uns als Techniker generell zu diskreditieren, überschrieb man einen Zeitungsartikel gar mit: »Von Holzpuppen und Holzköpfen«. Viele Jahre später hätte man das wohl ein »hate posting« genannt.

Einige Monate nach dem Ende der Symmetrie-Ausstellung sollte Anfang April 1987 die große Tagung »Datenbanksysteme in Büro, Technik und Wissenschaft« (BTW) der »Gesellschaft für Informatik« (GI) in Darmstadt stattfinden. José Luis Encarnação war eingeladen worden, zur feierlichen Abendveranstaltung den akademischen »Dinner Speech« zu halten, im Festsaal der Darmstädter Orangerie vor mehreren Hundert Zuhörern. Aber Encarnação passed it over to me. »Hofmann, gehen Sie da hin! Sie haben doch diese Raffael-Bilder, damit können Sie einen Vortrag halten.« Er meinte, so eine Aufgabe fiele mir doch sicher ganz leicht. Ich hingegen konnte angesichts der anspruchsvollen Aufgabe und den Erwartungen der Zuhörerschaft schon leicht nervös werden. Die BTW-Teilnehmer rechneten ja mit dem renommierten Professor Encarnação als Redner – und sicher nicht mit einem Studenten, der ihnen irgendwelche von einem Monitor abfotografierte bunte Dias zeigen würde.

Es war wohl so etwas wie mein »Bundesliga-Debut«. Ich war 25 Jahre alt und trug zur BTW-Abendveranstaltung einen Anzug mit Krawatte. Detlef Krömker hatte mir noch mitgegeben: »Lerne die ersten paar Sätze des Vortrags auswendig. Das darf den Zuhörern aber nicht auffallen. Ist erst mal der Anfang gut gegangen, dann läuft der Rest auch. Dann kann kommen, was will«. Der Anfang ging gut, und so lief der ganze Vortrag generell ganz gut. Eine gemeinsame Intentionalität mit dem Publikum war spürbar, und es gab großen Applaus. Bei der Darmstädter BTW-Tagung waren im Publikum die fortschrittlichen Kräfte offenbar in der Überzahl. A small step for mankind, a giant leap for a man.

Ein Merkmal der entwickelten Informationsgesellschaft ist die Ubiquität und Selbstverständlichkeit von digitalen Bildern. So gesehen stand das Raffael-Projekt am Anfang einer fabelhaften Entwicklung, nämlich der Popularisierung der Computergraphik und des Computergraphischen Realismus. Ein Zeichen dieser beginnenden Popularisierung sollte in den Jahren 1987 bis 1989 eine quasi »Deutschland-Tournee« sein, die dem Auftritt an der BTW-Tagung folgte. Ich erhielt viele Einladungen zu Vorträgen, das Raffael-Projekt zu präsentieren.

Professor Dr.-Ing. Dr. h.c. Dr. E.h. José Luis Encarnação, Darmstadt und Berlin

Exkurs – Das Raffael-Projekt und die Anfänge der »Computer Graphics Art«

Wenn ich das alles so lese, so erinnere ich mich an die Ursprünge und an den Sinn und Zweck des »Raffael-Projektes« sowie an die Rolle, die mein damaliger Student Georg Rainer Hofmann dabei spielte.

Die internationale Hauptkonferenz und Messe für das Fachgebiet der Graphischen Datenverarbeitung war damals – und ist immer noch – die der »Special Interest Group on Graphics and Interactive Techniques« (SIGGRAPH) der »Association for Computing Machinery» (ACM). Sie findet jährlich in den USA statt und hat eine weltweit richtungsweisende fachliche Bedeutung. So um das Jahr 1985 begann man sich bei der SIGGRAPH-Konferenz auch mit dem Bereich »Kunst und Kultur« als ein weiteres Anwendungsgebiet der Computergraphik zu beschäftigen. Die sogenannte »Computer Graphics Art« wurde zu einem neuen Segment der SIGGRAPH-Veranstaltungen. Man begann unter anderem zu zeigen, wie Künstler Computergraphik als Werkzeug für die Generierung und Umsetzung ihrer Ideen und Kunstwerke verschiedenster Art nutzen könnten. Diese neuen Technologien konnten aber auch eingesetzt werden als Werkzeug zur allgemeinen Analyse, Interpretation, Bewertung, Vergleichbarkeit und Einordnung von Werken im Kunst- und Kultur-Bereich. Ich war sozusagen ein »Follower« dieser Entwicklung und wollte auch in Darmstadt in diese Richtung aktiv werden.

Für das Großprojekt des Jahres 1986, das interdisziplinäre Symposium zum Thema »Symmetrie«, hatte die Stadt Darmstadt den Schweizer Guerino Mazzola als wissenschaftlichen Leiter gewinnen können.

Im Sommer 1985 wurde Mazzola bei mir vorstellig. Er präsentierte mir seine Sicht und sein Interesse an Raffaels Fresko »La scuola di Atene –Die Schule von Athen«. Er erläuterte mir auch, dass dieses Schlüsselwerk der italienischen Renaissance durch die geometrische Präzision der perspektivischen Ansicht und der Gestik der darin dargestellten Philosophen bestach. Mazzola hatte als Vision vor, die im Fresko dargestellte Szene als ein dreidimensionales Modell im Computer zu realisieren, um dann quasi neue Perspektiven und Ansichten der von Raffael dargestellten Szene zu berechnen, zu visualisieren. Durch diese Simulation wollte er zu neuen Erkenntnissen bezüglich einer inneren Struktur und Symmetrie des Freskos gelangen. Damit war die Idee geboren, ein »Raffael-Projekt« am Fachgebiet GRIS durchzuführen. Die Frage war jetzt »nur noch« die der technischen Umsetzung eines solchen Projektes.

Das Raffael-Projekt fiel in die Zeit, als ich mich mit den ersten Planungen für das »Fraunhofer-Institut für Graphische Datenverarbeitung« (IGD) in Darmstadt beschäftigte. Es sollte dort mit Beginn des Jahres 1987 eine Abteilung geben, die »Animation und Simulation« hieß. Diese Abteilung sollte von Detlef Krömker geleitet werden und sie sollte sich mit der Erforschung der computergenerierten realistischen Bilder und Filme beschäftigen, die als Basis räumliche Szenen mit dreidimensionalen Objekten hatten. Das »Raffel-Projekt« war daher wie geschaffen und kam wie gerufen, um eine der Grundlagen für die Forschungsrichtung dieser künftigen Abteilung zu sein.

Damit konnte ich zudem ein taktisches Ziel verfolgen, mich, ähnlich wie bei ACM-SIGGRAPH, in meinem Institut auch mit der neuen »Computer Graphics Art« zu beschäftigen. Es war deswegen nur konsequent und zielführend, dass die Abteilung »Animation und Simulation« mit Beginn des Jahres 1987 am IGD eingerichtet wurde. Unter den ersten wissenschaftlichen Mitarbeitern (WissMA) war Georg Rainer Hofmann, der bei der Durchführung des »Raffael-Projektes« einen hervorragenden Job gemacht hat.

Das von Mazzola vorgeschlagene »Raffael-Projekt« kann auch gesehen werden als der Anfang einer Entwicklung, nämlich der »Popularisierung« der Computergraphik. Es war ein historischer Einstieg in den Anwendungsbereich »Kultur und Kunst« und den Computergraphischen »Realismus«, als Darstellung und Verarbeitung von computergenerierten realistischen Bildern und Filmen. In den Jahren 1987 bis 1989 wurden die eindrucksvollen Ergebnisse des »Raffael-Projektes« einer breiten, auch nicht-fachlichen Öffentlichkeit präsentiert. Um diese Verbreitung der im Projekt erzielten, sehr interessanten Ergebnisse noch weiter zu verstärken, hatte ich mich erfolgreich beim Springer-Verlag in Heidelberg dafür eingesetzt, dass dort eine Monographie über das »Raffael-Projekt« erscheint. Die Autoren waren Guerino Mazzola, Detlef Krömker und der Student Georg Rainer Hofmann.

Damit hatte das »Raffael-Projekt« meine Absichten und die damit verbundenen Erwartungen bereits mehr als voll erfüllt, nämlich das Erschließen und Ermöglichen von neuen Anwendungen für die Graphische Datenverarbeitung, als Informatik-Werkzeug und als »Enabling Technology« im Bereich Kunst und Kultur. Das Projekt hat gezeigt, wie wertvoll die Methoden, Techniken und Systeme dieser Informatik-Disziplin sind, um Visualisierungen, Analysen, Simulationen und Animationen rechnergestützt für Kunst- und Kulturschaffende zu ermöglichen und zu realisieren.

Das »Raffael-Projekt« hat in den 1980er-Jahren sicher eine Pionierrolle gespielt und wurde zu einem der »Enablers« dieser Entwicklung. Es war dahingehend sehr erfolgreich und hat damit seinen Zweck voll erfüllt. So gesehen zählt mein ehemaliger Student Georg Rainer Hofmann aus meiner Sicht zu den Pionieren der »Computer Graphics Art«. Gerne habe ich auch sein, dieses hier vorliegende, Buchprojekt unterstützt, in dem er über vier Jahrzehnte der Entwicklung der Informationsgesellschaft aus seiner Sicht und auf der Basis seiner persönlichen beruflichen Erfahrungen berichtet.¶

Aus einer philosophischen Sicht haben wir damals gelernt, dass der geisteswissenschaftlichen Methode des »Perspektivenwechsels« durchaus eine mathematisch-technische Komponente entspricht. Guerino Mazzolas Interpretation des kategorientheoretischen Yoneda-Lemmas »Verstehen heißt Perspektiven ändern und sammeln« war ein wichtiges – und technisch realisierbares – Element geworden. Dieser Umstand sollte uns auch künftig noch intensiv beschäftigen.

Ich hatte damals ein großes Interesse an einem eiligen Studium, denn ich wollte möglichst bald meine semi-professionelle Hiwi-Tätigkeit durch eine »richtige« Berufstätigkeit ersetzen. Im Herbst 1986 war dann nach acht Semestern das Studium der »Informatik mit Nebenfach Volkswirtschaftslehre und Wahlfach Philosophie« an der THD beendet.

GLOBALE PROVINZ

Подняться наверх