Читать книгу Humanoide Roboter - Jürgen Handke - Страница 12

Оглавление

I Roboter

Many fear robots will take their job.

They’re more likely to enhance our lives

in ways never imagined.

[INT1]

Roboter sind künstliche Wesen mit einem physischen (aktuell elektromechanischen) Körper, die in einer realweltlichen Umgebung situiert sind und die Fähigkeit besitzen, diese Umgebung durch Sensoren wahrzunehmen, eigene algorithmische Denkprozesse durchzuführen und durch körperliche Aktionen in der Umgebung zu handeln. Wahrnehmung und Handlung sind dabei mehr oder weniger stark durch interne Denkprozesse vermittelt.

Die Herkunft des Wortes „Roboter“

Schon im Mittelhochdeutschen des 14. Jahrhunderts taucht das Wort „robaten“ auf, wo es so viel wie „Frondienst leisten“ bedeutete. Durch polnische Landarbeiter ist das Wort als „rabotten“ in die deutsche Sprache eingegangen und war ein Synonym für das Ausüben schwerer körperlicher Tätigkeiten.

Ursprünglich kommt das Wort „Roboter“ aus dem Tschechischen und bedeutet so viel wie „künstlicher Mensch“ oder „Automat“. 1920 wurde der Begriff „robot“ das erste Mal von Karel Čapek, im Drama R. U. R. (Rossums Universal-Robots) verwendet. In dem Werk werden mit dem Wort „Roboter“ Fronarbeiter bezeichnet. Das tschechische Wort „robot“ wurde als Lehnwort ins Englische übernommen und im Deutschen mit der Endung -er versehen. Das tschechische Wort stammt von „robota“ ab, welches so viel wie „Arbeit“ oder „Fronarbeit“ bedeutet und auf das altkirchenslawische Wort „rab“ zurückgeht, das mit „Sklave“ übersetzt werden kann.

Quelle: https://www.wissen.de/wortherkunft/roboter

Laut der Internationalen Organisation für Normung (ISO) ist ein Roboter „ein betätigter Mechanismus, der in zwei oder mehr Achsen mit einem Grad an Autonomie programmierbar ist und sich innerhalb seiner Umgebung bewegt, um die beabsichtigten Aufgaben auszuführen“.


[V.I.1]

Beim Design des Körpers eines Roboters haben die Entwickler eine Vielzahl von Entscheidungen zu treffen. Zunächst benötigen sie ein Modell, das sie als Vorbild für den zu entwerfenden Roboterkörper verwenden wollen. Dieses Modell muss nicht zwangsläufig ein menschlicher Körper sein; es wurden beispielsweise bereits etliche Roboter nach den Vorbildern von Insekten oder Säugetieren gebaut. Es ist auch nicht gesagt, dass ein Roboter ausschließlich aus Komponenten eines einzigen Vorbilds bestehen muss oder dass die verwendeten Vorbilder ausschließlich organisch sein müssen. Vielmehr können auch von Fahrzeugen oder Maschinen her bekannte Komponenten, wie z.B. Räder, im Design verwendet werden.

Darüber hinaus kann zwischen Industrie-, Service- und Assistenzrobotern (auch „Soziale Roboter“ genannt) unterschieden werden. Während Erstere der automatisierten industriellen Fertigung dienen, führen Service-Roboter nützliche Aufgaben für den Menschen oder dessen Umgebung aus. Als Beispiele hierfür dienen Staubsauger- oder Rasenmähroboter. Assistenzroboter hingegen treten in Interaktion mit Menschen, anstatt nur eine Dienstleistung – wie zum Beispiel das Rasenmähen – für sie auszuführen.

Eine besondere Gruppe von Robotern sind humanoide Roboter. Diese sind vom Aussehen her dem Menschen relativ ähnlich, müssen aber, wie oben erwähnt, nicht alle menschlichen Züge widerspiegeln. Es reicht z.B. wenn entweder der Ober- oder der Unterkörper dem eines Menschen entspricht.3

Nicht-humanoiden Robotern dagegen fehlen die menschenähnlichen Attribute oder sie realisieren in ihrem Körperbau nur einige, wenige menschliche Gliedmaßen, wie z.B. Arme.

I.1 Nicht-Humanoide Roboter

Typische Beispiele nicht-humanoider Roboter sind in Abb. I.1 dargestellt und finden sich mittlerweile in wichtigen kommerziellen Anwendungen, wie z.B. in der Lebensmittelverarbeitung, Verpackung und industriellen Steuerung und Fertigung, oft in Form eines programmierbaren, automatisierten „Arms“ oder in unterstützenden Strukturen.

Im medizinischen Bereich können z.B. robotergesteuerte „Exoskelette“, d.h. äußere Stützstrukturen für den menschlichen Körper, Menschen, denen die Beinkraft oder die Koordination zum Gehen fehlt, unterstützen. Damit kann ihnen eine bequeme und vertraute Möglichkeit geboten werden, sich durch ihren Alltag zu navigieren oder ihnen die Fähigkeit, ihre Beine zu bewegen, verliehen werden. Abb. I.2 zeigt ein Exoskelett bei der Anpassung.


Abb. I.1: Nicht-humanoide Roboter – eine Auswahl

Auch die Prothetik wird durch die moderne Robotik revolutioniert: So gibt es bereits bionische Hände, die sich zur einfachen Bedienung über Smartphones steuern lassen.

Mittlerweile können Roboter auch die menschliche Arbeit in Krankenhäusern ergänzen, indem sie die wichtigsten Messungen bei Patienten durchführen und so dem Pflegepersonal und den Ärzten mehr Zeit für die Arbeit am Patienten geben.


Abb. I.2: Exoskelett für das Treppensteigen

Eine andere Art von Robotern ist dabei, ein viel größerer Teil unserer Welt zu werden: das unbemannte Fluggerät (engl. Unmanned Aerial Vehicle, UAV) oder „Drohne“. Drohnen versprechen eine schnelle und einfache Lieferung in große Ballungsgebiete, so dass Hausbesitzer den Weg zum Laden für die Grundbedürfnisse vermeiden können. Während Drohnenlieferungen von großen Gegenständen in naher Zukunft unwahrscheinlich sind, könnte die Bequemlichkeit der Lieferung auf Abruf diese fliegenden Roboter zu einem Grundbestandteil unseres täglichen Lebens machen.

Im Bereich der bodengestützten Mobilität werden Roboterautos die Art und Weise verändern, wie wir über Transport denken. Vollständig selbstfahrende Privatwagen werden die Pendelzeit in produktive oder erholsame Zeit umwandeln, wodurch lange Pendelfahrten weit weniger belastend werden als früher. Wenn lange Pendelfahrten als Bürostunden angerechnet werden könnten, würde auch das Leben in vom Arbeitsplatz entfernten Orten zu einer realistischeren Option. Während große Unternehmen hier noch in Privatfahrzeuge investieren, setzen andere bereits auf selbstfahrende Taxidienste. Durch Einsparung der Person hinter dem Steuer in selbstfahrenden Auto können hier erheblich Spareffekte entstehen.

Auch im häuslichen Bereich sind bereits nicht-humanoide Roboter im Einsatz. Es gibt nahezu keine theoretische Grenze dafür, wie sehr Roboter den häuslichen Alltag begleiten können: Ein Roboter, der zum Beispiel in der Lage ist Geschirr zu reinigen, kann im Laufe einer Woche Stunden sparen. Die Staubsaug- und Wischfähigkeiten anderer Roboter können dafür sorgen, dass ein Haus ohne menschliches Zutun in einem Top-Zustand bleibt. Eltern könnten einen Spezial-Roboter zu schätzen wissen, der in der Lage ist, Spielzeug nach der Spielzeit aufzusammeln. Roboter entwickeln im Laufe der Zeit immer allgemeinere Fähigkeiten, und es wird vermutlich nicht lange dauern, bis ein einziges Modell eine Vielzahl von Funktionen im Haushalt ausführen kann.

Der Traum für diejenigen, die nicht besonders gern kochen, ist ein Kochroboter oder eine Küche, die in der Lage ist, ganze Mahlzeiten zuzubereiten, so dass die Kosten für das Auswärtsessen gespart werden können, ohne Zeit für Kochen und Aufräumen investieren zu müssen. Da derartige ‚Roboterköche‘ mit menschenähnlichen Händen und Armen agieren, können sie mit der richtigen Programmierung praktisch jede Mahlzeit nachstellen. Und wenn sie zusätzlich mit Kameras und anderen Sensoren ausgestattet sind, können die Roboterköche sogar die Essenszubereitung ihrer Besitzer verfolgen, davon lernen und möglicherweise daraus abgeleitete und einzigartige Familienrezepte zubereiten. Noch allerdings befinden sich derartige Roboter im Prototypenstadium, an einen Einsatz ist noch nicht zu denken.

Während Roboter eine zunehmende Rolle im Haushalt spielen werden, sind es die Unternehmen, in denen Roboter eine noch größere Wirkung entfalten können. Selbst Tätigkeiten, die als Schreibtischjobs betrachtet werden, erfordern oft eine beträchtliche Menge an Arbeit im Umgang mit Papier und bei der Ausführung von Aufgaben rund um das Büro. Roboter können einige dieser Bürotätigkeiten übernehmen und so den Mitarbeitern mehr Zeit für weiterführende Aufgaben gewähren.

Auch im Sicherheitsbereich sind Roboter vorstellbar. Während in nächster Zeit wohl noch keine ‚RoboCops‘ auf den Straßen patrouillieren werden, finden Roboter zunehmend ihren Weg in Sicherheitsfelder. Ausgestattet mit Kameras, Mikrofonen und 360-Grad Videoaufnahmefähigkeiten, dazu mit der Möglichkeit, gleichzeitig Sicherheitsmeldungen in Echtzeit abzusetzen, bieten sie eine physische Präsenz, die kriminelle Aktivitäten abschrecken kann. So können Sicherheitsroboter zu einer festen Größe in Unternehmen auf der ganzen Welt werden. Auch wenn bewaffnete Roboter, Sicherheitskräfte oder Strafverfolgungsbeamte heute noch unrealistisch sein mögen, sind allgemeine Überwachungsgeräte schon jetzt in vielen Bereichen präsent.

Derzeit scheint es aber unwahrscheinlich, dass Roboter jemals die menschliche Interaktion verdrängen können. Allerdings können sie eine Reihe von Nischenrollen spielen. Allein lebende Senioren zum Beispiel fühlen sich oft sehr einsam, und gelegentliche Besuche von Familienmitgliedern reichen nicht immer aus, um diese Lücke zu füllen. Roboter-Begleiter können für soziale Interaktion sorgen und älteren Menschen helfen, ihre sozialen Fähigkeiten zu erhalten. Sie können auch Erinnerungen für Medikamente und andere Anwendungen geben. Roboter können durch ihre „Voice-Chat-Fähigkeiten“ Senioren helfen, mit Familie und Freunden in Kontakt zu bleiben. Zusätzlich können sie Überwachungsdienste anbieten, um schneller auf medizinische Notfälle und andere Probleme zu reagieren.

Obwohl Roboter die Gesellschaft nicht so schnell übernommen haben, wie es die dystopische Literatur vorhergesagt hat, haben sie in den letzten Jahren stetige Fortschritte gemacht, und es ist zu erwarten, dass sie in den kommenden Jahren immer mehr Verbreitung finden werden.4

Eine spezielle Gruppe von Robotern zeichnet sich durch menschenähnliches, in manchen Fällen sogar fast menschengleiches Aussehen aus. Diese „humanoiden“ Roboter bilden den Fokus dieses Buches und sollen in den folgenden Abschnitten bezüglich ihrer Kompatibilität mit den Abläufen im menschlichen Alltag beschrieben werden.

I.2 Humanoide Roboter

Die uralte Idee der Erschaffung eines Roboters mit menschlichem Aussehen wurde durch die Entwicklungen im neuen Bereich der Robotik inzwischen in die Tat umgesetzt.


Abb. I.3: Leonardos Ritter

Bereits im 15. Jahrhundert entwarf Leonardo Da Vinci eine Maschine, einen Mechanischen Ritter, als Teil seiner Forschung zur Anatomie des Menschen. Mit Konstruktionen wie denen von „Leonardos Ritter“ (Abb. I.3) und anderen mechanischen Automaten ebnete er den Weg in die Neuzeit.

Die ersten Maschinen, die als Roboter bezeichnet wurden (als Teil von Karel Capeks Drama „R.U.R.“), sind ebenfalls Humanoide.

In den 1920er Jahren wurde der erste Roboter im Vereinigten Königreich gebaut. Dieser Roboter namens „Eric“ hatte auch einen menschlichen Körper und konnte einfache Aufgaben bewältigen, beispielsweise aufstehen oder einzelne Körperteile bewegen.

Jenseits des Atlantiks produzierte die Westinghouse Corporation mit „Elektro“ einen humanoiden Roboter, der das Laufen, das Sprechen und andere, damals als wichtig erachtete, menschliche Handlungen beherrschte, wie das Rauchen einer Zigarette (Abb. I.4). Elektro zählte zu den Hauptattraktionen der Weltausstellung 1939.


Abb. I.4: Elektro

Die Ergebnisse all dieser wegbereitenden Bemühungen hatten begrenzte Fähigkeiten und würden vermutlich nicht mehr der modernen Definition eines Roboters entsprechen, sondern eher als Automaten bezeichnet werden. Nichtsdestoweniger ist ihre Bedeutung für zukünftige Erfindungen unbestreitbar.

Obwohl die Originalentwürfe und Namen für Roboter der westlichen Kultur entspringen, ist Japan das Land mit dem größten Einfluss auf die Entwicklung humanoider Roboter. In den 1970er Jahren entwickelten Wissenschaftler der Waseda-Universität WABOT-1, „den ersten vollmaßstäblich anthropomorphen Roboter“, der kommunizieren und sich mit beiden Beinen bewegen konnte. Sein Nachfolger WABOT-2 wurde in den 1980er Jahren entwickelt, um zu beweisen, dass Roboter auch anspruchsvolle menschliche Tätigkeiten, wie das Spielen eines Tasteninstrumentes, ausführen können.


Abb. I.5: WABOT-1 und WABOT-2

In den 1980er Jahren begann auch der japanische Konzern Honda mit der Entwicklung humanoider Roboter. Der erste Teil der Forschung beschäftigte sich mit Verbesserungen der Bewegung bei den Honda-Modellen P1, P2 und P3. Die Entwicklung erreichte ihren Höhepunkt mit der Einführung von ASIMO (Advanced Step in Innovative MObility), einem der bis heute bekanntesten humanoiden Roboter der Geschichte, der seither stets weiterentwickelt wird. ASIMO wiegt 50 kg und ist 1,30 m groß. Er befindet sich somit auf Augenhöhe mit einem sitzenden Erwachsenen und ist perfekt für die menschliche Umgebung geeignet (siehe Abb. I.6).


Abb. I.6: ASIMO

Er kann daher auch ideal als Hilfe im Haushalt eingesetzt werden, beispielsweise für Menschen, die im Rollstuhl sitzen oder das Bett nicht verlassen können. Mit seinen beweglichen Gelenken in Armen und Händen kann ASIMO Lichtschalter betätigen, Türen öffnen, Gegenstände tragen oder Wagen schieben. Außerdem kann ASIMO mit seinen visuellen Sensoren Hindernissen ausweichen, sowie Treppenstufen auf und ab gehen. Der Roboter kann sich Gesichter einprägen, diese speichern und somit Menschen identifizieren und voneinander unterscheiden. ASIMO ist damit einer der am weitesten entwickelten Roboter, aber auch einer der teuersten. Sein Kaufpreis liegt bei stolzen 2,5 Millionen US Dollar. Damit kommt er für die Verwendung im Alltag wohl eher nicht in Frage.

I.2.1 Humanoid, Android und Geminoid

Humanoide Roboter sind, wie dargestellt, charakterisiert durch menschliche Form, menschliches Verhalten und menschliche Emotionalität. Die Übertragung menschlicher Merkmale, Emotionen oder Absichten auf Roboter, auch Anthropomorphismus genannt, ist dabei von Roboter zu Roboter unterschiedlich stark ausgeprägt und damit mehr oder weniger nah am menschlichen Vorbild. Durch die Menschlichkeit ihres Designs können humanoide Roboter auf menschliche Art ihre Umgebung sowie andere Menschen und Roboter darin wahrnehmen, begreifen und beeinflussen.

Wenn man sich für ein oder mehrere Modelle als Vorbilder für das Design entschieden hat, ist eine weitere Frage, wie originalgetreu die gewählten Vorbilder im Roboter nachgebaut werden sollen bzw. können. Oftmals interessieren nur Funktion und/oder Aufbau des Modells, die man im Roboter realisieren möchte. Bisweilen liegt die Intention der Designer aber auch darin, das Original möglichst getreu kopieren zu wollen. Bildet der Mensch das zu kopierende Vorbild, dann ist das Ergebnis ein sog. „Android“, ein humanoider Roboter, der möglichst wenig vom Menschen zu unterscheiden ist.5

Um bei Androiden, deren Geschlecht ja auf Grund ihre Körpermerkmale klar erkennbar ist, geschlechts-spezifische Unterscheidungen treffen zu können, ist für weibliche Androide zusätzlich das Attribut „gynoid“ (gr. γυνή/gyne „Frau“) eingeführt worden.

Bei „Geminoiden“6 gehen die Entwickler noch einen Schritt weiter. Geminoide sind Androide, die nach einem bestimmten menschlichen ‚Modell‘ gebaut wurden, also aussehen wie eine existierende Person, oft mit dem Ziel, als ferngesteuerte Androiden einer lebenden Person zu agieren.7

Abb. I.7 exemplifiziert die Klassifikation humanoider Roboter mit je einem Beispiel und den dazugehörigen Merkmalen.


Abb. I.7: Humanoide Roboter – Beispiele

Während alle Geminoide gleichzeitig auch Androide und Humanoide sind, ist dies umgekehrt nicht der Fall. Abb. I.8 stellt diese Bezüge noch einmal dar.


Abb. I.8: Humanoide Roboter

Bei Androiden und Geminoiden ist zu beachten, dass vollständige Originalgetreuheit auf dem aktuellen Stand von Technik und Wissenschaft für kein organisches Vorbild realisierbar ist. Der Eindruck des Künstlichen ist spätestens beim zweiten Hinsehen in der Regel nicht zu vermeiden, wie auch das Bild von „BuSaif“, dem an der United Arab Emirates University (UAEU) entwickelten Android zeigt (Abb. I.9).


[V.I.2]

Der japanische Professor Masahiro Mori stellte in diesem Zusammenhang die Theorie auf, dass in solchen Situationen die anfängliche Empathie schnell in Abneigung umschlagen kann. Sobald Menschen ‚erkennen‘, dass der Roboter nicht menschlich ist, oder sich nicht wie ein Mensch verhält, sehen sie diesen als leblosen Körper oder ‚Zombie‘ an und wollen folglich Abstand halten. Mori begründet dieses Verhalten als Teil unseres Selbsterhaltungstriebes. Menschen haben während der Evolution gelernt, tote Körper zu meiden. Da diese menschliche Auffassung plötzlich von einem anfänglichen Höhepunkt abfallen kann, ist dieses Phänomen als „Uncanny Valley“ (dt. unheimliches Tal) bekannt.


Abb. I.9: BuSaif, der Android der UAEU


Abb. I.10: Das unheimliche Tal (engl. Uncanny Valley)

Mittlerweile gehen trotz des „Uncanny-Valley-Effekts“ viele Ingenieure und Designer auf die ursprüngliche Idee zurück, möglichst menschliche Roboter zu bauen.

So sind Androide, wie die in Abb. I.7 gezeigte Gynoide „Nadine“, die man im Paderborner Heinz-Nixdorf Museum bestaunen kann, humanoide Roboter, welche das menschliche Aussehen genauer nachahmen und dabei versuchen, so menschlich wie möglich zu sein. Als weiteres Beispiel ist in Abb. I.11 die Gynoide „Sophia“ aufgeführt, die schon vor den Vereinten Nationen gesprochen hat und der 2017 (wohl eher als Werbegag) die saudi-arabische Staatsangehörigkeit verliehen wurde.


Abb. I.11: Die Androidin (gynoid) „Sophia“

Geminoide, wie der in Abb. I.7 gezeigte „Geminoid-DK“, ein ‚maschineller Klon‘ des dänischen Robotik-Spezialisten Hendrik Schärfe, werden gegenwärtig eher zu Forschungszwecken einsetzt. Der weltweit bekannteste Schöpfer solcher Geminoide ist Professor Hiroshi Ishiguro, der in Abb. I.12 mit seinem fast identischen Ebenbild zu sehen ist.


Abb. I.12: Professor Ishiguro (links) und sein Geminoid


[V.I.3]

Der „Geminoid-DK“

Professor Hendrik Schärfe hat einen Roboter, der ihm bis aufs Haar gleicht. Sein Name: „Geminoid-DK“ .

Er bewegt Kopf und Gesicht, blinzelt und lächelt wie ein Mensch. Sprechen kann er auch. Prof. Schärfe steuert sein zweites Ich per Tele-Operation, d.h. über USB-Kabel per Laptop, überträgt er seine Stimme per Lautsprecher. Die Lippen bewegen sich passend zu den Lauten. So verblüffend echt, dass der Professor seinen Zwilling sogar mal eine Vorlesung halten ließ. Einem Großteil der 150 Studenten soll das erst nach 45 Minuten gedämmert sein.

Für den dänischen Informatiker ein wichtiges Experiment: Denn er erforscht, wie Menschen auf Roboter reagieren. Schärfe glaubt: „Bald haben die meisten Menschen einen eigenen Roboter zu Hause. Da sollten wir wissen, mit welcher Maschine wir uns wohlfühlen.“

Noch ist das für einen Normal-Haushalt eher unerschwinglich: Derzeit sind 150.000 Euro, inklusive Labor-Ausrüstung für den Robo-Prof, der in den Laboren von Professor Ishiguro in Japan konstruiert wird, anzusetzen.

Die Beschaffenheit und der Erfolg der Mensch-Roboter-Interaktion sind stark abhängig vom Design und der Erscheinung des Roboters. Alle humanoiden Roboter sind so gebaut, dass sie dem menschlichen Körper ähneln, oder ihn komplett imitieren. Es wird vermutet, dass dies dabei hilft, eine erste Bindung mit den Menschen herzustellen. Während dieses Ziel näher rückt, steigen jedoch gleichzeitig die Erwartungen der Menschen an die Roboter. Diese können aber – wie in den Beispielen dieses Buches gezeigt wird – zum Großteil noch nicht erfüllt werden.

Zumeist entscheiden sich die Entwickler hinsichtlich der Vollständigkeit des zu bauenden Roboterkörpers bestimmte Komponenten der Vorbilder zu integrieren oder auch wegzulassen. Entsprechend wird der resultierende Körper bestimmte Eigenschaften und Fähigkeiten seiner Vorbilder besitzen, andere dagegen vermissen. Spielt beispielsweise Mobilität für den Roboter keine Rolle, werden Beine, Räder u. ä. nicht benötigt. Wenn der Roboter keine Gegenstände manipulieren oder kommunikative Gesten darstellen muss, können Arme und Hände in ihrer Beweglichkeit eingeschränkt werden oder man kann auf diese Gliedmaßen vollständig verzichten.

I.2.2 Die Fähigkeiten Humanoider Roboter

Viele Menschen denken beim Begriff „Roboter“ an Figuren aus Science-Fiction Filmen wie z.B. WALL-E, Transformers oder Star Wars. Die Roboter aus diesen Filmen besitzen meist vielfältige Fähigkeiten und sind fast menschlich, manchmal sogar übermenschlich. Dieses Bild entspricht jedoch nicht der heutigen Realität. Humanoide Roboter können nicht ohne Menschen denken oder handeln. Eine Programmierung durch Menschen ist notwendig. Im Vergleich zu den Robotern aus Hollywood-Filmen sind ihre Fähigkeiten begrenzt.

In den folgenden Abschnitten werden einige dieser Fähigkeiten an Hand von Videos mit NAO-Robotern exemplifiziert.

I.2.2.1 Die Sprechfähigkeit


[V.I.4]

Die maschinelle Befähigung zum Sprechen, also die künstliche Nachahmung der menschlichen Stimme durch Maschinen, wird als Sprachsynthese bezeichnet. Diese wird genutzt, um textuelle Informationen zu versprachlichen und ist u.a. in assistierenden Technologien im Einsatz, um z.B. Sehbehinderten Texte vorzulesen. Aber auch die handelsüblichen Smartphones, Computer oder Laptops besitzen Sprachausgabesoftware für den Informationsaustausch zwischen Nutzer und Gerät.

Die Technik hinter der Sprachsynthese greift auf eine Datenbank mit Audiodateien zurück und verbindet beim Versprachlichen die entsprechenden Dateien, um den Text wiederzugeben. Bei der Versprachlichung eines Textes entfernt die Software alle Ambiguitäten, die bei der Aussprache eines Wortes entstehen könnten. Danach wählt die Software Phoneme aus, um den Text in Laute zu konvertieren. Der letzte Schritt ist das Vorlesen des Textes in einer menschlichen bzw. menschenähnlichen Stimme. Der Nutzer kann oft noch die Geschwindigkeit und das Geschlecht der Stimme bestimmen. Dieser künstlichen Stimme kann man in der Regel aber keine Gefühle entnehmen, weil ihr häufig die entsprechende Intonation fehlt, sodass sie sehr monoton klingt.

I.2.2.2 Die Dialogfähigkeit


[V.I.5]

Wenn wir uns unterhalten, produzieren wir Laute, die ein Gesprächspartner erkennt und diesen auch zur Produktion von Lauten als Antwort animiert. Jedes Mal, wenn wir einen Dialog führen, analysieren wir unseren Gesprächspartner körperlich sowie sprachlich und passen unsere Antworten entsprechend spontan an. Zum Beispiel kann die Frage „Wieso hast du das gemacht?” in verschiedenen Situationen anders verstanden werden, z.B. dass eine Person verärgert oder überrascht ist. Diese Informationen werden im Gehirn zu Antworten verarbeitet.

Humanoide Roboter haben weder entsprechende Organe, noch können sie Laute als Wörter erkennen und diese entsprechend verarbeiten. Sie erkennen gesprochene Sprache durch ein Speech Recognition System (dt. Spracherkennungssystem). Dazu werden Geräusche über die Mikrofone aufgenommen und mit den im System gespeicherten Informationen abgeglichen, um eventuelle Stichworte zu erkennen, die wiederum als Befehl zur Ausführung einer bestimmten Handlung bzw. Reaktion wahrgenommen werden. Über die Mikrofone und Lautsprecher können sie sich ‚mitteilen‘, ihrem Gesprächspartner Informationen geben oder sich mit ihnen unterhalten.

I.2.2.3 Mehrsprachigkeit

Zwar haben humanoide Roboter nicht die angebliche Sprachfähigkeit des nebenstehend gezeigten C3PO-Roboters aus den Star Wars Filmen,8 allerdings lassen sich schon heute auf einigen Robotern mehrere Sprachpakete installieren und bei Bedarf aktivieren. So lassen sich auf den SoftBank-Robotern NAO und Pepper mehr als ein Dutzend Sprachen installieren, wovon allerdings nur maximal vier gleichzeitig genutzt werden können.


Vorsicht bei unbekannten Wörtern

Ein generelles Problem für die Sprachsynthese, sowohl bei Maschinen als auch beim Menschen ist die Aussprache unbekannter Wörter, die sich nicht ohne Weiteres in eine Fremdsprache übersetzen lassen. Das gilt insbesondere für Namen. So werden deutsche Namen wie „Sabine“ auf Englisch zumeist falsch ausgesprochen:

*/sə‘bi:n/ statt /za’bi:nə/.

Dass man sich diesen Effekt im Aussprachetraining allerdings auch zunutze machen kann, zeigen wir in Abschnitt V.5.4.1.

I.2.2.4 Das Varietäten Problem

Probleme kann es bei der Spracherkennung von Dialekten geben. Selbst Menschen, die die gleiche Sprache sprechen, geraten hin und wieder in Situationen, in denen sie das Gegenüber aufgrund ihres Dialekts nur schwer oder gar nicht verstehen, oder es kommt auf diese Weise zu Missverständnissen. Humanoide Roboter haben ein sprachspezifisches ‚Klangmuster‘ einprogrammiert, vergleichbar mit einer Vorlage davon, welche Laute in einer Sprache vorkommen, wie diese im Idealfall klingen, und in welcher Verbindung miteinander diese auftreten können. Die vernommenen Klänge vergleichen sie mit diesem Muster und können die auditiven Informationen darauf basierend einordnen bzw. verstehen. Weicht ein Input zu weit von diesem Muster ab, kann der Roboter die Klänge nicht mehr genau zuordnen und versteht den Menschen falsch oder gar nicht.

I.2.2.5 Gefühle


[V.I.6]

Kurz gesagt: humanoide Roboter können nicht fühlen wie Menschen. Sie sind aber in der Lage, menschliche Emotionen nachzuahmen bzw. vorzutäuschen. Wenn ein Mensch beispielsweise „Mir geht es heute gar nicht gut“ sagt, kann ein Roboter durchaus mitfühlend seufzen und folgende Antwort geben: „Das tut mir Leid! Ich hoffe sehr, dass es dir bald wieder besser geht“.

Tatsächlich fühlt der Roboter aber nicht mit dem Menschen mit, sondern er reagiert lediglich auf einen vorprogrammierten Impuls mit einer vorprogrammierten Antwort. In seinem Programm kann z.B. definiert sein, dass er, wenn er den Satz „Mir geht es heute gar nicht gut“ oder einen sinngemäß ähnlichen Satz hört, die oben beschriebene Reaktion ausführen soll.

I.2.2.6 Bewegung


[V.I.7]

Welche Bewegungen ein humanoider Roboter ausführen kann, ist abhängig von seinem Aufbau und somit von Modell zu Modell verschieden. Da humanoide Roboter nicht nur ein menschenähnliches Aussehen, sondern auch ein vergleichbares Verhalten haben sollen, können viele von ihnen ihren Kopf, ihre Arme oder auch die Beine bewegen. Oft sind diese auch mit flexiblen Gelenken ausgestattet, die eine genauere Nachahmung der menschlichen Bewegung zulassen. Einige können sogar feinere Bewegungen, sowie das Heben und Senken einzelner Finger, das Bewegen der Augen oder das Öffnen und Schließen eines Mundes durchführen.

In ihrer Fortbewegungsmöglichkeit sind humanoide Roboter oftmals noch relativ eingeschränkt, u.a. wegen ihrer begrenzten Akkukapazität. Während die Erkennung von Objekten und deren Umgehung relativ problemlos funktioniert, gestaltet sich die Überwindung oder gar Beseitigung nicht umgehbarer Hindernisse häufig als problematisch. Ebenso stellt das Heben von Gegenständen wie z.B. eines Kugelschreibers, und die anschließende Nutzung desselben, für viele Roboter derzeit eine schwierige Aufgabe dar.


[V.I.8]

NAO und der RoboCup

Durch seine vielen Gelenke besitzt der humanoide Roboter NAO die Fähigkeit, sich nahezu wie wir Menschen bewegen zu können. Er kann aufstehen, sich hinsetzten, laufen, aber auch hinfallen. Durch seinen integrierten ‚Fallschutz‘ versetzt er sich während eines Sturzes in eine Sicherheitspose und ‚verletzt‘ sich so meistens nicht. Dass NAO-Roboter ziemlich beweglich sind, kann man auch daran sehen, dass seit dem Jahr 2008 der RoboCup, also die Roboter Fußballweltmeisterschaften, mit diesem Modell ausgetragen werden.

I.2.2.7 Sensorik/Wahrnehmung


[V.I.9]

Roboter können ihre Umgebung über Sensoren mit unterschiedlichen Funktionen wahrnehmen. Während Kameras als ‚Augen‘ dienen und visuelle Signale einfangen, übernehmen Mikrofone die Wahrnehmung von Geräuschen und Klängen und fungieren somit als ‚Ohren‘ eines Roboters. Wie viele Augen und Ohren ein Roboter hat, kann stark variieren und hängt von seinem vorgesehenen Einsatzgebiet ab. In beiden Schnittstellen zur Umgebung („Eingabe“ und „Ausgabe“) treten fast zwangsläufig Mehrdeutigkeiten, Ungenauigkeiten und Verluste auf, die kompensiert werden müssen. In beiden Fällen besteht eine bewährte Vorgehensweise darin, mehrere Ein- bzw. Ausgabekanäle miteinander zu kombinieren. Auch aus diesem Grund sind gerade humanoide Roboter mit Sensoren und Aktuatoren ausgestattet, die mehrere Kanäle oder menschliche Sinne abdecken, wie z.B. Sehen, Hören und Tasten. Daneben stehen Robotern noch weitere nicht-menschliche Sinne zur Verfügung, darunter Sonar oder Laserabtastung.

I.2.2.8 Gefühle (Haptik)

Roboter können wie wir Menschen auch fühlen, d.h. sie merken wenn sie angefasst werden. In vielen Fällen werden hier einfache Drucksensoren benutzt. Diese registrieren Berührungen und lassen den Roboter in gewisser Weise seine Umgebung ‚spüren‘. Wie viele dieser Sensoren ein Roboter besitzt, oder ob der gesamte Körper damit überzogen ist, variiert zwischen Robotermodellen sowie deren Einsatzszenarien.


[V.I.11]

NAO „fühlt“

NAOs Kopf und Hände (bzw. Handrücken) sind mit jeweils drei taktilen Sensoren ausgestattet, die Berührungen registrieren. Auch seine Füße sind mit taktilen Sensoren (engl. Bumpers) ausgestattet. Darüber hinaus verfügt NAO in seiner Brust über jeweils zwei Ultraschallsender und -empfänger (= Sonar), mit denen er Entfernungen zu Objekten und Hindernissen erkennt. Damit kann er die Distanz zu Objekten in seiner Nähe bestimmen (Reichweite: 80 cm). Weitere Sensoren messen innere Zustände des Roboters, wie z.B. die Temperatur seiner Komponenten oder den Batteriestand.


[V.I.10]

Eine ganz besondere Art solcher taktiler Sensoren kommt von der österreichischen Firma Blue Danube Robotics, welche die sogenannte „Airskin“ erfunden hat. Dabei handelt es sich um taktile Sensoren, die auf verschiedenen Robotertypen, z.B. auf die EOAT (End of Arm Tooling) industrieller Robotern installiert werden können. AIRSKIN hat druckempfindliche und robuste Sensoren und durch diese Sensoren wird die Interaktion von Menschen und Roboter sicherer. So reagiert der Kollisionssensor z.B. bei einer Kollision zwischen Roboter und Mitarbeiter oder einem Objekt innerhalb von wenigen Millisekunden und veranlasst einen Not-Stopp. Außerdem dämpfen die weichen Pads die Kraftwirkungen, die bis zum völligen Stillstand der Maschine auftreten können. Die Installation der Sensoren ist nicht zuletzt auf Grund ihrer Flexibilität relativ unproblematisch.


Abb. I.13: Airskin im Einsatz

I.3 Einfache Humanoide Roboter

In den folgenden Abschnitten sollen einige ausgewählte, marktfertige und im Handel verfügbare humanoide Roboter im Detail vorgestellt werden. Bei diesen Robotern handelt es sich um kleine, extrem handliche Roboter, die z.T. sogar weniger als 40 cm groß sind, aber auch um größere Modelle, die mit 1,20 m Körpergröße dem Menschen in Punkto Körpergröße und Gewicht fast ebenbürtig sind.


[V.I.11]

Während die kleineren Modelle durch ihre Handlichkeit bestechen und nahezu keinerlei logistischen Aufwand benötigen, sind größere Modelle, allein schon aus Gründen der Transportproblematik, weniger flexibel einsetzbar. Wie sich Größe, Logistik und weitere Aspekte auf die Einsatzfähigkeit von humanoiden Robotern auswirken, ist Gegenstand der folgenden Kapitel.

Ein Tipp zur Namensgebung von Robotern

Einfache humanoide Roboter sind, was ihre körperlichen Merkmale angeht, in der Regel geschlechtsneutral. Das sollte sich auch in ihrer Namensgebung widerspiegeln, und es sollten geschlechtsspezifische Namen wie Max oder Emma vermieden werden. Darüber hinaus sollten Roboternamen so gewählt werden, dass sie sprachübergreifend ausgehend vom Schriftbild gleichermaßen ausgesprochen werden können und zudem aus einfachen offenen Silben bestehen. Namen wie YUKI oder CODY für die Roboter des Projekts H.E.A.R.T. erfüllen diese Kriterien par Excellence.

Poppy ist ein bi-pedaler, d.h. sich auf zwei Beinen bewegender, humanoider Roboter als Bausatz mit einem breiten Anwendungsspektrum. Primär wird Poppy für Testanwendungen in Bereichen der Mathematik, Robotik und Mechanik genutzt. Im Gegensatz zu anderen humanoiden Robotern besitzt Poppy anstelle von Gesichtsstrukturen einen LCD-Screen, über den er Ausdrücke seiner Emotionen anzeigen kann.


[V.I.12]


Abb. I.14: Poppy mit technischen Daten

Um mit Poppy zu kommunizieren ist die Nutzung der visuellen Programmierumgebung „Scratch“ oder die direkte Programmierung mit Python notwendig.9 Für den Austausch unter Programmierern gibt es mehrere Plattformen, u.a. eine Open-Source Python Bibliothek für vorgefertigte Anwendungen.


[V.I.13]


Abb. I.15: DARwIn-OP mit technischen Daten


[V.I.14]

DARwIn-OP ist ein humanoider Roboter mit Fokus auf angewandter Forschung und Lehre. Alle eingebauten Soft- und Hardwarekomponenten stehen unter einer Open-Source Lizenz. Programmiersprachen sind C++, Python, LabView, matlab oder Roboplus, die in-house Software von Robotis. Auch hier gibt es eine Entwickler-Plattform namens „robotsource“.


Abb. I.16: Darwin Mini mit technischen Daten

Darwin Mini ist ein über eine Android-App mittels Bluetooth steuerbarer Mini-Roboter. Er ist als Bausatz erhältlich, frei programmierbar und lässt sich ganz nach den Benutzerwünschen aufbauen.


[V.I.15]


Abb. I.17: Professor Einstein mit technischen Daten

Professor Einstein ist ein humanoider Unterhaltungsroboter, der auf individuelle Konversationen spezialisiert ist. Der Roboter ist in der Lage zu laufen, zu gestikulieren und vorhandene Gesichtsstrukturen für den Ausdruck von Emotionen zu nutzen. Die Roboter-Mensch Interaktion kann ebenso über Smart-Devices erfolgen, Voraussetzung dafür ist die Nutzung der „Stein-O-Matic App“.

I.3.1 SoftBank Robotics

Zwei humanoide Roboter haben mittlerweile anwendungsübergreifend eine große globale Verbreitung erreicht. Beide werden von der Firma SoftBank Robotics hergestellt und sind sowohl in der Forschung als auch im täglichen Einsatz sichtbar. Diese beiden Roboter, NAO und Pepper, werden in den folgenden Abschnitten detailliert vorgestellt.

I.3.1.1 NAO

NAO ist bereits seit 2006 als der erste humanoide Roboter aus dem Haus SoftBank Robotics verfügbar. Er ist 58 cm groß und verfügt über einen beweglichen Körper, der ihm eine relativ große Beweglichkeit ermöglicht. Sollte NAO einmal hinfallen, kann er problemlos wieder aufstehen. Das ermöglichen ihm viele einzelne Motoren in seinen Gelenken. Abb. I.18 zeigt NAO mit seinen Bestandteilen.


Abb. I.18: NAO und seine technischen Daten

Herzstück für die Kommunikation mit Menschen sind NAOs vier Mikrofone und seine zwei Lautsprecher. Die Kommunikation kann jedoch auch über haptische Eindrücke eingeleitet werden, welche NAO über insgesamt 11 Tastsensoren, wahrnimmt. Diese befinden sich am Kopf, an den Händen und den Füßen. Zwei Ultraschallsensoren helfen NAO außerdem, seine Umgebung abzusuchen und mögliche Hindernisse zu erkennen. Visuelle Eindrücke nimmt NAO über zwei Kameras wahr, die sich nicht in seinen Augen, sondern auf Mund- und Stirnhöhe befinden. An der Stelle seiner Augen befinden sich dafür mehrere LEDs,10 die durch ihre Farbgebung dem menschlichen Gegenüber signalisieren, ob NAO aufnahmefähig ist, etwas verstanden hat, oder ob etwa eine Fehlermeldung aufgetreten ist. Abb. I.19 stellt die für NAO.V6 Roboter werkseitig eingestellten ‚Kommunikationsfarben‘ dar.11


Abb. I.19: Die Kommunikationsfarben von NAO.V6

Von NAO wurden seit seiner Markteinführung immer wieder überarbeitete Versionen mit verschiedenen Prozessoren, Kameras sowie Freiheitsgeraden entwickelt. Die neueste Version ist NAO.V6. Sie erschien 2018 auf dem Markt und unterscheidet sich von den Vorgängermodellen durch einen stärkeren Akku, eine bessere Rechenleistung und hochwertigere Kameras. Außerdem arbeitet NAO.V6, genau wie sein großer Bruder Pepper, mit einer höheren Version des Betriebssystems NAOqi 2.8 (NAO.V6) bzw. NAOqi 2.9 (Pepper).

Frühere NAO-Versionen, z.B. NAO.V3, unterscheiden sich abgesehen von der äußeren Körperfarbe kaum von den neuen Modellen. Lediglich die zu Grunde liegenden NAOqi-Versionen haben sich verändert.

NAOs große Popularität ist zu einem großen Teil der Tatsache geschuldet, dass er sowohl leicht mit einer visuellen Programmierumgebung entwickelt, zugleich aber auch uneingeschränkt durch verschiedene Programmiersprachen programmiert werden kann. Die visuelle Programmierung Choregraphe, die nach einem Baukastensystem aufgebaut ist, hat sich auch für Neulinge der Robotik und des Programmierens als guter Einstieg bewiesen und bietet gleichzeitig für Fortgeschrittene die Möglichkeit, erste Schritte in der Programmierung des Roboters mit Python zu gehen (siehe Abschnitt V.4.1).


Abb. I.20: Schnappschuss vom RoboCup 2016

Neben der visuellen Programmierung über Choregraphe lässt sich NAO auch frei über die Programmiersprachen C++, Python und Java programmieren. Die Teilnehmer des RoboCups arbeiten beispielsweise mit C++, was die Möglichkeiten des Roboters allumfänglich ausschöpft, dem Programm jedoch auch eine enorme Komplexität verschafft.

Neben zahlreichen Forschungsprojekten und dem Einsatz in speziellen Labor-Settings an Universitäten wird NAO auch in den Bereichen Gesundheit und sogar im Kundenservice eingesetzt. In der Bildung allerdings beziehen sich die meisten Einsatzmöglichkeiten auf die Verwendung von NAO-Robotern als Werkzeug zur Erlangung bzw. Verbesserung des algorithmischen Denkens von Schülern und Studenten.

Eine besondere Form dieser Werkzeugnutzung ist der RoboCup. Seit 2007 nehmen zahlreiche, vorwiegend universitäre, Teams an dieser ‚Roboter-Fußballweltmeisterschaft‘ teil, nicht etwa um zu zeigen, wie gut Roboter Fußball spielen können, sondern um ihre höchst anspruchsvollen Programme auf den Prüfstand zu stellen.

I.3.1.2 Pepper

Pepper kann mit seinen 1,20 m Körpergröße als ‚großer Bruder‘ von NAO betrachtet werden. Er wurde ebenfalls von der Firma SoftBank Robotics entwickelt und nutzt, zumindest für alle Modelle, die vor 2019 hergestellt wurden, die von NAO bekannte Entwicklungsumgebung Choregraphe. Seit 2019 werden zusätzlich Pepper-Modelle ausgeliefert, die per Android/Java programmiert werden. Abb. I.21 stellt Pepper mit seinen wesentlichen Komponenten dar.

Rein äußerlich sieht man, abgesehen von einer permanent sichtbaren Anzeige der identifizierten Benutzer-Spracheingabe über eine „Speech Bar“ auf dem Tablet und der Nutzung der Schulter-LEDs anstelle der Augen-LEDs bei Pepper-Modellen unter Android keine gravierenden Unterschiede zwischen diesem und früheren Pepper-Modellen.


Abb. I.21: Pepper und seine Komponenten

Pepper ist räumlich ziemlich flexibel einsetzbar. Dies gilt jedoch primär für das Innere von Gebäuden. Außeneinsätze sind dagegen problematisch wegen Peppers Empfindlichkeit gegenüber Umwelteinflüssen (z.B. Feuchtigkeit, Temperaturschwankungen, Untergrundbeschaffenheit). Außerdem kann die sensorische Wahrnehmung des Roboters durch Umgebungsfaktoren, wie z.B. Gegenlicht oder irritierende Objekte, stark beeinträchtigt werden. (Die letztgenannte Einschränkung gilt übrigens auch für den Einsatz im Inneren von Gebäuden.)

Pepper im HR-Fernsehen

In seiner ersten Live-Sendung „Hallo Hessen“ im Januar 2017 war Pepper bis wenige Minuten vor Sendungsbeginn extrem abgelenkt, schaute nur in Richtung Studiodecke und wollte partout, auch nach An- und Abschalten von ausgewählten Studiolampen, keinen Kontakt mit seinen Gesprächspartnern herstellen.

Kurz vor Beginn der Sendung konnte das Problem gelöst werden: Eine ballförmige weiße Schlafzimmerlampe hatte Pepper mit einem menschlichen Gesicht verwechselt. Nach Demontage der Lampe wandte sich der Roboter doch noch rechtzeitig seinen menschlichen Gesprächspartnern zu.

Pepper kann durch eigenständige Erkundung und Kartierung seine Umgebung kennenlernen und die resultierende Karte für die Navigation durch diese Umgebung nutzen.

Er ist mit zwei Armen und Händen mit jeweils fünf Fingern ausgestattet. Damit kann er kleine Objekte greifen, anheben, mit seiner Hand drehen und an einem anderen Ort ablegen. Allerdings sollten diese Objekte nicht schwerer als 500 Gramm sein, und die Manipulation von Objekten ist auch nicht sonderlich präzise. Das Schleppen von Lasten ist Pepper definitiv nicht möglich. In erster Linie haben Peppers Arme und Hände Kommunikationsfunktion, sie sind keine Werkzeuge für die Verrichtung manueller Arbeiten, sondern sie dienen primär der Unterstützung von Sprache durch Gesten.

Der Hauptzweck von Pepper und somit seine primäre Kompetenz ist die Interaktion mit Menschen. Neben der natürlichsprachlichen Dialogfähigkeit in mehreren Sprachen ist die Fähigkeit, Emotionen von Menschen zu erkennen und eigene Emotionen auszudrücken, ein weiteres herausragendes Merkmal von Pepper.

Seine sprachlichen Darbietungen können, abhängig von der Programmierung der Applikation, bimodal sein, indem Pepper seine gesprochenen Beiträge durch non-verbales Kommunikationsverhalten, insbesondere Gesten, komplementiert. Ein menschliches Niveau der verbalen und non-verbalen Kommunikationskompetenz sollte jedoch nicht erwartet werden, insbesondere nicht hinsichtlich Flexibilität und Robustheit.

Gesprochene Spracheingaben und -ausgaben lassen sich in Dialogen zwischen Mensch und Roboter einsetzen. In diesen Dialogen reagiert Pepper auf erkannte gesprochene Stimuli mit entsprechenden vordefinierten Antworten, die zufällig variiert werden können. Struktur und Thema des Dialogs, die möglichen Benutzereingaben und die möglichen Antworten des Roboters werden vom Entwickler vorgegeben.

Vorgefertigte Dialoge mit Pepper und NAO

Mensch: „Wie geht es Dir?“

Pepper: ^rand[gut super „sehr gut“ Klasse] und Dir?

(per Zufall wird ein Element ausgewählt, z.B. „super“)

Mensch: [„auch gut“ bestens]

(Mensch kann „auch gut“ oder „bestens“ sagen)

Pepper: ^rand[„das freut mich“ „alles klar“]

(per Zufall wird ein Element ausgewählt, z.B. „alles klar“)

usw.

Standardmäßig merkt sich Pepper nicht, worüber gesprochen wurde, d.h. er führt keine Dialogmodellierung durch. Diese sollte jedoch programmierbar sein, z.B. durch Verbindung mit zusätzlichen Chatbots, wie z.B. IBM Watson oder Microsoft Azure. Aufgrund der Erfordernis, alle Dialogoptionen vorzudefinieren, sind Gespräche mit Pepper zum aktuellen Zeitpunkt nicht sonderlich flexibel. Der menschliche Schreiber des Dialogs muss möglichst alle Benutzereingaben und sinnvolle Reaktionen bereits während des Entwicklungsprozesses vorhersehen und implementieren. Fehler im laufenden Dialog müssen durch selbstgeschriebene Mechanismen im Dialog behandelt werden.

Pepper besitzt die Fähigkeit, durch Interaktionen mit Menschen vier Basisemotionen in deren Gesichtern zu erkennen: Freude, Trauer, Ärger und Überraschung. Hierzu erkennt und integriert er visuelle, akustische und linguistische Merkmale, die er über seine eingebauten Kameras und Richtmikrofone von seinem menschlichen Gesprächspartner wahrnimmt. Dazu gehören unter anderem Mimik, Tonfall, verwendete Schlüsselwörter und die Haltung des Kopfes seines Interaktionspartners.

Pepper kann durch Kombination von verbalem und non-verbalem Verhalten positive und negative Emotionen wie Freude oder Langeweile darstellen. Als Mittel stehen ihm dafür die Anpassung verschiedener sprachlicher Parameter (Sprechgeschwindigkeit, Tonhöhe, Lautstärke, Pausen); paralinguistische Lautäußerungen; Gesten; Körperhaltung; Blickkontakt; sowie Variationen von Farbe und Leuchten („Blinken“ und „Rollen“) der LEDs seiner ‚Augen‘ zur Verfügung.12 Da Peppers Gesichtszüge starr sind, wie die einer Porzellanpuppe, spielt Mimik bei der Emotionsdarstellung keine Rolle.

Menschliche Gesichtszüge

In einigen Robotermodellen wird bereits mit beweglichen Gesichtszügen experimentiert. So hat sich die Firma Hanson Robotics auf humanoide Roboter mit menschenähnlichen Gesichtern und menschenähnlicher Mimik spezialisiert (siehe Sophia, Abb. I.11).

Auch Roboter wie Philip K. Dick (Hanson Robotics) oder die Geminoiden von Hiroshi Ishiguro haben menschenähnliche Gesichtszüge und Funktionen.

Zur Wahrnehmung seiner Umgebung ist Pepper mit einer Vielzahl von Sensoren ausgestattet. Dazu gehören zwei HD-Kameras (eine zwischen seinen ‚Augen‘ , eine in seinem ‚Mund‘ ), eine 3D-Kamera hinter den ‚Augen‘ und vier Richtmikrofone in seinem Kopf, mit denen er visuelle und akustische Informationen erfassen kann, unter anderem Sprache, menschliche Emotionsdarstellungen und Objekte in seiner Umgebung. Peppers Kopf und Hände sind mit taktilen Sensoren ausgestattet, die Berührung registrieren. Darüber hinaus verfügt Pepper in seinem Fuß über zwei Ultraschallsender und -empfänger (= Sonar), sechs Laser-Sensoren und drei Hindernisdetektoren. Damit kann er die Distanz zu Objekten in seiner Nähe bestimmen (Reichweite: 3 Meter). Weitere Sensoren messen innere Zustände des Roboters, wie z.B. die Temperatur seiner Komponenten oder den Batteriestand. Pepper ist bereits darauf programmiert, Sensordaten auf komplexe Art und Weise zu verarbeiten.

Wenn Pepper gerade mit nichts anderem beschäftigt ist, dann führt er autonom und zufallsgesteuert verschiedene körperliche Aktionen aus. Zum Beispiel öffnen und schließen sich dann seine Hände, er bewegt leicht die Arme, er imitiert durch leichte Oberkörperbewegungen eine Art Atmung, und er dreht den Kopf in verschiedene Richtungen. Diese Aktionen dienen vornehmlich einem Zweck, nämlich, dem Benutzer deutlich zu machen: „Ich lebe. Wäre ich eine Maschine, dann würde ich leblos auf meinem Platz warten, bis mich wieder jemand benutzt.“ Eine weitere Funktion ist vermutlich, Pepper beweglich zu halten.13

Peppers gesamtes Wesen und Verhalten sind darauf ausgelegt und ausgerichtet, dass er von Menschen ‚gemocht‘ wird. So beschreibt ihn der Hersteller als „freundlich, liebenswert und überraschend“. Seine Architektur ist für die Verrichtung körperlicher Arbeiten, insbesondere schwerer Arbeiten mit Lasten, ungeeignet. Sie ist dagegen prädestiniert für die Mensch-Maschine-Kommunikation und den Aufbau von Mensch-Maschine-Beziehungen. In den Bereichen Kommunikation und Beziehungsaufbau kann Pepper punkten mit natürlichsprachlicher Dialogfähigkeit, der Fähigkeit zur Erkennung und Darstellung von Emotionen sowie non-verbaler Kommunikation über Gestik, Blickkontakt und Körperhaltung. Außerdem ist er in der Lage, Menschen zu erkennen und wiederzuerkennen. Mit Hilfe des eingebauten Tablets lässt sich Pepper auch für Lehr- und Präsentationsaufgaben einsetzen.


Abb. I.22: Der H.E.A.R.T. App-Launcher

Pepper eignet sich also besonders gut für Rollen, in denen körperliche Aktionen (ausgenommen die non-verbale Kommunikation) die Ausnahme und Kommunikation und Beziehungsaufbau die Regel sind. Abb. I.22 zeigt Pepper mit dem H.E.A.R.T. App-Launcher als Interface für den Start von Anwendungen in der digitalen Hochschullehre.

I.4 Ausblick und Lektüreempfehlungen

Die vorangegangenen Abschnitte haben das Thema humanoide Roboter von verschiedenen Perspektiven beleuchtet. Dabei wurde klar, dass die gegenwärtigen Fähigkeiten humanoider Roboter noch sehr überschaubar sind. Zwar gibt es bereits humanoide Roboter, die komplexe Interaktionen und Kommunikationsformen beherrschen, und sich damit als „soziale Roboter“ qualifizieren. Von den menschlichen Möglichkeiten des Informationsaustausches sind sie allerdings noch weit entfernt. Der niederländische Experte, Koen Hindriks, bringt es auf den Punkt:

Ein Roboter kann beobachten, Daten abrufen und etwas damit machen. Wenn ein Mensch etwas zu einer solchen Maschine sagt, passiert etwas. Aber die menschliche Kommunikation ist viel komplexer. So ist es noch sehr schwierig für einen Roboter, mit Gesten, Emotionen und anderen non-verbalen Kommunikationsformen umzugehen. Ein Roboter versteht beileibe nicht alles. Auch kann er im Unterschied zu uns Menschen nicht gleichzeitig sehen und hören. Und wenn sich Menschen aus seinem Blickfeld entfernen, spricht der Roboter einfach weiter. Also müssen wir den Robotern beibringen, sich an menschliches Verhalten anzupassen. Das alles steckt noch in den Kinderschuhen. (übertragen aus dem Niederländischen, INT10)

Auch der Robotiker Hendrik Schärfe aus Dänemark verschweigt keineswegs, dass sein Geminoid (siehe Abb. I.7) weit von tatsächlichen, fortgeschrittenen Fähigkeiten und Meilensteinen in der nützlichen Robotik entfernt ist. Die Fähigkeiten, die er mit seinem Geminoid-DK zur Schau stellt, kann genausogut jeder NAO-Roboter ausführen, da der Roboter ausschließlich das ausführt, was ihm vorher per Hand eingespeichert wurde. Vermutlich ist es aber auch gar nicht das Ziel des Projektes, Roboter an die menschliche Urteils- und Lernfähigkeit anzunähern. Geminoid-DK scheint eher ein Test zu sein, mit dem überprüft werden soll, wie täuschend ähnlich Roboter äußerlich und in gesteuerter Konversation ihrem menschlichen Pendant derzeit sein können.

Trotz ihrer derzeitigen Unzulänglichkeiten beginnen humanoide Roboter die Bereiche der menschlichen Gesellschaft, in die sie eingeführt werden, zu verändern. In dem Maße, wie ihre Zahl und die Vielfalt der Szenarien, in denen sie eingesetzt werden, zunehmen, werden die durch Roboter entstehenden Veränderungen von Menschen immer stärker wahrgenommen. Die Wertigkeit und Intensität dieser Wahrnehmung wird die Haltung von Menschen gegenüber humanoiden Robotern maßgeblich beeinflussen.

Schon heute sind humanoide Roboter in verschiedenen Bereichen des alltäglichen Lebens zu sehen. In vielen Fällen sind dies allerdings noch Testphasen bzw. Pilotstudien zu Forschungsprojekten, und es gibt nur wenige echte ‚Use Cases‘.14 Doch bereits jetzt lässt sich erkennen, welch großes Potenzial humanoide Roboter mit immer größer werdenden Fähigkeiten entfalten können. Dabei lassen sich folgende zentrale Einsatzarten unterscheiden:

• Der Showcase (die Zurschaustellung)

• Die Partnerfunktion

• Die Werkzeugfunktion

Diese sich z.T. überlappenden Einsatzszenarien werden in den folgenden Kapiteln anhand der am weitesten verbreiten humanoiden Roboter, NAO und Pepper, aber, wenn nötig auch über andere humanoide Roboter-Modelle vorgestellt und anhand verschiedener Beispiele illustriert.

Lektüreempfehlungen

Ben-Ari, M., & Mondada, F. 2018. Robots and Their Applications. In Elements of Robotics (pp. 1–20). https://doi.org/10.1007/978-3-319-62533-1_1.

Craig, John J. 2014. Introduction to Robotics: Mechanics and Control. (3. Auflage). Essex: Prentice Hall International.

Kajita, Shuuji/Hirukawa, Hirohisa/Harada, Kensuke/Yokoi, Kazuhito. 2016. Introduction to Humanoid Robotics. Berlin: Springer Verlag.

Korn, Oliver. 2019. Soziale Roboter – Einführung und Potenziale für Pflege und Gesundheit. Wirtschaftsinformatik & Management, Vol. 11. Berlin: Springer Verlag: 126–135.

Korn, O., Bieber, G., & Fron, C. 2018. Perspectives on social robots. From the historic background to an experts’ view on future developments. ACM International Conference Proceeding Series, (June), 186–193.

Fragen zur Vertiefung

Welche Unterschiede bestehen zwischen der aktuellen NAO-Version 6 und seiner Vorgängerversion 5?

Was ist der Mehrwert bei der Nutzung eines ferngesteuerten Geminoiden?

Was fehlt humanoiden Robotern im Vergleich zu Menschen?

3 Das Adjektiv „humanoid“ setzt sich aus dem lateinischen Adjektiv humānus (dt. menschlich) und dem Suffix -oid zusammen. Letzteres wurde aus dem Altgriechischen Suffix εἶδος/eidos (dt. Gestalt) abgeleitet. Somit ergibt sich die ursprüngliche Bedeutung „menschliche Gestalt“, die heute als „menschenähnlich“ interpretiert wird.

4 Mit dem Job-Futuromat https://job-futuromat.iab.de/ lässt sich ein grober Überblick über Automatisierbarkeit von Berufsbildern (durch zukünftige Technologien wie Roboter) erstellen.

5 Das Adjektiv „android“ setzt sich aus der griechischen Form ἀνήρ/aner (dt. Mensch, Mann) und dem Suffix -oid zusammen. Letzteres wurde aus dem altgriechischen Suffix εἶδος/eidos (dt. Gestalt) abgeleitet. Es ergibt sich so die ursprüngliche Bedeutung „Menschengestalt“.

Humanoide Roboter

Подняться наверх