Читать книгу Deep Learning illustriert - Jon Krohn - Страница 25
2.1.1Deep-Learning-Netze lernen Repräsentationen automatisch
ОглавлениеWie wir bereits zu Beginn des Buches festgestellt haben, kann man Deep Learning definieren als das Aufeinanderschichten einfacher Algorithmen, der sogenannten künstlichen Neuronen, zu Netzwerken, die mehrere Schichten tief sind. Anhand des Venn-Diagramms in Abbildung 2–1 erkennen wir, wo sich das Deep Learning innerhalb der Machine-Learning-Familie befindet. Es zählt zu den Representation-Learning-Ansätzen. Die Familie des Representation Learning (Lernen durch Repräsentation), die das heutige Deep Learning dominiert, schließt alle Techniken ein, die Features automatisch aus Daten lernen. Es ist daher möglich, die Begriffe »Feature« und »Repräsentation« synonym zu verwenden.
Abbildung 1–12 legte den Grundstein für das Verständnis der Vorteile des Representation Learning gegenüber den herkömmlichen Machine-Learning-Methoden. Traditionelles Machine Learning funktioniert normalerweise ganz gut aufgrund seines raffinierten, von Menschen entworfenen Codes, der Rohdaten – Bilder, Sprachaufnahmen, Text aus Dokumenten usw. – in Eingabemerkmale (Input Features) für Machine-Learning-Algorithmen (z.B. Regression, Random Forest oder Support Vector Machines) umwandelt. Diese Algorithmen sind ganz gut darin, Features zu gewichten, können allerdings nicht besonders gut Features direkt aus Rohdaten ableiten oder lernen. Diese manuelle Herstellung der Features ist oft eine hochspezialisierte Aufgabe. Um z.B. mit Sprachdaten zu arbeiten, ist in der Regel ein Abschluss in Linguistik erforderlich.
Abb. 2–1Dieses Venn-Diagramm unterscheidet die traditionelle Machine-Learning-Familie von der Representation-Learning-Familie der Machine-Learning-Techniken.
Ein entscheidender Vorteil des Deep Learning besteht darin, dass damit die Erfordernis nach Expertenwissen sinkt. Statt manuell Rohdaten zu Eingabemerkmalen zu kuratieren, kann man die Daten direkt in das Deep-Learning-Modell eingeben. Im Laufe vieler Beispiele, die man dem Deep-Learning-Modell anbietet, lernen die künstlichen Neuronen der ersten Schicht des Netzes, wie sie einfache Abstraktionen dieser Daten repräsentieren können, während jede nachfolgende Schicht lernt, immer komplexere, nichtlineare Abstraktionen der vorhergehenden Schicht darzustellen. Wie Sie in diesem Kapitel erfahren werden, ist dies nicht nur eine Frage der Bequemlichkeit, sondern das automatische Lernen von Features bringt noch weitere Vorteile mit sich. Features, die von Menschen entwickelt werden, sind oft nicht umfassend genug. Häufig sind sie übermäßig speziell und erfordern langwierige Zyklen aus Feature-Findung, -Entwurf und -Validierung, die sich über Jahre hinziehen können. Representation-Learning-Modelle hingegen generieren die Features sehr schnell (üblicherweise in Stunden oder Tagen des Modelltrainings), passen sich einfach an Änderungen in den Daten an (wie z.B. an neue Wörter, Bedeutungen oder Arten der Anwendung von Sprache) und stellen sich automatisch auf Verschiebungen in dem zu lösenden Problem ein.