Читать книгу Deep Learning illustriert - Jon Krohn - Страница 17

1.2.3Der traditionelle Machine-Learning-Ansatz

Оглавление

Im Anschluss an LeNet-5 kam die Forschung zu künstlichen neuronalen Netzen sowie zu Deep Learning gewissermaßen aus der Mode. Der Konsens lautete, dass die automatisierte Feature-Generierung dieser Methode nicht pragmatisch war – dass das featurefreie Vorgehen zwar ganz gut bei der Handschriftenerkennung funktionierte, aber ansonsten nur eingeschränkt einsetzbar sei.15 Das traditionelle Machine Learning inklusive seines Feature Engineering schien vielversprechender zu sein und die Deep-Learning-Forschung verlor eine Menge Fördergelder.16

Um zu verdeutlichen, was Feature Engineering ist, sehen Sie in Abbildung 1–13 ein berühmtes Beispiel von Paul Viola und Michael Jones aus den frühen 2000er-Jahren.17 Viola und Jones verwendeten rechteckige Filter, wie die senkrechten oder waagerechten schwarzweißen Balken, die in der Abbildung gezeigt werden. Features, die generiert werden, wenn man diese Filter über ein Bild führt, können in Machine-Learning-Algorithmen eingegeben werden, um zuverlässig zu erkennen, ob ein Gesicht vorhanden ist. Diese Arbeit ist deshalb so bemerkenswert, weil der Algorithmus effizient genug war, um die erste Echtzeit-Gesichtserkennung zu liefern, die nicht auf dem Gebiet der Biologie basierte.18

Abb. 1–13Beispiele für Feature Engineering durch Viola und Jones (2001) zum zuverlässigen Erkennen von Gesichtern. Ihr effizienter Algorithmus fand seinen Weg in Fujifilm-Kameras, die dann zum ersten Mal Echtzeit-Autofokus boten.

Das Konstruieren der cleveren Gesichtserkennungsfilter zum Verarbeiten der Rohpixel zu Features, die als Input für das Machine-Learning-Modell dienen konnten, war das Ergebnis jahrelanger Forschung und Zusammenarbeit zum Thema »Eigenschaften von Gesichtern« Und natürlich beschränkt sich das Ganze auf das Erkennen von Gesichtern im Allgemeinen – es werden also keine speziellen Gesichter erkannt, wie zum Beispiel das von Angela Merkel oder Oprah Winfrey. Um Features zu entwickeln, die etwa Oprahs Gesicht oder andere Klassen von Objekten, die keine Gesichter sind, erkennen könnten (zum Beispiel Häuser, Autos oder Yorkshire-Terrier), müsste Kompetenz in diesen Kategorien aufgebaut werden, was wieder eine jahrelange Zusammenarbeit der wissenschaftlichen Gemeinschaft erfordern würde, um es effizient und akkurat zu schaffen. Hm, wenn es doch nur möglich wäre, sich die nötige Zeit und Mühe einfach irgendwie zu sparen!

Deep Learning illustriert

Подняться наверх