Читать книгу Deep Learning illustriert - Jon Krohn - Страница 53
4.1.7Natural Language Processing
ОглавлениеIn Kapitel 2 behandelten wir Sprache und die Verarbeitung natürlicher Sprache (Natural Language Processing oder NLP). Bei diesen Anwendungen ist Deep Learning nicht ganz so dominant wie beim maschinellen Sehen, weshalb unser Venn-Diagramm (Abbildung 4–1) das NLP sowohl im Bereich des Deep Learning als auch auf dem allgemeineren Gebiet des Machine Learning zeigt. Wie jedoch der Zeitstrahl in Abbildung 2–3 demonstriert, beginnen Deep-Learning-Ansätze für das NLP, die traditionellen Machine-Learning-Ansätze in Bezug auf Effizienz und Genauigkeit zu überflügeln. In bestimmten NLP-Bereichen ist das Deep Learning bereits vorherrschend. Beispiele hierfür sind Stimmerkennung (z.B. Amazons Alexa oder Googles Assistant), maschinelles Übersetzen (einschließlich Echtzeitübersetzungen über das Telefon) und Aspekte von Internet-Suchmaschinen (wie das automatische Ergänzen von Suchbegriffen, die die Benutzer eintippen). Ganz allgemein ausgedrückt, ist das Deep Learning für NLP für jede KI relevant, die über die natürliche Sprache – egal ob gesprochen oder geschrieben – interagiert. Dies schließt auch das automatische Beantworten einer komplexen Serie von Fragen ein.
Ein Typ von verborgener Schicht, der in vielen Deep-Learning-Architekturen aus dem Bereich des NLP zu finden ist, ist die Long Short-Term Memory-(LSTM-) Zelle, ein Mitglied aus der Familie der Recurrent Neural Networks (RNN). RNNs sind für alle Daten geeignet, die in einer Sequenz oder Abfolge auftreten, wie etwa Zeitreihendaten aus dem Finanzwesen, Lagerbestände, Verkehr und Wetter. Wir gehen in Kapitel 11 genauer auf RNNs und LSTMs ein, wenn wir sie in Vorhersagemodelle mit natürlichsprachigen Daten integrieren. Diese Sprachbeispiele bieten eine solide Grundlage, selbst wenn Sie Deep-Learning-Techniken eigentlich auf andere Klassen sequenzieller Daten anwenden wollen.