Читать книгу Deep Learning illustriert - Jon Krohn - Страница 10
Inhaltsverzeichnis
ОглавлениеTeil IDeep Learning vorgestellt
1Biologisches und maschinelles Sehen
1.2.3Der traditionelle Machine-Learning-Ansatz
2Menschen- und Maschinensprache
2.1Deep Learning für Natural Language Processing
2.1.1Deep-Learning-Netze lernen Repräsentationen automatisch
2.1.2Natural Language Processing
2.1.3Eine kurze Geschichte des Deep Learning für NLP
2.2Repräsentationen von Sprache im Computer
2.2.11-aus-n-Repräsentationen von Wörtern
2.2.5Lokalistische versus verteilte Repräsentationen
2.3Elemente der natürlichen menschlichen Sprache
3.2Berechnungen auf nachgemachten menschlichen Gesichtern
3.3Stiltransfer: Fotos in einen Monet verwandeln (und umgekehrt)
3.4Machen Sie Ihre eigenen Skizzen fotorealistisch
3.5Fotorealistische Bilder aus Text erzeugen
3.6Bildverarbeitung mittels Deep Learning
4.1Deep Learning, KI und andere Monster
4.1.4Künstliche neuronale Netze
4.1.7Natural Language Processing
4.2Drei Arten von Machine-Learning-Problemen
4.3Deep Reinforcement Learning
4.7Populäre Umgebungen für das Deep-Reinforcement-Learning
4.8.1Artificial Narrow Intelligence
4.8.2Artificial General Intelligence
4.8.3Artificial Super Intelligence
5Der (Code-)Karren vor dem (Theorie-)Pferd
5.3Ein flaches Netzwerk in Keras
5.3.1Der MNIST-Datensatz handgeschriebener Ziffern
5.3.2Ein schematisches Diagramm des Netzwerks
5.3.5Die Architektur eines neuronalen Netzes entwerfen
5.3.6Trainieren eines Deep-Learning-Modells
6Künstliche Neuronen, die Hotdogs erkennen
6.1Das Einmaleins der biologischen Neuroanatomie
6.2.1Der Hotdog/Nicht-Hotdog-Detektor
6.2.2Die wichtigste Gleichung in diesem Buch
6.3Moderne Neuronen und Aktivierungsfunktionen
6.3.3ReLU: Rectified Linear Units
Schlüsselkonzepte
7.2Vollständig verbundene Schichten
7.3Ein vollständig verbundenes Netzwerk zum Erkennen von Hotdogs
7.3.1Forwardpropagation durch die erste verborgene Schicht
7.3.2Forwardpropagation durch nachfolgende Schichten
7.4Die Softmax-Schicht eines Netzwerks zum Klassifizieren von Fastfood
7.5Zurück zu unserem flachen Netzwerk
Schlüsselkonzepte
8.2Optimierung: Lernen, um die Kosten zu minimieren
8.2.3Batch-Größe und stochastischer Gradientenabstieg
8.2.4Dem lokalen Minimum entkommen
8.4Die Anzahl der verborgenen Schichten und der Neuronen anpassen
8.5Ein mittleres Netz in Keras
Schlüsselkonzepte
9.1Die Initialisierung der Gewichte
9.1.1Xavier-Glorot-Verteilungen
9.2.1Verschwindende Gradienten
9.3Modellgeneralisierung (Überanpassung vermeiden)
9.3.1L1- und L2-Regularisierung
9.5Ein tiefes neuronales Netz in Keras
Schlüsselkonzepte
Teil IIIInteraktive Anwendungen des Deep Learning
10.1Convolutional Neural Networks
10.1.1Die zweidimensionale Struktur der visuellen Bilddarstellung
10.1.5Ein Beispiel für Konvolutionsschichten
10.2Hyperparameter von Konvolutionsfiltern
10.5AlexNet und VGGNet in Keras
10.6.1Schwindende Gradienten: Das Grauen der tiefen CNN
10.7Anwendungen des maschinellen Sehens
Schlüsselkonzepte
11.1Natürliche Sprachdaten vorverarbeiten
11.1.2Alle Zeichen in Kleinbuchstaben umwandeln
11.1.3Stoppwörter und Interpunktionszeichen entfernen
11.1.6Vorverarbeitung des kompletten Textkorpus
11.2Worteinbettungen mit word2vec erzeugen
11.2.1Die prinzipielle Theorie hinter word2vec
11.3Der Bereich unter der ROC-Kurve
11.3.2Die ROC-AUC-Metrik berechnen
11.4Klassifikation natürlicher Sprache mit vertrauten Netzwerken
11.4.1Die IMDb-Filmkritiken laden
11.4.2Die IMDb-Daten untersuchen
11.4.3Die Länge der Filmkritiken standardisieren
11.4.4Vollständig verbundenes Netzwerk
11.5Netzwerke für die Verarbeitung sequenzieller Daten
11.5.1Recurrent Neural Networks
11.5.2Ein RNN in Keras implementieren
11.5.3Long Short-Term Memory Units
11.5.5Gestapelte rekurrente Modelle
11.6Nichtsequenzielle Architekturen: Die funktionale API in Keras
Schlüsselkonzepte
12Generative Adversarial Networks
12.1Die grundlegende GAN-Theorie
12.2Der Quick, Draw!-Datensatz
12.3Das Diskriminator-Netzwerk
Schlüsselkonzepte
13.1Die grundlegende Theorie des Reinforcement Learning
13.1.2Markow-Entscheidungsprozesse
13.2Die grundlegende Theorie von Deep-Q-Learning-Netzwerken
13.2.3Einen optimalen Q-Value schätzen
13.3Einen DQN-Agenten definieren
13.3.1Initialisierungsparameter
13.3.2Das neuronale-Netze-Modell des Agenten bauen
13.3.3Sich an das Spiel erinnern
13.3.4Training über Memory Replay
13.3.6Speichern und Laden der Modellparameter
13.4Mit einer OpenAI-Gym-Umgebung interagieren
13.4.1Hyperparameter-Optimierung mit SLM Lab
13.5.1Policy-Gradienten und der REINFORCE-Algorithmus
13.5.2Der Actor-Critic-Algorithmus
Schlüsselkonzepte
14Mit Ihren eigenen Deep-Learning-Projekten beginnen
14.1Ideen für Deep-Learning-Projekte
14.1.2Natural Language Processing
14.1.3Deep Reinforcement Learning
14.1.4Ein vorhandenes Machine-Learning-Projekt überführen
14.2Ressourcen für weitere Projekte
14.2.1Gesellschaftlich nützliche Projekte
14.3Der Modellierungsprozess einschließlich der Anpassung der Hyperparameter
14.3.1Automatisierung der Hyperparameter-Suche
14.4Deep-Learning-Bibliotheken
14.4.2PyTorch
14.4.3MXNet, CNTK, Caffe und so weiter
14.5Software 2.0
14.6Die kommende Artificial General Intelligence
ADie formale Notation neuronaler Netze
C.1.2Das Define-by-Run-Framework
C.1.3PyTorch im Vergleich mit TensorFlow
C.2.2Die grundlegenden Bausteine in PyTorch