Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow
Автор книги: id книги: 1914444     Оценка: 0.0     Голосов: 0     Отзывы, комментарии: 0 2540,81 руб.     (25,24$) Читать книгу Купить и скачать книгу Купить бумажную книгу Электронная книга Жанр: Математика Правообладатель и/или издательство: Bookwire Дата добавления в каталог КнигаЛит: ISBN: 9783960103400 Скачать фрагмент в формате   fb2   fb2.zip Возрастное ограничение: 0+ Оглавление Отрывок из книги

Реклама. ООО «ЛитРес», ИНН: 7719571260.

Описание книги

Aktualisierte Neuauflage des Bestsellers zu TensorFlow 2 und Deep Learning Eine Reihe technischer Durchbrüche beim Deep Learning haben das gesamte Gebiet des maschinellen Lernens in den letzten Jahren beflügelt. Inzwischen können sogar Programmierer, die kaum etwas über diese Technologie wissen, mit einfachen, effizienten Werkzeugen Machine-Learning-Programme implementieren. Dieses praxisorientierte Buch zeigt Ihnen wie. Mit konkreten Beispielen, einem Minimum an Theorie und zwei unmittelbar anwendbaren Python-Frameworks – Scikit-Learn und TensorFlow 2 – verhilft Ihnen der Autor Aurélien Géron zu einem intuitiven Verständnis der Konzepte und Tools für das Entwickeln intelligenter Systeme. Sie lernen eine Vielzahl von Techniken kennen, beginnend mit einfacher linearer Regression bis hin zu Deep Neural Networks. Die in jedem Kapitel enthaltenen Übungen helfen Ihnen, das Gelernte in die Praxis umzusetzen. Um direkt zu starten, benötigen Sie lediglich etwas Programmiererfahrung.

Оглавление

Aurélien Géron. Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Inhalt

Vorwort. Der Machine-Learning-Tsunami

Machine Learning in Ihren Projekten

Ziel und Ansatz

Voraussetzungen

Wegweiser durch dieses Buch

Änderungen in der zweiten Auflage

Ressourcen im Netz

In diesem Buch verwendete Konventionen

Codebeispiele

Verwenden von Codebeispielen

Danksagungen

KAPITEL 1. Die Machine-Learning-Umgebung

Was ist Machine Learning?

Warum wird Machine Learning verwendet?

Anwendungsbeispiel

Unterschiedliche Machine-Learning-Systeme

Überwachtes/unüberwachtes Lernen

Überwachtes Lernen

Unüberwachtes Lernen

Halbüberwachtes Lernen

Reinforcement Learning

Batch- und Online-Learning

Batch-Learning

Online-Learning

Instanzbasiertes versus modellbasiertes Lernen

Instanzbasiertes Lernen

Modellbasiertes Lernen

Formel 1-1: Ein einfaches lineares Modell

Beispiel 1-1: Trainieren und Ausführen eines linearen Modells mit Scikit-Learn

Die wichtigsten Herausforderungen beim Machine Learning

Unzureichende Menge an Trainingsdaten

Die unverschämte Effektivität von Daten

Nicht repräsentative Trainingsdaten

Beispiele für Stichprobenverzerrungen

Minderwertige Daten

Irrelevante Merkmale

Overfitting der Trainingsdaten

Underfitting der Trainingsdaten

Zusammenfassung

Testen und Validieren

Hyperparameter anpassen und Modellauswahl

Datendiskrepanz

Das No-Free-Lunch-Theorem

Übungen

KAPITEL 2. Ein Machine-Learning-Projekt von A bis Z

Der Umgang mit realen Daten

Betrachte das Gesamtbild

Die Aufgabe abstecken

Pipelines

Wähle ein Qualitätsmaß aus

Formel 2-1: Wurzel der mittleren quadratischen Abweichung (RMSE)

Schreibweisen

Formel 2-2: mittlerer absoluter Fehler

Überprüfe die Annahmen

Beschaffe die Daten

Erstelle eine Arbeitsumgebung

Erstellen einer isolierten Umgebung

Die Daten herunterladen

Wirf einen kurzen Blick auf die Datenstruktur

Erstelle einen Testdatensatz

Erkunde und visualisiere die Daten, um Erkenntnisse zu gewinnen

Visualisieren geografischer Daten

Suche nach Korrelationen

Experimentieren mit Kombinationen von Merkmalen

Bereite die Daten für Machine-Learning-Algorithmen vor

Aufbereiten der Daten

Das Design von Scikit-Learn

Bearbeiten von Text und kategorischen Merkmalen

Eigene Transformer

Skalieren von Merkmalen

Pipelines zur Transformation

Wähle ein Modell aus und trainiere es

Trainieren und Auswerten auf dem Trainingsdatensatz

Bessere Auswertung mittels Kreuzvalidierung

Optimiere das Modell

Gittersuche

Zufällige Suche

Ensemble-Methoden

Analysiere die besten Modelle und ihre Fehler

Evaluiere das System auf dem Testdatensatz

Nimm das System in Betrieb, überwache und warte es

Probieren Sie es aus!

Übungen

KAPITEL 3. Klassifikation

MNIST

Trainieren eines binären Klassifikators

Qualitätsmaße

Messen der Genauigkeit über Kreuzvalidierung

Implementierung der Kreuzvalidierung

Konfusionsmatrix

Formel 3-1: Relevanz

Formel 3-2: Sensitivität

Relevanz und Sensitivität

Formel 3-3: F1

Die Wechselbeziehung zwischen Relevanz und Sensitivität

Die ROC-Kurve

Klassifikatoren mit mehreren Kategorien

Fehleranalyse

Klassifikation mit mehreren Labels

Klassifikation mit mehreren Ausgaben

Übungen

KAPITEL 4. Trainieren von Modellen

Lineare Regression

Formel 4-1: Lineares Regressionsmodell zur Vorhersage

Formel 4-2: Lineares Regressionsmodell zur Vorhersage (Vektorschreibweise)

Formel 4-3: MSE-basierte Kostenfunktion für ein lineares Regressionsmodell

Die Normalengleichung

Formel 4-4: Normalengleichung

Komplexität der Berechnung

Das Gradientenverfahren

Batch-Gradientenverfahren

Formel 4-5: Partielle Ableitung der Kostenfunktion

Formel 4-6: Gradientenvektor der Kostenfunktion

Formel 4-7: Schritt im Gradientenverfahren

Konvergenzrate

Stochastisches Gradientenverfahren

Mini-Batch-Gradientenverfahren

Polynomielle Regression

Lernkurven

Das Gleichgewicht zwischen Bias und Varianz

Regularisierte lineare Modelle

Ridge-Regression

Formel 4-8: Kostenfunktion bei der Ridge-Regression

Formel 4-9: Lösung der geschlossenen Form bei der Ridge-Regression

Lasso-Regression

Formel 4-10: Kostenfunktion bei der Lasso-Regression

Formel 4-11: Subgradientenvektor für die Lasso-Regression

Elastic Net

Formel 4-12: Kostenfunktion von Elastic Net

Early Stopping

Logistische Regression

Abschätzen von Wahrscheinlichkeiten

Formel 4-13: Geschätzte Wahrscheinlichkeit bei einem logistischen Regressionsmodell (Vektorschreibweise)

Formel 4-14: Logistische Funktion

Formel 4-15: Vorhersage eines logistischen Regressionsmodells

Trainieren und Kostenfunktion

Formel 4-16: Kostenfunktion eines einzelnen Trainingsdatenpunkts

Formel 4-17: Kostenfunktion bei der logistischen Regression (Log Loss)

Formel 4-18: Partielle Ableitungen der logistischen Kostenfunktion

Entscheidungsgrenzen

Softmax-Regression

Formel 4-19: Softmax-Score für Kategorie k

Formel 4-20: Softmax-Funktion

Formel 4-21: Vorhersage eines Klassifikators mit Softmax-Regression

Formel 4-22: Die Kreuzentropie als Kostenfunktion

Kreuzentropie

Formel 4-23: Gradientenvektor der Kreuzentropie für Kategorie k

Übungen

KAPITEL 5. Support Vector Machines

Lineare Klassifikation mit SVMs

Soft-Margin-Klassifikation

Nichtlineare SVM-Klassifikation

Polynomieller Kernel

Ähnlichkeitsbasierte Merkmale

Formel 5-1: Gaußsche RBF

Der gaußsche RBF-Kernel

Komplexität der Berechnung

SVM-Regression

Hinter den Kulissen

Entscheidungsfunktion und Vorhersagen

Formel 5-2: Vorhersage eines linearen SVM-Klassifikators

Zielfunktionen beim Trainieren

Formel 5-3: Zielfunktion eines linearen SVM-Klassifikators mit Hard-Margin

Formel 5-4: Zielfunktion eines linearen SVM-Klassifikators mit Soft-Margin

Quadratische Programme

Formel 5-5: Formulierung quadratischer Programme

Das duale Problem

Formel 5-6: Duale Form der Zielfunktion einer linearen SVM

Formel 5-7: Von der dualen Lösung zur primalen Lösung

Kernel-SVM

Formel 5-8: Polynomielle Zuordnung 2. Grades

Formel 5-9: Kerneltrick bei einer polynomiellen Zuordnung 2. Grades

Formel 5-10: Gebräuchliche Kernels

Mercers Theorem

Formel 5-11: Vorhersagen mit einer Kernel-SVM treffen

Formel 5-12: Berechnen des Bias-Terms mithilfe des Kerneltricks

Online-SVMs

Formel 5-13: Kostenfunktion eines linearen SVM-Klassifikators

Hinge Loss

Übungen

KAPITEL 6. Entscheidungsbäume

Trainieren und Visualisieren eines Entscheidungsbaums

Vorhersagen treffen

Formel 6-1: Gini-Unreinheit

Interpretation von Modellen: White Box im Vergleich zu Black Box

Schätzen von Wahrscheinlichkeiten für Kategorien

Der CART-Trainingsalgorithmus

Formel 6-2: Kostenfunktion des CART-Algorithmus zur Klassifikation

Komplexität der Berechnung

Gini-Unreinheit oder Entropie?

Formel 6-3: Entropie

Hyperparameter zur Regularisierung

Regression

Formel 6-4: CART-Kostenfunktion für die Regression

Instabilität

Übungen

KAPITEL 7. Ensemble Learning und Random Forests

Abstimmverfahren unter Klassifikatoren

Bagging und Pasting

Bagging und Pasting in Scikit-Learn

Out-of-Bag-Evaluation

Zufällige Patches und Subräume

Random Forests

Extra-Trees

Wichtigkeit von Merkmalen

Boosting

AdaBoost

Formel 7-1: Gewichtete Fehlerquote für den j. Prädiktor

Formel 7-2: Gewicht eines Prädiktors

Formel 7-3: Regel zum Aktualisieren der Gewichte

Formel 7-4: Vorhersagen mit AdaBoost

Gradient Boosting

Stacking

Übungen

KAPITEL 8. Dimensionsreduktion

Der Fluch der Dimensionalität

Die wichtigsten Ansätze zur Dimensionsreduktion

Projektion

Manifold Learning

Hauptkomponentenzerlegung (PCA)

Erhalten der Varianz

Hauptkomponenten

Formel 8-1: Matrix der Hauptkomponenten

Die Projektion auf d Dimensionen

Formel 8-2: Projektion des Trainingsdatensatzes auf d Dimensionen

Verwenden von Scikit-Learn

Der Anteil erklärter Varianz

Auswählen der richtigen Anzahl Dimensionen

PCA als Komprimierungsverfahren

Formel 8-3: Rücktransformation der Hauptkomponenten zur ursprünglichen Anzahl Dimensionen

Randomisierte PCA

Inkrementelle PCA

Kernel-PCA

Auswahl eines Kernels und Optimierung der Hyperparameter

LLE

Formel 8-4: LLE-Schritt 1: Ein lineares Modell der lokalen Nachbarschaftsbeziehungen

Formel 8-5: LLE-Schritt 2: Reduzieren der Dimensionalität unter Beibehaltung von Nachbarschaftsbeziehungen

Weitere Techniken zur Dimensionsreduktion

Übungen

KAPITEL 9. Techniken des unüberwachten Lernens

Clustering

K-Means

Der K-Means-Algorithmus

Methoden zur Schwerpunktinitialisierung

Accelerated K-Means und Mini-Batch-K-Means

Die optimale Zahl an Clustern finden

Grenzen von K-Means

Bildsegmentierung per Clustering

Vorverarbeitung per Clustering

Clustering für teilüberwachtes Lernen einsetzen

Aktives Lernen

DBSCAN

Andere Clustering-Algorithmen

Gaußsche Mischverteilung

Anomalieerkennung mit gaußschen Mischverteilungsmodellen

Die Anzahl an Clustern auswählen

Formel 9-1: Bayessches Informationskriterium (BIC) und Akaike-Informationskriterium

Likelihood-Funktion

Bayessche gaußsche Mischverteilungsmodelle

Formel 9-2: Satz von Bayes

Formel 9-3: Der Beweis, dass p(X) oft unlösbar ist

Formel 9-4: KL-Divergenz von q(z) nach p(z|X)

Andere Algorithmen zur Anomalie- und Novelty-Erkennung

Übungen

KAPITEL 10. Einführung in künstliche neuronale Netze mit Keras

Von biologischen zu künstlichen Neuronen

Biologische Neuronen

Logische Berechnungen mit Neuronen

Das Perzeptron

Formel 10-1: Häufig in Perzeptrons eingesetzte Aktivierungsfunktionen

Formel 10-2: Die Ausgabewerte einer vollständig verbundenen Schicht berechnen

Formel 10-3: Lernregel für Perzeptrons (Aktualisieren von Gewichten)

Mehrschichtiges Perzeptron und Backpropagation

Regressions-MLPs

Klassifikations-MLPs

MLPs mit Keras implementieren

TensorFlow 2 installieren

Einen Bildklassifikator mit der Sequential API erstellen

Den Datensatz mit Keras laden

Das Modell mit der Sequential API erstellen

Codebeispiele von keras.io verwenden

Das Modell kompilieren

Das Modell trainieren und auswerten

Mit dem Modell Vorhersagen treffen

Ein Regressions-MLP mit der Sequential API erstellen

Komplexe Modelle mit der Functional API bauen

Dynamische Modelle mit der Subclassing API bauen

Ein Modell sichern und wiederherstellen

Callbacks

TensorBoard zur Visualisierung verwenden

Feinabstimmung der Hyperparameter eines neuronalen Netzes

Anzahl verborgener Schichten

Anzahl Neuronen pro verborgene Schicht

Lernrate, Batchgröße und andere Hyperparameter

Übungen

KAPITEL 11. Trainieren von Deep-Learning-Netzen

Das Problem schwindender/explodierender Gradienten

Initialisierung nach Glorot und He

Formel 11-1: Initialisierung nach Glorot (beim Verwenden der logistischen Aktivierungsfunktion)

Nicht sättigende Aktivierungsfunktionen

Formel 11-2: ELU-Aktivierungsfunktion

Batchnormalisierung

Formel 11-3: Algorithmus zur Batchnormalisierung

Implementieren der Batchnormalisierung mit Keras

Gradient Clipping

Wiederverwenden vortrainierter Schichten

Transfer Learning mit Keras

Unüberwachtes Vortrainieren

Vortrainieren anhand einer Hilfsaufgabe

Schnellere Optimierer

Momentum Optimization

Formel 11-4: Moment-Algorithmus

Beschleunigter Gradient nach Nesterov

Formel 11-5: Algorithmus des beschleunigten Gradienten nach Nesterov

AdaGrad

Formel 11-6: AdaGrad-Algorithmus

RMSProp

Formel 11-7: RMSProp-Algorithmus

Adam-Optimierung

Formel 11-8: Adam-Algorithmus

Trainieren spärlicher Modelle

Scheduling der Lernrate

Vermeiden von Overfitting durch Regularisierung

ℓ1- und ℓ2-Regularisierung

Drop-out

Monte-Carlo-(MC-)-Drop-out

Max-Norm-Regularisierung

Zusammenfassung und praktische Tipps

Übungen

KAPITEL 12. Eigene Modelle und Training mit TensorFlow

Ein kurzer Überblick über TensorFlow

TensorFlow wie NumPy einsetzen

Tensoren und Operationen

Die Low-Level-API von Keras

Tensoren und NumPy

Typumwandlung

Variablen

Andere Datenstrukturen

Modelle und Trainingsalgorithmen anpassen

Eigene Verlustfunktion

Modelle mit eigenen Komponenten sichern und laden

Eigene Aktivierungsfunktionen, Initialisierer, Regularisierer und Constraints

Eigene Metriken

Eigene Schichten

Eigene Modelle

Verlustfunktionen und Metriken auf Modell-Interna basieren lassen

Gradienten per Autodiff berechnen

Eigene Trainingsschleifen

Funktionen und Graphen in TensorFlow

AutoGraph und Tracing

Regeln für TF Functions

Übungen

KAPITEL 13. Daten mit TensorFlow laden und vorverarbeiten

Die Data-API

Transformationen verketten

Daten durchmischen

Zeilen aus mehreren Dateien verschränken

Daten vorverarbeiten

Alles zusammenbringen

Prefetching

Datasets mit tf.keras verwenden

Das TFRecord-Format

Komprimierte TFRecord-Dateien

Eine kurze Einführung in Protocol Buffer

TensorFlow-Protobufs

Examples laden und parsen

Listen von Listen mit dem SequenceExample-Protobuf verarbeiten

Die Eingabemerkmale vorverarbeiten

Kategorische Merkmale mit One-Hot-Vektoren codieren

Kategorische Merkmale mit Embeddings codieren

Word Embeddings

Vorverarbeitungsschichten von Keras

TF Transform

Das TensorFlow-Datasets-(TFDS-)Projekt

Übungen

KAPITEL 14. Deep Computer Vision mit Convolutional Neural Networks

Der Aufbau des visuellen Cortex

Convolutional Layers

Filter

Stapeln mehrerer Feature Maps

Formel 14-1: Berechnung der Ausgabe eines Neurons in einem Convolutional Layer

Implementierung in TensorFlow

Speicherbedarf

Pooling Layers

Implementierung in TensorFlow

Architekturen von CNNs

LeNet-5

AlexNet

Data Augmentation

Formel 14-2: Local Response Normalization

GoogLeNet

VGGNet

ResNet

Xception

SENet

Ein ResNet-34-CNN mit Keras implementieren

Vortrainierte Modelle aus Keras einsetzen

Vortrainierte Modelle für das Transfer Learning

Klassifikation und Lokalisierung

Objekterkennung

Fully Convolutional Networks

You Only Look Once (YOLO)

Mean Average Precision (mAP)

Semantische Segmentierung

Convolution-Operationen in TensorFlow

Übungen

KAPITEL 15. Verarbeiten von Sequenzen mit RNNs und CNNs

Rekurrente Neuronen und Schichten

Formel 15-1: Ausgabe eines einzelnen rekurrenten Neurons für einen einzelnen Datenpunkt

Formel 15-2: Ausgabe einer Schicht rekurrenter Neuronen für alle Datenpunkte in einem Mini-Batch

Gedächtniszellen

Ein- und Ausgabesequenzen

RNNs trainieren

Eine Zeitserie vorhersagen

Grundlegende Metriken

Ein einfaches RNN implementieren

Trends und Saisonalität

Deep RNNs

Mehrere Zeitschritte vorhersagen

Arbeit mit langen Sequenzen

Gegen instabile Gradienten kämpfen

Das Problem des Kurzzeitgedächtnisses

LSTM-Zellen

Formel 15-3: LSTM-Berechnungen

Peephole-Verbindungen

GRU-Zellen

Formel 15-4: GRU-Berechnungen

Eindimensionale Convolutional Layers zum Verarbeiten von Sequenzen nutzen

WaveNet

Übungen

KAPITEL 16. Natürliche Sprachverarbeitung mit RNNs und Attention

Shakespearesche Texte mit einem Character-RNN erzeugen

Den Trainingsdatensatz erstellen

Wie ein sequenzieller Datensatz aufgeteilt wird

Den sequenziellen Datensatz in mehrere Fenster unterteilen

Das Char-RNN-Modell bauen und trainieren

Das Char-RNN-Modell verwenden

Einen gefälschten Shakespeare-Text erzeugen

Zustandsbehaftetes RNN

Sentimentanalyse

Maskieren

Vortrainierte Embeddings wiederverwenden

Ein Encoder-Decoder-Netzwerk für die neuronale maschinelle Übersetzung

Bidirektionale RNNs

Beam Search

Attention-Mechanismen

Formel 16-1: Attention-Mechanismen

Visuelle Attention

Explainability

Attention Is All You Need: Die Transformer-Architektur

Positional Encodings

Formel 16-2: Sinus und Kosinus für Positional Encodings

Multi-Head Attention

Formel 16-3: Scaled Dot-Product Attention

Aktuelle Entwicklungen bei Sprachmodellen

Übungen

KAPITEL 17. Representation Learning und Generative Learning mit Autoencodern und GANs

Effiziente Repräsentation von Daten

Hauptkomponentenzerlegung mit einem untervollständigen linearen Autoencoder

Stacked Autoencoder

Einen Stacked Autoencoder mit Keras implementieren

Visualisieren der Rekonstruktionen

Den Fashion-MNIST-Datensatz visualisieren

Unüberwachtes Vortrainieren mit Stacked Autoencoder

Kopplung von Gewichten

Trainieren mehrerer Autoencoder nacheinander

Convolutional Autoencoder

Rekurrente Autoencoder

Denoising Autoencoder

Sparse Autoencoder

Formel 17-1: Kullback-Leibler-Divergenz

Formel 17-2: KL-Divergenz zwischen der Zielspärlichkeit p und der tatsächlichen Spärlichkeit q

Variational Autoencoder

Formel 17-3: Latenter Verlust des Variational Autoencoder

Formel 17-4: Latenter Verlust des Variational Autoencoder, umgeschrieben mit γ = log(σ2)

Fashion-MNIST-Bilder erzeugen

Generative Adversarial Networks

Schwierigkeiten beim Trainieren von GANs

Deep Convolutional GANs

Progressive wachsende GANs

StyleGANs

Übungen

KAPITEL 18. Reinforcement Learning

Lernen zum Optimieren von Belohnungen

Suche nach Policies

Einführung in OpenAI Gym

Neuronale Netze als Policies

Auswerten von Aktionen: Das Credit-Assignment-Problem

Policy-Gradienten

Markov-Entscheidungsprozesse

Formel 18-1: Optimalitätsprinzip von Bellman

Formel 18-2: Value-Iteration-Algorithmus

Formel 18-3: Q-Wert-Iterationsalgorithmus

Temporal Difference Learning

Formel 18-4: TD Learning-Algorithmus

Q-Learning

Formel 18-5: Q-Learning-Algorithmus

Erkundungspolicies

Formel 18-6: Q-Learning mit einer Erkundungsfunktion

Approximatives Q-Learning und Deep-Q-Learning

Formel 18-7: Ziel-Q-Wert

Deep-Q-Learning implementieren

Deep-Q-Learning-Varianten

Feste Q-Wert-Ziele

Double DQN

Priorisiertes Experience Replay

Dueling DQN

Die TF-Agents-Bibliothek

TF-Agents installieren

TF-Agents-Umgebungen

Umgebungsspezifikationen

Umgebungswrapper und Atari-Vorverarbeitung

Trainingsarchitektur

Deep-Q-Netz erstellen

DQN-Agenten erstellen

Replay Buffer und Beobachter erstellen

Trainingsmetriken erstellen

Collect-Fahrer erstellen

Dataset erstellen

Trainingsschleife erstellen

Überblick über beliebte RL-Algorithmen

Übungen

KAPITEL 19. TensorFlow-Modelle skalierbar trainieren und deployen

Ein TensorFlow-Modell ausführen

TensorFlow Serving verwenden

SavedModels exportieren

TensorFlow Serving installieren

TF Serving über die REST-API abfragen

TF Serving über die gRPC-API abfragen

Eine neue Modellversion deployen

Einen Vorhersageservice auf der GCP AI Platform erstellen

Den Vorhersageservice verwenden

Ein Modell auf ein Mobile oder Embedded Device deployen

TensorFlow im Browser

Mit GPUs die Berechnungen beschleunigen

Sich eine eigene GPU zulegen

Eine mit GPU ausgestattete virtuelle Maschine einsetzen

Colaboratory

Das GPU-RAM verwalten

Operationen und Variablen auf Devices verteilen

Paralleles Ausführen auf mehreren Devices

Modelle auf mehreren Devices trainieren

Parallelisierte Modelle

Parallelisierte Daten

Parallelisierte Daten mit der Spiegel-Strategie

Parallelisierte Daten mit zentralisierten Parametern

Erschöpfen der Netzwerkbandbreite

Mit der Distribution Strategies API auf mehreren Devices trainieren

Ein Modell in einem TensorFlow-Cluster trainieren

Große Trainingsjobs auf der Google Cloud AI Platform ausführen

Black Box Hyperparameter Tuning auf der AI Platform

Übungen

Vielen Dank!

ANHANG A. Lösungen zu den Übungsaufgaben

Kapitel 1: Die Machine-Learning-Umgebung

Kapitel 2: Ein Machine-Learning-Projekt von A bis Z

Kapitel 3: Klassifikation

Kapitel 4: Trainieren von Modellen

Kapitel 5: Support Vector Machines

Kapitel 6: Entscheidungsbäume

Kapitel 7: Ensemble Learning und Random Forests

Kapitel 8: Dimensionsreduktion

Kapitel 9: Techniken des unüberwachten Lernens

Kapitel 10: Einführung in künstliche neuronale Netze mit Keras

Kapitel 11: Trainieren von Deep-Learning-Netzen

Kapitel 12: Eigene Modelle und Training mit TensorFlow

Kapitel 13: Daten mit TensorFlow laden und vorverarbeiten

Kapitel 14: Deep Computer Vision mit Convolutional Neural Networks

Kapitel 15: Verarbeiten von Sequenzen mit RNNs und CNNs

Kapitel 16: Natürliche Sprachverarbeitung mit RNNs und Attention

Kapitel 17: Representation Learning und Generative Learning mit Autoencodern und GANs

Kapitel 18: Reinforcement Learning

Kapitel 19: TensorFlow-Modelle skalierbar trainieren und deployen

ANHANG B. Checkliste für Machine-Learning-Projekte

Klären Sie die Aufgabenstellung und betrachten Sie die Gesamtsituation

Beschaffen Sie sich Daten

Erkunden Sie die Daten

Aufbereiten der Daten

Treffen Sie eine engere Auswahl vielversprechender Modelle

Optimieren des Systems

Stellen Sie Ihre Lösung vor

Start!

ANHANG C. Das duale Problem bei SVMs

Formel C-1: Allgemeine Lagrange-Funktion für das Hard-Margin-Problem

Formel C-2: Partielle Ableitungen der allgemeinen Lagrange-Funktion

Formel C-3: Eigenschaften der stationären Punkte

Formel C-4: Duale Form des SVM-Problems

Formel C-5: Abschätzung des Bias-Terms über die duale Form

ANHANG D. Autodiff

Differenzierung von Hand

Formel D-1: Partielle Ableitungen von f(x,y)

Finite-Differenzen-Methode

Formel D-2: Definition der Ableitung einer Funktion h(x,y) am Punkt x0

Autodiff im Forward-Modus

Formel D-3: Einige Rechenoperationen mit dualen Zahlen

Autodiff im Reverse-Modus

Formel D-4: Die Kettenregel

ANHANG E. Weitere verbreitete Architekturen neuronaler Netze

Hopfield-Netze

Boltzmann Machines

Formel E-1: Wahrscheinlichkeit, dass das ite Neuron eine 1 ausgibt

Restricted Boltzmann Machines

Formel E-2: Aktualisieren der Gewichte im Contrastive-Divergence-Algorithmus

Deep Belief Networks

Selbstorganisierende Karten

ANHANG F. Spezielle Datenstrukturen

Strings

Ragged-Tensoren

Sparse-Tensoren

Tensor-Arrays

Sets

Queues

ANHANG G. TensorFlow-Graphen

TF Functions und konkrete Funktionen

Funktionsdefinitionen und -graphen untersuchen

Tracing

Den Kontrollfluss mit AutoGraph erfassen

Variablen und andere Ressourcen in TF Functions

TF Functions mit tf.keras (nicht) verwenden

Fußnoten. Vorwort

Kapitel 1 Die Machine-Learning-Umgebung

Kapitel 2 Ein Machine-Learning-Projekt von A bis Z

Kapitel 3 Klassifikation

Kapitel 4 Trainieren von Modellen

Kapitel 5 Support Vector Machines

Kapitel 6 Entscheidungsbäume

Kapitel 7 Ensemble Learning und Random Forests

Kapitel 8 Dimensionsreduktion

Kapitel 9 Techniken des unüberwachten Lernens

Kapitel 10 Einführung in künstliche neuronale Netze mit Keras

Kapitel 11 Trainieren von Deep-Learning-Netzen

Kapitel 12 Eigene Modelle und Training mit TensorFlow

Kapitel 13 Daten mit TensorFlow laden und vorverarbeiten

Kapitel 14 Deep Computer Vision mit Convolutional Neural Networks

Kapitel 15 Verarbeiten von Sequenzen mit RNNs und CNNs

Kapitel 16 Natürliche Sprachverarbeitung mit RNNs und Attention

Kapitel 17 Representation Learning und Generative Learning mit Autoencodern und GANs

Kapitel 18 Reinforcement Learning

Kapitel 19 TensorFlow-Modelle skalierbar trainieren und deployen

Anhang A: Lösungen zu den Übungsaufgaben

Anhang B: Checkliste für Machine-Learning-Projekte

Anhang E: Weitere verbreitete Architekturen neuronaler Netze

Anhang F: Spezielle Datenstrukturen

Anhang G: TensorFlow-Graphen

Index. Symbole

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

Über den Autor

Über die Übersetzer

Kolophon

Отрывок из книги

2. AUFLAGE

Konzepte, Tools und Techniken für intelligente Systeme

.....

Momentum Optimization

Beschleunigter Gradient nach Nesterov

.....

Добавление нового отзыва

Комментарий Поле, отмеченное звёздочкой  — обязательно к заполнению

Отзывы и комментарии читателей

Нет рецензий. Будьте первым, кто напишет рецензию на книгу Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow
Подняться наверх