Жанры
Авторы
Контакты
О сайте
Книжные новинки
Популярные книги
Найти
Главная
Авторы
Aurélien Géron
Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow
Читать книгу Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow - Aurélien Géron - Страница 1
Оглавление
Предыдущая
Следующая
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
...
187
Оглавление
Купить и скачать книгу
Вернуться на страницу книги Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow
Оглавление
Страница 1
Страница 2
Страница 3
Страница 4
Inhalt
Vorwort
Der Machine-Learning-Tsunami
Machine Learning in Ihren Projekten
Ziel und Ansatz
Voraussetzungen
Wegweiser durch dieses Buch
Änderungen in der zweiten Auflage
Ressourcen im Netz
In diesem Buch verwendete Konventionen
Codebeispiele
Verwenden von Codebeispielen
Danksagungen
Страница 17
KAPITEL 1
Die Machine-Learning-Umgebung
Was ist Machine Learning?
Warum wird Machine Learning verwendet?
Anwendungsbeispiel
Unterschiedliche Machine-Learning-Systeme
Überwachtes/unüberwachtes Lernen
Überwachtes Lernen
Unüberwachtes Lernen
Halbüberwachtes Lernen
Reinforcement Learning
Batch- und Online-Learning
Batch-Learning
Online-Learning
Instanzbasiertes versus modellbasiertes Lernen
Instanzbasiertes Lernen
Modellbasiertes Lernen
Formel 1-1: Ein einfaches lineares Modell
Beispiel 1-1: Trainieren und Ausführen eines linearen Modells mit Scikit-Learn
Die wichtigsten Herausforderungen beim Machine Learning
Unzureichende Menge an Trainingsdaten
Die unverschämte Effektivität von Daten
Nicht repräsentative Trainingsdaten
Beispiele für Stichprobenverzerrungen
Minderwertige Daten
Irrelevante Merkmale
Overfitting der Trainingsdaten
Underfitting der Trainingsdaten
Zusammenfassung
Testen und Validieren
Hyperparameter anpassen und Modellauswahl
Datendiskrepanz
Das No-Free-Lunch-Theorem
Übungen
KAPITEL 2
Ein Machine-Learning-Projekt von A bis Z
Der Umgang mit realen Daten
Betrachte das Gesamtbild
Die Aufgabe abstecken
Pipelines
Wähle ein Qualitätsmaß aus
Formel 2-1: Wurzel der mittleren quadratischen Abweichung (RMSE)
Schreibweisen
Formel 2-2: mittlerer absoluter Fehler
Überprüfe die Annahmen
Beschaffe die Daten
Erstelle eine Arbeitsumgebung
Erstellen einer isolierten Umgebung
Die Daten herunterladen
Wirf einen kurzen Blick auf die Datenstruktur
Erstelle einen Testdatensatz
Erkunde und visualisiere die Daten, um Erkenntnisse zu gewinnen
Visualisieren geografischer Daten
Suche nach Korrelationen
Experimentieren mit Kombinationen von Merkmalen
Bereite die Daten für Machine-Learning-Algorithmen vor
Aufbereiten der Daten
Das Design von Scikit-Learn
Bearbeiten von Text und kategorischen Merkmalen
Eigene Transformer
Skalieren von Merkmalen
Pipelines zur Transformation
Wähle ein Modell aus und trainiere es
Trainieren und Auswerten auf dem Trainingsdatensatz
Bessere Auswertung mittels Kreuzvalidierung
Optimiere das Modell
Gittersuche
Zufällige Suche
Ensemble-Methoden
Analysiere die besten Modelle und ihre Fehler
Evaluiere das System auf dem Testdatensatz
Nimm das System in Betrieb, überwache und warte es
Probieren Sie es aus!
Übungen
KAPITEL 3
Klassifikation
MNIST
Trainieren eines binären Klassifikators
Qualitätsmaße
Messen der Genauigkeit über Kreuzvalidierung
Implementierung der Kreuzvalidierung
Konfusionsmatrix
Formel 3-1: Relevanz
Formel 3-2: Sensitivität
Relevanz und Sensitivität
Formel 3-3: F
1
Die Wechselbeziehung zwischen Relevanz und Sensitivität
Die ROC-Kurve
Klassifikatoren mit mehreren Kategorien
Fehleranalyse
Klassifikation mit mehreren Labels
Klassifikation mit mehreren Ausgaben
Übungen
KAPITEL 4
Trainieren von Modellen
Lineare Regression
Formel 4-1: Lineares Regressionsmodell zur Vorhersage
Formel 4-2: Lineares Regressionsmodell zur Vorhersage (Vektorschreibweise)
Formel 4-3: MSE-basierte Kostenfunktion für ein lineares Regressionsmodell
Die Normalengleichung
Formel 4-4: Normalengleichung
Komplexität der Berechnung
Das Gradientenverfahren
Batch-Gradientenverfahren
Formel 4-5: Partielle Ableitung der Kostenfunktion
Formel 4-6: Gradientenvektor der Kostenfunktion
Formel 4-7: Schritt im Gradientenverfahren
Konvergenzrate
Stochastisches Gradientenverfahren
Mini-Batch-Gradientenverfahren
Polynomielle Regression
Lernkurven
Das Gleichgewicht zwischen Bias und Varianz
Regularisierte lineare Modelle
Ridge-Regression
Formel 4-8: Kostenfunktion bei der Ridge-Regression
Formel 4-9: Lösung der geschlossenen Form bei der Ridge-Regression
Lasso-Regression
Formel 4-10: Kostenfunktion bei der Lasso-Regression
Formel 4-11: Subgradientenvektor für die Lasso-Regression
Elastic Net
Formel 4-12: Kostenfunktion von Elastic Net
Early Stopping
Logistische Regression
Abschätzen von Wahrscheinlichkeiten
Formel 4-13: Geschätzte Wahrscheinlichkeit bei einem logistischen Regressionsmodell (Vektorschreibweise)
Formel 4-14: Logistische Funktion
Formel 4-15: Vorhersage eines logistischen Regressionsmodells
Trainieren und Kostenfunktion
Formel 4-16: Kostenfunktion eines einzelnen Trainingsdatenpunkts
Formel 4-17: Kostenfunktion bei der logistischen Regression (Log Loss)
Formel 4-18: Partielle Ableitungen der logistischen Kostenfunktion
Entscheidungsgrenzen
Softmax-Regression
Formel 4-19: Softmax-Score für Kategorie k
Formel 4-20: Softmax-Funktion
Formel 4-21: Vorhersage eines Klassifikators mit Softmax-Regression
Formel 4-22: Die Kreuzentropie als Kostenfunktion
Kreuzentropie
Formel 4-23: Gradientenvektor der Kreuzentropie für Kategorie k
Übungen
KAPITEL 5
Support Vector Machines
Lineare Klassifikation mit SVMs
Soft-Margin-Klassifikation
Nichtlineare SVM-Klassifikation
Polynomieller Kernel
Ähnlichkeitsbasierte Merkmale
Formel 5-1: Gaußsche RBF
Der gaußsche RBF-Kernel
Komplexität der Berechnung
SVM-Regression
Hinter den Kulissen
Entscheidungsfunktion und Vorhersagen
Formel 5-2: Vorhersage eines linearen SVM-Klassifikators
Zielfunktionen beim Trainieren
Formel 5-3: Zielfunktion eines linearen SVM-Klassifikators mit Hard-Margin
Formel 5-4: Zielfunktion eines linearen SVM-Klassifikators mit Soft-Margin
Quadratische Programme
Formel 5-5: Formulierung quadratischer Programme
Das duale Problem
Formel 5-6: Duale Form der Zielfunktion einer linearen SVM
Formel 5-7: Von der dualen Lösung zur primalen Lösung
Kernel-SVM
Formel 5-8: Polynomielle Zuordnung 2. Grades
Formel 5-9: Kerneltrick bei einer polynomiellen Zuordnung 2. Grades
Formel 5-10: Gebräuchliche Kernels
Mercers Theorem
Formel 5-11: Vorhersagen mit einer Kernel-SVM treffen
Formel 5-12: Berechnen des Bias-Terms mithilfe des Kerneltricks
Online-SVMs
Formel 5-13: Kostenfunktion eines linearen SVM-Klassifikators
Hinge Loss
Übungen
{buyButton}
Подняться наверх