Читать книгу Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow - Aurélien Géron - Страница 178

Formel 5-9: Kerneltrick bei einer polynomiellen Zuordnung 2. Grades

Оглавление

Was halten Sie davon? Das Skalarprodukt der transformierten Vektoren entspricht dem Quadrat des Skalarprodukts der ursprünglichen Vektoren: ϕ(a)T ϕ(b) = (aT b)2.

An dieser Stelle stellt sich die entscheidende Erkenntnis ein: Wenn Sie die Transformation ϕ auf alle Trainingsdatenpunkte anwenden, enthält das duale Problem (siehe Formel 5-6) das Skalarprodukt ϕ(x(i))T ϕ(x(j)). Wenn aber ϕ die in Formel 5-8 definierte polynomielle Transformation 2. Ordnung ist, dann können Sie dieses Skalarprodukt der transformierten Vektoren einfach durch ersetzen. Also brauchen Sie die Trainingsdaten überhaupt nicht zu transformieren: Ersetzen Sie einfach das Skalarprodukt in Formel 5-6 durch sein Quadrat. Das Ergebnis ist exakt das gleiche, als hätten Sie sich die Mühe gemacht, die Trainingsdaten tatsächlich zu transformieren und anschließend einen linearen SVM-Algorithmus auszuführen. Mit diesem Trick wird der gesamte Prozess rechnerisch wesentlich effizienter.

Die Funktion K(a, b) = (aT b)2 nennt man einen polynomiellen Kernel 2. Grades. Im Machine Learning versteht man unter einem Kernel eine Funktion, mit der sich das Skalarprodukt ϕ(a)T ϕ(b) lediglich aus den ursprünglichen Vektoren a und b berechnen lässt, ohne dass die Transformation ϕ berechnet werden (oder überhaupt bekannt sein) muss. In Formel 5-10 sind einige der gebräuchlichsten Kernels aufgelistet.

Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Подняться наверх