Читать книгу Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow - Aurélien Géron - Страница 185

Hinge Loss

Оглавление

Die Funktion max(0, 1 – t) nennt man die Hinge-Loss-Funktion (siehe unten). Sie ist gleich 0 für t 1. Ihre Ableitung (Steigung) beträgt –1 für t < 1 und 0 für t > 1. Sie ist bei t = 1 nicht differenzierbar, aber wie bei der Lasso-Regression (siehe »Lasso-Regression« auf Seite 139) können Sie dennoch das Gradientenverfahren verwenden, indem Sie ein beliebiges Subdifferential bei t = 1 berechnen (d.h. einen beliebigen Wert zwischen –1 und 0).


Es ist ebenfalls möglich, Online-Kernel-SVMs zu implementieren – beispielsweise mit den Methoden »Incremental and Decremental SVM Learning« (https://homl.info/17)8 oder »Fast Kernel Classifiers with Online and Active Learning« (https://homl.info/18)9. Diese sind allerdings in Matlab und C++ implementiert. Für größere nichtlineare Aufgaben sollten Sie stattdessen neuronale Netze in Betracht ziehen (siehe Teil II).

Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow

Подняться наверх