Читать книгу Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow - Aurélien Géron - Страница 121
Konvergenzrate
ОглавлениеWenn die Kostenfunktion konvex ist und ihre Steigung sich nicht abrupt ändert (wie es bei der MSE-Kostenfunktion der Fall ist), konvergiert das Batch-Gradientenverfahren mit einer gegebenen Lernrate immer zur optimalen Lösung, aber Sie müssen eventuell ein Weilchen warten – es kann O(1/ε) Iterationen erfordern, um das Optimum in einem Bereich ε zu erreichen (abhängig von der Form der Kostenfunktion). Wenn Sie die Toleranz ε durch 10 teilen (um eine genauere Lösung erhalten), muss der Algorithmus etwa 10 Mal länger laufen.