Читать книгу Data Science - Michael Zimmer - Страница 69

Serendipität

Оглавление

Einen wichtigen Aspekt darf man bei Feedbackschleifen nicht vergessen: die Gefahr des Overfittings. Wenn ein Modell trainiert wird, kann es passieren, dass dieses Modell sehr gut zu den Trainingsdaten passt, aber keine oder wenig Aussagekraft für neue Inputdaten hat. Dies kann zum Beispiel passieren, wenn ein Empfehlungssystem nur mit dem Feedback einer bestimmten Kundengruppe trainiert wird. In dem Fall kann es sein, dass das Modell nicht oder schlecht zu den Bedürfnissen einer anderen Kundengruppe passt. Daher ist es sinnvoll, in Empfehlungen immer wieder etwas Zufall einfließen zu lassen. Ein gängiger Wert für Zufall gegenüber Vorhersagen aus dem Modell liegt zwischen 10 und 20 Prozent. Durch die Zufallsbeimischung wird Serendipität ermöglicht, also die ungeplante Entdeckung von neuen Zusammenhängen.

Data Science

Подняться наверх