Читать книгу Data Science - Michael Zimmer - Страница 32

3.4.1.2Spinning the Customer Life Cycle – Schaffen Sie mehr als eine Runde?

Оглавление

Bei unseren oben genannten drei Kernpunkten spielt der Kundenlebenszyklus eine besondere Rolle (vgl. Abb. 3–3). Er beschreibt, welche Stufen ein Kunde durchläuft, wenn er einen Kauf zunächst erwägt (»Attract«), dann tätigt (»Acquire«), schließlich das Produkt benutzt (»Develop«) und diesem oder dem Service gegenüber loyal verbunden bleibt (»Retain«). Die Beziehung zum Kunden sollte darauf abzielen, diesen Kreislauf so zu managen, dass er wiederholt(!) funktioniert und dauerhaft Kundenzufriedenheit und Profitabilität erhöht werden.

Abb. 3–3

Customer Life Cycle:

Attract: Potenzielle Kunden werden identifiziert, ihre Aufmerksamkeit erregt & über Angebote informiert.

Acquire: Aus Interessenten werden Kunden.

Develop: Kunden werden durch personalisierte Angebote stärker an das Unternehmen gebunden.

Retain: Aus Lauf- wird Stammkundschaft.

Zur Frage, wie bzw. wann man diesen Zyklus wiederholt in Gang setzen kann, sei auf unser Beispiel verwiesen: Maschinell lernende Algorithmen zur Mustererkennung, die idealerweise auch noch die aktuelle Marktdynamik und Marketingkampagnen mit einbeziehen, sind in der Lage, den richtigen Zeitpunkt zu ermitteln, wann ein Kunde ein neues Angebot erhalten sollte. So lässt sich mithilfe von Predictive Analytics vorhersagen, wann bei Kunden, die gerade ihr Auto finanzieren, der Punkt eintritt, wo der Wiederverkaufswert des Autos die Höhe der noch ausstehenden Zahlungen übertrifft.

Grundlage für diese Analysen ist bei vielen Automobilherstellern ein Hadoopbasierter Data Lake, der große Mengen konsistenter Kunden-, Vertrags- und Autodaten (dazu gehören auch zusätzliche Ausstattung oder Transaktionsdaten) vereint. Aus diesen Datenquellen können die Algorithmen etwa den Marktwert von Gebrauchtfahrzeugen einschätzen. Die Vorhersage kann dann mit Modellen in Spark industrialisiert werden. Bevor das Vorhersagemodell zur Anwendung kommt, muss es sich aufgrund der IT-Regularien großer Konzerne zuvor als Prototyp in einer Testumgebung erfolgreich bewährt haben, um danach in der produktiven Hadoop-Umgebung entsprechend skaliert bereitgestellt zu werden. Gegenüber konventionellen Tabellenmethoden bietet ein solches Vorgehen mit Lake und Modell zahlreiche Vorteile. Es kann mehr Variablen verarbeiten, kann verschiedene Datenquellen zusammenfassen, ist weniger fehleranfällig, trifft präzisere Aussagen und kann flächendeckender eingesetzt werden.

Data Science

Подняться наверх