Data Science
Реклама. ООО «ЛитРес», ИНН: 7719571260.
Оглавление
Michael Zimmer. Data Science
Data Science
Vorwort zur 2. Auflage
Vorwort
Inhaltsübersicht
Inhaltsverzeichnis
1Einleitung. Uwe Haneke · Stephan Trahasch · Michael Zimmer · Carsten Felden. 1.1Von Business Intelligence zu Data Science
1.2Data Science und angrenzende Gebiete
1.3Vorgehen in Data-Science-Projekten
1.4Struktur des Buches
2(Advanced) Analytics is the new BI? Uwe Haneke
2.1Geschichte wiederholt sich?
Gut Ding will Weile haben
Die Technologie muss bereitstehen
»Garbage in, garbage out«
Don’t be too fast
Die unterschätzte Bedeutung der Informationsbedarfsanalyse
Neue organisatorische Strukturen, Regelungen und Rollen
2.2Die DIKW-Pyramide erklimmen
2.3Vom Nebeneinander zum Miteinander
2.4Fazit
3Data Science und künstliche Intelligenz – der Schlüssel zum Erfolg? Marc Beierschoder · Benjamin Diemann · Michael Zimmer
3.1Zwischen Euphorie und Pragmatismus
3.2Wann ist Data Science und KI das Mittel der Wahl?
3.3Realistische Erwartungen und klare Herausforderungen
Prozess- und strukturorientierte Implementierung
3.4Aus der Praxis
3.4.1Die Automobilbranche als Beispiel. 3.4.1.1Machen Sie Ihren Kunden ein Angebot, das sie nicht ausschlagen können
3.4.1.2Spinning the Customer Life Cycle – Schaffen Sie mehr als eine Runde?
Komponenten auf dem Weg zu personalisierten Massenangeboten
Das nächstbeste Auto
Das nächste Finanzierungsmodell
Die Wahrscheinlichkeit eines Neuwagenkaufs
Der Restwert eines Gebrauchtwagens
Upselling
Welche Kampagne sich für welche Autoserie eignet
3.5Fazit
4Konzeption und Entwicklung von Data-driven Products/Datenprodukten. Christoph Tempich
4.1Einleitung
4.2Datenprodukte. 4.2.1Definition
4.2.2Beispiele für Datenprodukte
Google Recaptcha
Tesla Autopilot
Deutsche Post: AddressFactory
Medienagenturen: Allokation der Werbebudgets
4.2.3Herausforderungen des Produktmanagements für Datenprodukte
4.3Digitale Produktentwicklung
4.3.1Produktmanagement
4.3.2Agile Entwicklung
4.3.3Lean Startup
4.3.4Data Science
4.3.5Data-centric Business Models
4.4Datenprodukte definieren
4.4.1Ideengenerierung für Datenprodukte entlang der Customer Journey
4.4.2Value Propositions von Datenprodukten
4.4.3Ziele und Messung
4.4.4Die Erwartung an die Güte des Modells bestimmen
4.4.5Mit dem Datenprodukt beginnen
4.4.6Kontinuierliche Verbesserung mit der Datenwertschöpfungskette
4.4.7Skalierung und Alleinstellungsmerkmal
4.5Kritischer Erfolgsfaktor Feedbackschleife
Zieldefinition
Wert für den Nutzer
Flow
Community pflegen
Serendipität
Klein anfangen
Platform Mindset: Nutzung für verschiedene Produkte
4.6Organisatorische Anforderungen
4.7Technische Anforderungen
4.8Fazit
5Grundlegende Methoden der Data Science. Stephan Trahasch · Carsten Felden
5.1Einleitung
5.2Data Understanding und Data Preparation
5.2.1Explorative Datenanalyse
5.2.2Transformation und Normalisierung
5.3Überwachte Lernverfahren
5.3.1Datenaufteilung
5.3.2Bias-Variance-Tradeoff
5.3.3Klassifikationsverfahren
5.4Unüberwachte Lernverfahren und Clustering
5.5Reinforcement Learning
5.5.1Aspekte des Reinforcement Learning
5.5.2Bestandteile eines Reinforcement-Learning-Systems
5.6Evaluation
5.6.1Ausgewählte Qualitätsmaße im Kontext von Klassifikationsaufgabenstellungen
5.6.2Ausgewählte Qualitätsmaße im Kontext von Clusterungen
5.7Weitere Ansätze. 5.7.1Deep Learning
5.7.2Cognitive Computing
5.8Fazit
6Feature Selection. Bianca Huber
6.1Weniger ist mehr
6.2Einführung in die Feature Selection
6.2.1Definition
6.2.2Abgrenzung
6.3Ansätze der Feature Selection
6.3.1Der Filter-Ansatz
6.3.2Der Wrapper-Ansatz
6.3.3Der Embedded-Ansatz
6.3.4Vergleich der drei Ansätze
6.4Feature Selection in der Praxis
6.4.1Empfehlungen
6.4.2Anwendungsbeispiel
6.5Fazit
7Deep Learning. Klaus Dorer
Was ist Deep Learning?
Warum ist Deep Learning gerade jetzt so aktuell?
7.1Grundlagen neuronaler Netzwerke
7.1.1Menschliches Gehirn
7.1.2Modell eines Neurons
7.1.3Perzeptron
7.1.4Backpropagation-Netzwerke
7.2Deep Convolutional Neural Networks
7.2.1Convolution-Schicht
7.2.2Pooling-Schicht
7.2.3Fully-Connected-Schicht
7.3Deep Reinforcement Learning
7.4Anwendung von Deep Learning
7.4.1Sweaty
7.4.2AudiCup
7.4.3DRL im RoboCup
7.4.4Deep-Learning-Frameworks
7.4.5Standarddatensätze
7.4.6Standardmodelle
7.4.7Weitere Anwendungen
7.5Fazit
8Von einer BI-Landschaft zum Data & Analytics-Ökosystem. Michael Zimmer · Benjamin Diemann · Andreas Holzhammer
8.1Einleitung
8.2Komponenten analytischer Ökosysteme
8.3Vom Reporting zur industrialisierten Data Science
8.4Data Science und Agilität
8.5Entwicklungs-, Test- und Produktionsumgebungen für Data Science
8.6Vom Spielplatz für Innovation zur Serienfertigung
8.7Anwendungsbeispiel
8.8Fazit
9Self-Service und Governance im Data-Science-Umfeld: der emanzipierte Anwender. Uwe Haneke · Michael Zimmer
9.1Einleitung
9.2Self-Service-Angebote für Data & Analytics
9.3Data Governance und Self-Service
9.4Self-Service-Datenaufbereitung und Data Science
9.5Self-Service-Datenaufbereitung vs. ETL
9.6Bimodale Data & Analytics: Segen oder Fluch?
9.7Entwicklungen im Self-Service-Bereich
9.7.1AutoML als Data-Scientist-Ersatz?
9.7.2Augmented Analytics
9.8Fazit
10Data Privacy. Victoria Kayser · Damir Zubovic
10.1Die Rolle von Data Privacy für Analytics und Big Data
10.2Rechtliche und technische Ausgestaltung von Data Privacy
10.2.1Rechtliche Bestimmungen zu Data Privacy
10.2.2Technische und methodische Ansätze zur Schaffung von Data Privacy
10.3Data Privacy im Kontext des Analytics Lifecycle
10.3.1Ideen generieren
10.3.2Prototypen entwickeln
10.3.3Implementieren der Lösung
10.4Diskussion und Fazit
11Gespräch zur digitalen Ethik. Matthias Haun · Gernot Meier
12Customer Churn mit Keras/TensorFlow und H2O. Shirin Glander
12.1Was ist Customer Churn?
12.1.1Wie kann Predictive Analytics bei dem Problem helfen?
12.1.2Wie können wir Customer Churn vorhersagen?
12.2Fallstudie
12.2.1Der Beispieldatensatz
Explorative Datenanalyse
12.2.2Vorverarbeitung der Daten
12.2.3Neuronale Netze mit Keras und TensorFlow
12.2.4Stacked Ensembles mit H2O
12.3Bewertung der Customer-Churn-Modelle
12.3.1Kosten-Nutzen-Kalkulation
12.3.2Erklärbarkeit von Customer-Churn-Modellen
12.4Zusammenfassung und Fazit
13Wirtschaftlichkeitsbetrachtung bei der Auswahl & Entwicklung von Data Science. Eine Fallstudie im Online-Lebensmitteleinzelhandel. Nicolas March
13.1Herausforderungen in der Praxis. 13.1.1Data-Science-Anwendungen im Online-LEH
13.1.2Auswahl und Umsetzung wirtschaftlicher Anwendungsfälle
Vorauswahl
Entwicklung von Prototypen
Agile testgetriebene Produkt- und Prozessentwicklung
13.2Fallstudie: Kaufempfehlungssysteme im Online-Lebensmitteleinzelhandel
13.2.1Vorabanalysen zur Platzierung von Empfehlungen
13.2.2Prototypische Entwicklung eines Empfehlungsalgorithmus
13.2.3MVP und testgetriebene Entwicklung der Recommendation Engine
13.3Fazit
14Analytics im Onlinehandel. Mikio Braun
14.1Einleitung
14.2Maschinelles Lernen: von der Uni zu Unternehmen
14.3Wie arbeiten Data Scientists und Programmierer zusammen?
14.4Architekturmuster, um maschinelle Lernmethoden produktiv zu nehmen
14.4.1Architekturmuster des maschinellen Lernens
14.4.2Architekturmuster, um Modelle auszuliefern
14.4.3Datenvorverarbeitung und Feature-Extraktion
14.4.4Automation und Monitoring
14.4.5Integrationsmuster für maschinelles Lernen
14.5Was kann man sonst auf Firmenebene tun, um Data Science zu unterstützen?
14.6Fazit
15Predictive Maintenance. Marco Huber
15.1Einleitung
15.2Was ist Instandhaltung?
15.2.1Folgen mangelhafter Instandhaltung
15.2.2Wettbewerbsfähige Produktion
15.3Instandhaltungsstrategien
15.3.1Reaktive Instandhaltung
15.3.2Vorbeugende Instandhaltung
15.3.3Vorausschauende Instandhaltung (Predictive Maintenance)
15.4Prozessphasen der vorausschauenden Instandhaltung
15.4.1Datenerfassung und -übertragung
15.4.2Datenanalyse und Vorhersage
15.4.2.1Unüberwachte Verfahren. Komponentenanalyse
Ereigniszeitanalyse
Anomalieerkennung
Clustering
15.4.2.2Überwachte Verfahren. Klassifizierung
Regression
15.4.3Planung und Ausführung
15.5Fallbeispiele
15.5.1Heidelberger Druckmaschinen
15.5.2Verschleißmessung bei einem Werkzeugmaschinenhersteller
15.5.3Vorausschauende Instandhaltung in der IT
15.6Fazit
16Scrum in Data-Science-Projekten. Caroline Kleist · Olaf Pier
16.1Einleitung
16.2Kurzüberblick Scrum
16.3Data-Science-Projekte in der Praxis
16.4Der Einsatz von Scrum in Data-Science-Projekten
16.4.1Eigene Adaption. Teamaufstellung
Aktivitäten
Artefakte
Tools
16.4.2Realisierte Vorteile
Schnelle Adaption an neue Voraussetzungen
Sprint-Reviews in kurzen Zyklen ermöglichen Risikominimierung durch umfassendere Transparenz über den Fortschritt
Qualitätssteigerungen durch Transparenz und Selbstorganisation des Teams
Scrum schafft gute Rahmenbedingungen für den Aufbau eines Data-Science-Teams
Motivation durch Wertschätzung und Anerkennung in Sprint-Reviews
Fokus als zentraler Scrum-Wert hilft, die wesentlichen Ziele ständig zu verfolgen
Institutionalisierte Selbstoptimierung durch Retrospektiven/Erhöhung der Zufriedenheit
Daily Scrum fördert Austausch im Team
Höhere Effizienz und besseres Verständnis der Anforderungen durch Planning Poker
16.4.3Herausforderungen
Was ist das Produkt?
Agile Teams in nicht agilem Umfeld
Einführung von Scrum durch gemeinsames Testen und Lernen
Die Schlüsselrolle des Product Owners
Durchführung von Sprint-Reviews
16.5Empfehlungen. Scrum-Werte
Projektorganisation und Einbettung in den organisatorischen Kontext
Konkrete Ausgestaltung von Scrum für Data Science
Einführung von Scrum
Product-Owner-Rolle besetzen
Sprint-Länge
Aufwandsschätzungen
Sprint-Reviews und Kommunikation
Selbstorganisation und Arbeitsatmosphäre
Retrospektiven und Selbstoptimierung
16.6Fazit
17Der Analytics-Beitrag zu einer Added-Value-Strategie am Beispiel eines Kundenkartenunternehmens. Matthias Meyer
17.1Geschäftsmodell eines Multipartnerprogramms
17.2Kundenbindung und Kundenbindungsinstrumente
17.3Funktionen und Services eines Multipartnerprogrammbetreibers
17.3.1Funktionen
17.3.2Services und Vorteile aus Nutzer- und aus Partnerperspektive
17.4Konkrete Herausforderungen des betrachteten Multipartnerprogrammbetreibers
17.5Added-Value-Strategie. 17.5.1Hintergrund und Zielsetzung
17.5.2Ausgangspunkt Datenbasis
17.6Pilotierung ausgewählter Analytics-Ansätze. 17.6.1Analytische Ansatzpunkte
17.6.2Pilotierung. Segmentorientierte Kampagnen
Branding und Promotions
17.7Fazit
18Künstliche Intelligenz bei der Zurich Versicherung – Anwendungen und Beispiele. Michael Zimmer · Jörg Narr · Ariane Horbach · Markus Hatterscheid
18.1Herausforderungen innerhalb der Versicherungsbranche
18.2KI bei der Zurich Versicherung
18.3Anwendungsfälle
18.3.1Analyse von Leistungsinformationen mithilfe von MedEye
Nutzen für die Zurich
18.3.2Bilderkennung im Antragsprozess der Motorfahrzeugversicherung in der Schweiz
Nutzen für Zurich
18.3.3Betrugserkennung im Kfz-Bereich
Nutzen für Zurich
18.3.4Verbesserung der Kundeninteraktion und des Kundenmanagements mit den Swiss Platform for Analytical and Cognitive Enterprise (SPACE) Services
Nutzen für Zurich
18.4Fazit
AAutoren
BAbkürzungen
CLiteraturverzeichnis
Fußnoten. 1Einleitung
2(Advanced) Analytics is the new BI?
3Data Science und künstliche Intelligenz – der Schlüssel zum Erfolg?
4Konzeption und Entwicklung von Data-driven Products/Datenprodukten
7Deep Learning
8Von einer BI-Landschaft zum Data & Analytics-Ökosystem
9Self-Service und Governance im Data-Science-Umfeld: der emanzipierte Anwender
12Customer Churn mit Keras/TensorFlow und H2O
14Analytics im Onlinehandel
15Predictive Maintenance
18Künstliche Intelligenz bei der Zurich Versicherung – Anwendungen und Beispiele
Index. A
B
C
D
E
F
G
H
I
K
L
M
N
O
P
Q
R
S
T
U
V
W
Z
Отрывок из книги
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe – Technik und Wirtschaft. Dort vertritt er u. a. die Bereiche Business Intelligence und Geschäftsprozessmanagement im Fachgebiet Informatik. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Self-Service-BI und Analytics.
Prof. Dr. Stephan Trahasch ist Professor für betriebliche Kommunikationssysteme und IT-Sicherheit an der Hochschule Offenburg. Seine Forschungsschwerpunkte liegen in den Bereichen Data Mining, Big Data und Agile Business Intelligence. In Forschungsprojekten beschäftigt er sich mit der praktischen Anwendung von Data Mining und Big-Data-Technologien und deren Herausforderungen in Unternehmen. Er ist Leiter des Institute for Machine Learning and Analytics und Mitglied der Forschungsgruppe Analytics und Data Science an der Hochschule Offenburg.
.....
9.4Self-Service-Datenaufbereitung und Data Science
9.5Self-Service-Datenaufbereitung vs. ETL
.....