UID:
kobvindex_ERBEBC6550117
Format:
1 online resource (392 pages)
Edition:
2
ISBN:
9783969101520
Series Statement:
Edition TDWI
Note:
Intro -- Vorwort zur 2. Auflage -- Vorwort -- Inhaltsübersicht -- Inhaltsverzeichnis -- 1 Einleitung -- 1.1 Von Business Intelligence zu Data Science -- 1.2 Data Science und angrenzende Gebiete -- 1.3 Vorgehen in Data-Science-Projekten -- 1.4 Struktur des Buches -- 2 (Advanced) Analytics is the new BI? -- 2.1 Geschichte wiederholt sich? -- Gut Ding will Weile haben -- Die Technologie muss bereitstehen -- »Garbage in, garbage out« -- Don't be too fast -- Die unterschätzte Bedeutung der Informationsbedarfsanalyse -- Neue organisatorische Strukturen, Regelungen und Rollen -- 2.2 Die DIKW-Pyramide erklimmen -- 2.3 Vom Nebeneinander zum Miteinander -- 2.4 Fazit -- 3 Data Science und künstliche Intelligenz - der Schlüssel zum Erfolg? -- 3.1 Zwischen Euphorie und Pragmatismus -- 3.2 Wann ist Data Science und KI das Mittel der Wahl? -- 3.3 Realistische Erwartungen und klare Herausforderungen -- Prozess- und strukturorientierte Implementierung -- 3.4 Aus der Praxis -- 3.4.1 Die Automobilbranche als Beispiel -- 3.4.1.1 Machen Sie Ihren Kunden ein Angebot, das sie nicht ausschlagen können -- 3.4.1.2 Spinning the Customer Life Cycle - Schaffen Sie mehr als eine Runde? -- Komponenten auf dem Weg zu personalisierten Massenangeboten -- Das nächstbeste Auto -- Das nächste Finanzierungsmodell -- Die Wahrscheinlichkeit eines Neuwagenkaufs -- Der Restwert eines Gebrauchtwagens -- Upselling -- Welche Kampagne sich für welche Autoserie eignet -- 3.5 Fazit -- 4 Konzeption und Entwicklung von Data-driven Products/Datenprodukten -- 4.1 Einleitung -- 4.2 Datenprodukte -- 4.2.1 Definition -- 4.2.2 Beispiele für Datenprodukte -- Google Recaptcha -- Tesla Autopilot -- Deutsche Post: AddressFactory -- Medienagenturen: Allokation der Werbebudgets -- 4.2.3 Herausforderungen des Produktmanagements für Datenprodukte -- 4.3 Digitale Produktentwicklung -- 4.3.1 Produktmanagement
,
4.3.2 Agile Entwicklung -- 4.3.3 Lean Startup -- 4.3.4 Data Science -- 4.3.5 Data-centric Business Models -- 4.4 Datenprodukte definieren -- 4.4.1 Ideengenerierung für Datenprodukte entlang der Customer Journey -- 4.4.2 Value Propositions von Datenprodukten -- 4.4.3 Ziele und Messung -- 4.4.4 Die Erwartung an die Güte des Modells bestimmen -- 4.4.5 Mit dem Datenprodukt beginnen -- 4.4.6 Kontinuierliche Verbesserung mit der Datenwertschöpfungskette -- 4.4.7 Skalierung und Alleinstellungsmerkmal -- 4.5 Kritischer Erfolgsfaktor Feedbackschleife -- Zieldefinition -- Wert für den Nutzer -- Flow -- Community pflegen -- Serendipität -- Klein anfangen -- Platform Mindset: Nutzung für verschiedene Produkte -- 4.6 Organisatorische Anforderungen -- 4.7 Technische Anforderungen -- 4.8 Fazit -- 5 Grundlegende Methoden der Data Science -- 5.1 Einleitung -- 5.2 Data Understanding und Data Preparation -- 5.2.1 Explorative Datenanalyse -- 5.2.2 Transformation und Normalisierung -- 5.3 Überwachte Lernverfahren -- 5.3.1 Datenaufteilung -- 5.3.2 Bias-Variance-Tradeoff -- 5.3.3 Klassifikationsverfahren -- 5.4 Unüberwachte Lernverfahren und Clustering -- 5.5 Reinforcement Learning -- 5.5.1 Aspekte des Reinforcement Learning -- 5.5.2 Bestandteile eines Reinforcement-Learning-Systems -- 5.6 Evaluation -- 5.6.1 Ausgewählte Qualitätsmaße im Kontext von Klassifikationsaufgabenstellungen -- 5.6.2 Ausgewählte Qualitätsmaße im Kontext von Clusterungen -- 5.7 Weitere Ansätze -- 5.7.1 Deep Learning -- 5.7.2 Cognitive Computing -- 5.8 Fazit -- 6 Feature Selection -- 6.1 Weniger ist mehr -- 6.2 Einführung in die Feature Selection -- 6.2.1 Definition -- 6.2.2 Abgrenzung -- 6.3 Ansätze der Feature Selection -- 6.3.1 Der Filter-Ansatz -- 6.3.2 Der Wrapper-Ansatz -- 6.3.3 Der Embedded-Ansatz -- 6.3.4 Vergleich der drei Ansätze -- 6.4 Feature Selection in der Praxis -- 6.4.1 Empfehlungen
,
6.4.2 Anwendungsbeispiel -- 6.5 Fazit -- 7 Deep Learning -- Was ist Deep Learning? -- Warum ist Deep Learning gerade jetzt so aktuell? -- 7.1 Grundlagen neuronaler Netzwerke -- 7.1.1 Menschliches Gehirn -- 7.1.2 Modell eines Neurons -- 7.1.3 Perzeptron -- 7.1.4 Backpropagation-Netzwerke -- 7.2 Deep Convolutional Neural Networks -- 7.2.1 Convolution-Schicht -- 7.2.2 Pooling-Schicht -- 7.2.3 Fully-Connected-Schicht -- 7.3 Deep Reinforcement Learning -- 7.4 Anwendung von Deep Learning -- 7.4.1 Sweaty -- 7.4.2 AudiCup -- 7.4.3 DRL im RoboCup -- 7.4.4 Deep-Learning-Frameworks -- 7.4.5 Standarddatensätze -- 7.4.6 Standardmodelle -- 7.4.7 Weitere Anwendungen -- 7.5 Fazit -- 8 Von einer BI-Landschaft zum Data & -- Analytics-Ökosystem -- 8.1 Einleitung -- 8.2 Komponenten analytischer Ökosysteme -- 8.3 Vom Reporting zur industrialisierten Data Science -- 8.4 Data Science und Agilität -- 8.5 Entwicklungs-, Test- und Produktionsumgebungen für Data Science -- 8.6 Vom Spielplatz für Innovation zur Serienfertigung -- 8.7 Anwendungsbeispiel -- 8.8 Fazit -- 9 Self-Service und Governance im Data-Science-Umfeld: der emanzipierte Anwender -- 9.1 Einleitung -- 9.2 Self-Service-Angebote für Data & -- Analytics -- 9.3 Data Governance und Self-Service -- 9.4 Self-Service-Datenaufbereitung und Data Science -- 9.5 Self-Service-Datenaufbereitung vs. ETL -- 9.6 Bimodale Data & -- Analytics: Segen oder Fluch? -- 9.7 Entwicklungen im Self-Service-Bereich -- 9.7.1 AutoML als Data-Scientist-Ersatz? -- 9.7.2 Augmented Analytics -- 9.8 Fazit -- 10 Data Privacy -- 10.1 Die Rolle von Data Privacy für Analytics und Big Data -- 10.2 Rechtliche und technische Ausgestaltung von Data Privacy -- 10.2.1 Rechtliche Bestimmungen zu Data Privacy -- 10.2.2 Technische und methodische Ansätze zur Schaffung von Data Privacy -- 10.3 Data Privacy im Kontext des Analytics Lifecycle
,
10.3.1 Ideen generieren -- 10.3.2 Prototypen entwickeln -- 10.3.3 Implementieren der Lösung -- 10.4 Diskussion und Fazit -- 11 Gespräch zur digitalen Ethik -- Fallstudien -- 12 Customer Churn mit Keras/TensorFlow und H2O -- 12.1 Was ist Customer Churn? -- 12.1.1 Wie kann Predictive Analytics bei dem Problem helfen? -- 12.1.2 Wie können wir Customer Churn vorhersagen? -- 12.2 Fallstudie -- 12.2.1 Der Beispieldatensatz -- Explorative Datenanalyse -- 12.2.2 Vorverarbeitung der Daten -- 12.2.3 Neuronale Netze mit Keras und TensorFlow -- 12.2.4 Stacked Ensembles mit H2O -- 12.3 Bewertung der Customer-Churn-Modelle -- 12.3.1 Kosten-Nutzen-Kalkulation -- 12.3.2 Erklärbarkeit von Customer-Churn-Modellen -- 12.4 Zusammenfassung und Fazit -- 13 Wirtschaftlichkeitsbetrachtung bei der Auswahl & -- Entwicklung von Data Science -- Eine Fallstudie im Online-Lebensmitteleinzelhandel -- 13.1 Herausforderungen in der Praxis -- 13.1.1 Data-Science-Anwendungen im Online-LEH -- 13.1.2 Auswahl und Umsetzung wirtschaftlicher Anwendungsfälle -- Vorauswahl -- Entwicklung von Prototypen -- Agile testgetriebene Produkt- und Prozessentwicklung -- 13.2 Fallstudie: Kaufempfehlungssysteme im Online-Lebensmitteleinzelhandel -- 13.2.1 Vorabanalysen zur Platzierung von Empfehlungen -- 13.2.2 Prototypische Entwicklung eines Empfehlungsalgorithmus -- 13.2.3 MVP und testgetriebene Entwicklung der Recommendation Engine -- 13.3 Fazit -- 14 Analytics im Onlinehandel -- 14.1 Einleitung -- 14.2 Maschinelles Lernen: von der Uni zu Unternehmen -- 14.3 Wie arbeiten Data Scientists und Programmierer zusammen? -- 14.4 Architekturmuster, um maschinelle Lernmethoden produktiv zu nehmen -- 14.4.1 Architekturmuster des maschinellen Lernens -- 14.4.2 Architekturmuster, um Modelle auszuliefern -- 14.4.3 Datenvorverarbeitung und Feature-Extraktion -- 14.4.4 Automation und Monitoring
,
14.4.5 Integrationsmuster für maschinelles Lernen -- 14.5 Was kann man sonst auf Firmenebene tun, um Data Science zu unterstützen? -- 14.6 Fazit -- 15 Predictive Maintenance -- 15.1 Einleitung -- 15.2 Was ist Instandhaltung? -- 15.2.1 Folgen mangelhafter Instandhaltung -- 15.2.2 Wettbewerbsfähige Produktion -- 15.3 Instandhaltungsstrategien -- 15.3.1 Reaktive Instandhaltung -- 15.3.2 Vorbeugende Instandhaltung -- 15.3.3 Vorausschauende Instandhaltung (Predictive Maintenance) -- 15.4 Prozessphasen der vorausschauenden Instandhaltung -- 15.4.1 Datenerfassung und -übertragung -- 15.4.2 Datenanalyse und Vorhersage -- 15.4.2.1 Unüberwachte Verfahren -- Komponentenanalyse -- Ereigniszeitanalyse -- Anomalieerkennung -- Clustering -- 15.4.2.2 Überwachte Verfahren -- Klassifizierung -- Regression -- 15.4.3 Planung und Ausführung -- 15.5 Fallbeispiele -- 15.5.1 Heidelberger Druckmaschinen -- 15.5.2 Verschleißmessung bei einem Werkzeugmaschinenhersteller -- 15.5.3 Vorausschauende Instandhaltung in der IT -- 15.6 Fazit -- 16 Scrum in Data-Science-Projekten -- 16.1 Einleitung -- 16.2 Kurzüberblick Scrum -- 16.3 Data-Science-Projekte in der Praxis -- 16.4 Der Einsatz von Scrum in Data-Science-Projekten -- 16.4.1 Eigene Adaption -- Teamaufstellung -- Aktivitäten -- Artefakte -- Tools -- 16.4.2 Realisierte Vorteile -- Schnelle Adaption an neue Voraussetzungen -- Sprint-Reviews in kurzen Zyklen ermöglichen Risikominimierung durch umfassendere Transparenz über den Fortschritt -- Qualitätssteigerungen durch Transparenz und Selbstorganisation des Teams -- Scrum schafft gute Rahmenbedingungen für den Aufbau eines Data-Science-Teams -- Motivation durch Wertschätzung und Anerkennung in Sprint-Reviews -- Fokus als zentraler Scrum-Wert hilft, die wesentlichen Ziele ständig zu verfolgen -- Institutionalisierte Selbstoptimierung durch Retrospektiven/Erhöhung der Zufriedenheit
,
Daily Scrum fördert Austausch im Team
Additional Edition:
Print version: Haneke, Uwe Data Science Heidelberg : dpunkt.verlag,c2021 ISBN 9783864908224
Keywords:
Electronic books.
URL:
https://ebookcentral.proquest.com/lib/th-brandenburg/detail.action?docID=6550117
Bookmarklink