Ihre E-Mail wurde erfolgreich gesendet. Bitte prüfen Sie Ihren Maileingang.

Leider ist ein Fehler beim E-Mail-Versand aufgetreten. Bitte versuchen Sie es erneut.

Vorgang fortführen?

Exportieren
Filter
Medientyp
Region
Bibliothek
Erscheinungszeitraum
Schlagwörter
  • 1
    UID:
    kobvindex_ERBEBC1574457
    Umfang: 1 online resource (268 pages)
    Ausgabe: 1
    ISBN: 9783864914072
    Serie: Edition TDWI
    Inhalt: Business-Intelligence- und Data-Warehouse-Projekte sind anders. Entsprechend andersartig sind auch die in diesem Bereich eingesetzten Testverfahren und -methoden. Praxisorientiert und systematisch beschreibt dieses Buch das Testen von analytischen Systemen und stellt die besonderen Anforderungen hierbei heraus. Es erörtert, welche Tests in den verschiedenen Szenarien sinnvoll sind und wie eine realistische Planung und Vorbereitung eines Testprozesses aussieht. Ausgehend von einem Referenzmodell für das Testen werden Elemente gängiger Testkonzepte sowie Normen und Standards übertragen. Des Weiteren behandeln die Autoren spezifische Methoden wie datengetriebene Tests und gehen auch auf Wirtschaftlichkeitsaspekte und die menschliche Seite beim Testen ein. Dabei verdeutlichen mehrere Praxisbeispiele die Theorie. Direkt anwendbare Checklisten ermöglichen einen schnellen Transfer in die eigene berufliche Praxis. Aus dem Inhalt: Testen von analytischen Systemen Testfälle und Definition von Fehlerkategorien Einfluss der Daten aufs Testen Testorganisation, -infrastruktur und -betrieb Testen nach Projektmodellen Bibliothek von Standardtestfällen Dokumentenvorlagen Im Anhang befindet sich u.a. ein ausführliches Glossar. In der Edition TDWI erscheinen Titel, die vom dpunkt.verlag gemeinsam mit dem TDWI Germany e.V. ausgewählt und konzipiert werden. Inhaltliche Schwerpunkte dieser Reihe sind Business Intelligence und Data Warehousing.   Biographische Informationen Herbert Stauffer ist seit über 20 Jahren Projektleiter, Systemarchitekt und Dozent für Business Intelligence und Data Warehousing. Er ist seit 2008 Co-Leiter des TDWI-Roundtable in Zürich. Seine Arbeitsschwerpunkte sind Systemarchitektur und multidimensionale Datenmodelle sowie qualitative Themen wie Datenqualität und Testen. Beat Honegger ist Senior BI-Consultant und Partner bei der plus-IT
    Inhalt: AG in Winterthur. In allen seinen Tätigkeiten als Softwareentwickler, Testing-Consultant, CRM-Berater und seit 10 Jahren als BI-Consultant, Dozent und Instructor war und ist das Testen für ihn eine wichtige Grundlage für erfolgreiche Projekte. Hanspeter Gisin ist Projektleiter, Data-Warehouse-Designer und SAP BO Instructor und auch als Dozent tätig. Er entwickelt seit mehr als 20 Jahren maßgeschneiderte Business-Intelligence-Lösungen für diverse Kunden. Seine Tätigkeiten umfassen die gesamte Palette von der Aufnahme der Requirements über das Data-Warehouse-Design bis hin zur Reporterstellung.
    Anmerkung: Intro -- Vorwort -- 1 Einführung -- 1.1 Ungenügendes Testen ist leider Praxis -- 1.2 Wirtschaftlichkeit des Testens -- 1.3 Vollständiges Testen ist nicht möglich -- 1.4 Gegenüberstellung von BI- mit klassischen Projekten -- 1.5 Einfluss von Daten aufs Testen -- 1.6 Die 7 Prinzipien des Testens -- 1.7 Validieren und Verifizieren -- 1.8 Was Testen nicht kann -- 2 Referenzmodell für das Testen -- 2.1 Drei Phasen des Testprozesses -- 2.2 Organisation -- 2.2.1 Ebene Testmanagement -- 2.2.2 Ebene Testoperation -- 2.3 Elemente -- 2.3.1 Aktivitäten -- 2.3.2 Menschen und Rollen -- 2.3.3 Werkzeuge (Tools und Daten) und Hilfsmittel -- 2.4 Im Dreiklang: Organisation, Elemente und Phasen -- 2.4.1 »Würfel« in der Phase Planung -- 2.4.2 »Würfel« in der Phase Durchführung -- 2.4.3 »Würfel« in der Phase Abschluss -- 3 Methoden und Standards -- 3.1 V-Modell -- 3.2 IEEE -- 3.2.1 IEEE 829 - Software Test Documentation -- 3.2.2 IEEE 1008 - Unit Testing -- 3.2.3 IEEE 1012 - Software Verification and Validation -- 3.3 Rational Unified Process (RUP) -- 3.4 ISO -- 3.4.1 ISO/IEC 9126 - Qualitätsmerkmale -- 3.4.2 ISO/IEC 29119 -- 3.5 Cabinet Office -- 3.5.1 ITIL 2011 - Validation and Testing -- 3.5.2 PRINCE2 -- 3.6 ISACA -- 3.6.1 COBIT -- 3.6.2 CONCT -- 4 Definition von geeigneten Testfällen und Fehlerkategorien -- 4.1 Bestimmung von zu testenden Komponenten -- 4.1.1 Schritt 1: Aufzeichnen des gesamten Systems -- 4.1.2 Schritt 2: Kennzeichnen der Komponenten -- 4.1.3 Schritt 3: Ableiten der Testfälle -- 4.2 Zu prüfende Qualitätsmerkmale (nach ISO 9126) -- 4.2.1 Funktionalität (engl. Functionality) -- 4.2.2 Benutzbarkeit (engl. Usability) -- 4.2.3 Zuverlässigkeit (engl. Reliability) -- 4.2.4 Effizienz (engl. Efficiency) -- 4.2.5 Wartbarkeit (engl. Maintainability) -- 4.2.6 Übertragbarkeit (engl. Portability) -- 4.3 Testmethoden und Testarten -- 4.3.1 Statische Testverfahren , 4.3.2 Dynamische Testverfahren -- 4.3.3 Gliederung der Testverfahren nach verschiedenen Kriterien -- 4.4 Teststufen -- 4.5 Definition und Beschreibung von Testfällen -- 4.6 Vereinfachte Testfälle mithilfe von Checklisten -- 4.7 Fehlerkategorien -- 5 Einfluss der Daten aufs Testen -- 5.1 Datengetriebene Testfälle als Schwerpunkt in Business Intelligence -- 5.1.1 Datenqualität - Validieren -- 5.1.2 Datenqualität - Verifizieren -- 5.1.3 Funktionale Softwarequalität in Bezug zu den Daten -- 5.1.4 Nicht funktionale Softwarequalität in Bezug zu den Daten -- 5.1.5 Bedeutung von datengetriebenen Testfällen -- 5.2 Datenqualität und Testen - ein fließender Übergang -- 5.3 Berücksichtigung der Data Governance -- 5.3.1 Daten als Werte -- 5.3.2 Daten als Eigentum (organisatorische Rollen) -- 5.3.3 Hilfsmittel (Einsatz von Tools) -- 6 Testorganisation, -infrastruktur und -betrieb -- 6.1 Berücksichtigen der verschiedenen Systemumgebungen -- 6.1.1 1-System-Landschaft -- 6.1.2 2-Systeme-Landschaft -- 6.1.3 3-Systeme-Landschaft -- 6.1.4 4-Systeme-Landschaft -- 6.1.5 5-Systeme-Landschaft -- 6.2 Testdatenmanagement -- 6.2.1 Definition von geeigneten Sets -- 6.2.2 Anonymisieren und Verändern -- 6.2.3 Berechtigungen -- 6.2.4 Generieren von Testdaten -- 6.3 Testen in Szenarios -- 6.4 Vorbereiten des Testbetriebs -- 6.4.1 Systeme bereitstellen -- 6.4.2 Schulung der Tester (Test der Schulung) -- 6.4.3 Minimales Kommunikationskonzept -- 6.5 Testbetrieb -- 6.5.1 Aufgaben des Testmanagements -- 6.5.2 Iterativer Prozess auf der Ebene Testoperation -- 6.5.3 Rolle des Dispatchers -- 6.5.4 Auswirkung von neuen Versionen auf Testfälle -- 6.6 Logs -- 6.6.1 Testlog -- 6.6.2 Fehlerlog -- 6.7 Auswertungen und Reports -- 6.8 Abschluss -- 6.8.1 Schlussbericht -- 6.8.2 Systeme bereinigen -- 6.8.3 Lessons Learned -- 6.8.4 Transfer -- 7 Die menschliche Seite beim Testen , 7.1 Rollen im Testprozess -- 7.2 Rollenkonflikt zwischen Softwareentwickler und Tester -- 7.3 Rollenkonflikt zwischen Projektleiter und Testmanager -- 7.4 Zwei Risikotypen des Auftraggebers in der Testphase -- 7.5 Nachlassende Aufmerksamkeit bei Testern -- 7.6 Wirtschaftlichkeit versus Ethik und Moral -- 8 Testen nach Projektmodellen -- 8.1 Phasenmodelle -- 8.2 Iteratives Projektvorgehen -- 8.3 Prototyping -- 8.4 Agile Projektmethoden -- 9 Sonderthemen -- 9.1 Bewertung der verschiedenen Methoden und Standards -- 9.2 Checkliste von vermeidbaren Fehlern im Testmanagement -- 9.3 Einsatz von Softwaretools -- 9.3.1 Kategorien -- 9.3.2 Testautomatisierung -- 9.3.3 Debugger -- 9.3.4 Fehlernachverfolgung -- 9.4 RACI-Matrix im Testprozess -- 9.5 Session Based Testing -- 9.6 Testen im Umfeld neuer Technologietrends -- 9.7 Einsatz von spezialisierten Testteams -- 9.8 Zwei besonders zu beachtende Situationen -- 9.8.1 Situation 1: Wenn das Testsystem zur Produktion light mutiert -- 9.8.2 Situation 2: Korrekte Aufwandschätzung bei 1:1-Ablösung -- 9.9 Die Aus- und Weiterbildung zum Certified Tester -- 10 Bibliothek von Standardtestfällen -- 10.1 Architekturmodell und Komponenten -- 10.2 Standardtestfälle -- 10.2.1 Generelle Testfälle -- 10.2.2 Datenintegration und Schnittstellen zu den Datenquellen -- 10.2.3 Datenspeicherung -- 10.2.4 Informationsbereitstellung -- 10.2.5 Plattform und Infrastruktur -- 10.2.6 Externe Systeme und Prozesse -- 10.3 Datengetriebene Testfälle -- 10.4 Spezielle Projektsituationen -- 10.5 Kontrollpunkte im Auditprozess -- 10.5.1 Datenquellen und Schnittstellen -- 10.5.2 Datenintegration -- 10.5.3 Persistente Datenhaltung -- 10.5.4 Informationsbereitstellung und Informationsempfänger -- 10.5.5 Plattform -- 11 Dokumentenvorlagen -- 11.1 Testkonzept -- 11.1.1 Testkonzept (Master Plan) -- 11.1.2 Inhalt -- 11.1.3 Einleitung , 11.1.4 Werkzeuge, Techniken, Methoden und Metriken -- 11.1.5 Detailtestplanung -- 11.1.6 Logs und Dokumente -- 11.1.7 Testdurchführung -- 11.1.8 Abschluss -- 11.1.9 Anhang -- 11.2 Testfallspezifikation -- 11.3 Testlog -- 11.4 Fehlerlog -- 12 Anhang -- 12.1 Literaturliste -- 12.2 Weblinks -- 12.3 Begriffsübersetzung Englisch-Deutsch -- 12.4 Glossar -- 12.5 Nachweis der verwendeten Grafiken -- Index -- A -- B -- C -- D -- E -- F -- G -- I -- K -- L -- M -- N -- P -- Q -- R -- S -- T -- U -- V -- W -- X -- Z -- Ziffern
    Weitere Ausg.: Print version: Stauffer, Herbert Testen von Data-Warehouse- und Business-Intelligence-Systemen Heidelberg : dpunkt.verlag,c2013 ISBN 9783864900723
    Schlagwort(e): Electronic books.
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
Schließen ⊗
Diese Webseite nutzt Cookies und das Analyse-Tool Matomo. Weitere Informationen finden Sie auf den KOBV Seiten zum Datenschutz