Ihre E-Mail wurde erfolgreich gesendet. Bitte prüfen Sie Ihren Maileingang.

Leider ist ein Fehler beim E-Mail-Versand aufgetreten. Bitte versuchen Sie es erneut.

Vorgang fortführen?

Exportieren
  • 1
    UID:
    kobvindex_ERBEBC6947691
    Umfang: 1 online resource (448 pages)
    Ausgabe: 1
    ISBN: 9783958458390
    Anmerkung: Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Einleitung -- Über dieses Buch -- Wer sollte dieses Buch lesen? -- Überblick -- Erforderliche Hard- und Software -- Quellcode -- Das Forum zum Buch -- Über den Autor -- Über den Fachkorrektor -- Danksagungen -- Teil I: Grundlagen des Deep Learnings -- Kapitel 1: Was ist Deep Learning? -- 1.1 Künstliche Intelligenz, Machine Learning und Deep Learning -- 1.1.1 Künstliche Intelligenz -- 1.1.2 Machine Learning -- 1.1.3 Die Repräsentation anhand der Daten erlernen -- 1.1.4 Das »Deep« in Deep Learning -- 1.1.5 Deep Learning in drei Diagrammen erklärt -- 1.1.6 Was Deep Learning heute schon leisten kann -- 1.1.7 Schenken Sie dem kurzfristigen Hype keinen Glauben -- 1.1.8 Das Versprechen der KI -- 1.2 Vor Deep Learning: eine kurze Geschichte des Machine Learnings -- 1.2.1 Probabilistische Modellierung -- 1.2.2 Die ersten neuronalen Netze -- 1.2.3 Kernel-Methoden -- 1.2.4 Entscheidungsbäume, Random Forests und Gradient Boosting Machines -- 1.2.5 Zurück zu neuronalen Netzen -- 1.2.6 Das Besondere am Deep Learning -- 1.2.7 Der Stand des modernen Machine-Learnings -- 1.3 Warum Deep Learning? Und warum jetzt? -- 1.3.1 Hardware -- 1.3.2 Daten -- 1.3.3 Algorithmen -- 1.3.4 Eine neue Investitionswelle -- 1.3.5 Die Demokratisierung des Deep Learnings -- 1.3.6 Bleibt es so? -- Kapitel 2: Bevor es losgeht: die mathematischen Bausteine eines NNs -- 2.1 Ein erster Blick auf ein NN -- 2.2 Datenrepräsentationen -- 2.2.1 Skalare (0-D-Tensoren) -- 2.2.2 Vektoren (1-D-Tensoren) -- 2.2.3 Matrizen (2-D-Tensoren) -- 2.2.4 3-D-Tensoren und höherdimensionale Tensoren -- 2.2.5 Die wichtigsten Attribute -- 2.2.6 Bearbeiten von Tensoren mit Numpy -- 2.2.7 Datenstapel -- 2.2.8 Beispiele für Datentensoren aus der Praxis -- 2.2.9 Vektordaten -- 2.2.10 Zeitreihen oder sequenzielle Daten -- 2.2.11 Bilddaten -- 2.2.12 Videodaten , 2.3 Das Getriebe von NNs: Tensoroperationen -- 2.3.1 Elementweise Operationen -- 2.3.2 Broadcasting -- 2.3.3 Tensorprodukt -- 2.3.4 Tensoren umformen -- 2.3.5 Geometrische Interpretation von Tensoroperationen -- 2.3.6 Eine geometrische Interpretation des Deep Learnings -- 2.4 Der Antrieb von NNs: gradientenbasierte Optimierung -- 2.4.1 Was ist eine Ableitung? -- 2.4.2 Ableitung einer Tensoroperation: der Gradient -- 2.4.3 Stochastisches Gradientenabstiegsverfahren -- 2.4.4 Ableitungen verketten: der Backpropagation-Algorithmus -- 2.5 Zurück zum ersten Beispiel -- 2.6 Zusammenfassung Kapitel 2 -- Kapitel 3: Einführung in neuronale Netze -- 3.1 Aufbau eines NNs -- 3.1.1 Layer: Bausteine des Deep Learnings -- 3.1.2 Modelle: vernetzte Layer -- 3.1.3 Verlustfunktionen und Optimierer: Konfiguration des Lernvorgangs -- 3.2 Einführung in Keras -- 3.2.1 Keras, TensorFlow, Theano und CNTK -- 3.2.2 Mit Keras entwickeln: eine kurze Übersicht -- 3.3 Einrichtung eines Deep-Learning-Rechners -- 3.3.1 Die bevorzugte Methode zum Ausführen von Deep-Learning- Experimenten: Jupyter-Notebooks -- 3.3.2 Keras zum Laufen bringen: zwei Möglichkeiten -- 3.3.3 Pro und Kontra: Deep Learning in der Cloud ausführen -- 3.3.4 Für Deep Learning geeignete GPUs -- 3.4 Klassifizierung von Filmbewertungen: ein Beispiel für eine Binärklassifizierung -- 3.4.1 Die IMDb-Datensammlung -- 3.4.2 Daten vorbereiten -- 3.4.3 NN erzeugen -- 3.4.4 Validierung des Ansatzes -- 3.4.5 Vorhersagen über neue Daten mit einem trainierten NN treffen -- 3.4.6 Weitere Experimente -- 3.4.7 Zusammenfassung -- 3.5 Ein Beispiel für eine Mehrfachklassifizierung: Klassifizierung von Nachrichtenmeldungen -- 3.5.1 Die Reuters-Datensammlung -- 3.5.2 Daten vorbereiten -- 3.5.3 NN erzeugen -- 3.5.4 Validierung des Ansatzes -- 3.5.5 Vorhersagen über neue Daten treffen , 3.5.6 Eine weitere Möglichkeit zur Handhabung der Klassenbezeichnungen und der Verlustfunktion -- 3.5.7 Hinreichend große zwischenliegende Layer sind wichtig -- 3.5.8 Weitere Experimente -- 3.5.9 Zusammenfassung -- 3.6 Ein Beispiel für eine Regression: Vorhersage der Kaufpreise von Häusern -- 3.6.1 Die Boston-Housing-Price-Datensammlung -- 3.6.2 Daten vorbereiten -- 3.6.3 NN erzeugen -- 3.6.4 K-fache Kreuzvalidierungen des Ansatzes -- 3.6.5 Zusammenfassung -- 3.7 Zusammenfassung Kapitel 3 -- Kapitel 4: Grundlagen des Machine Learnings -- 4.1 Vier Teilgebiete des Machine Learnings -- 4.1.1 Überwachtes Lernen -- 4.1.2 Unüberwachtes Lernen -- 4.1.3 Selbstüberwachtes Lernen -- 4.1.4 Verstärkendes Lernen -- 4.1.5 Glossar: Klassifizierung und Regression -- 4.2 Bewertung von Machine-Learning-Modellen -- 4.2.1 Trainings-, Validierungs- und Testmengen -- 4.2.2 Worauf zu achten ist -- 4.3 Datenvorverarbeitung, Merkmalserstellung und Erlernen von Merkmalen -- 4.3.1 Datenvorverarbeitung für NNs -- 4.3.2 Merkmalserstellung -- 4.4 Überanpassung und Unteranpassung -- 4.4.1 Das NN verkleinern -- 4.4.2 Regularisierung der Gewichtungen -- 4.4.3 Dropout-Regularisierung -- 4.5 Ein allgemeiner Machine-Learning-Workflow -- 4.5.1 Definition der Aufgabe und Zusammenstellen einer Datenmenge -- 4.5.2 Auswahl eines Erfolgskriteriums -- 4.5.3 Auswahl einer Bewertungsmethode -- 4.5.4 Daten vorbereiten -- 4.5.5 Entwicklung eines Modells, das besser funktioniert als zufälliges Raten -- 4.5.6 Hochskalieren: Entwicklung eines Modells mit Überanpassung -- 4.5.7 Regularisierung des Modells und Abstimmung der Hyperparameter -- 4.6 Zusammenfassung Kapitel 4 -- Teil II: Deep Learning in der Praxis -- Kapitel 5: Deep Learning und maschinelles Sehen -- 5.1 Einführung in CNNs -- 5.1.1 Die Faltungsoperation -- 5.1.2 Die Max-Pooling-Operation , 5.2 Ein CNN von Grund auf mit einer kleinen Datenmenge trainieren -- 5.2.1 Die Bedeutung des Deep Learnings für Aufgaben mit kleinen Datenmengen -- 5.2.2 Daten herunterladen -- 5.2.3 NN erzeugen -- 5.2.4 Datenvorverarbeitung -- 5.2.5 Datenaugmentation -- 5.3 Verwendung eines vortrainierten CNNs -- 5.3.1 Merkmalsextraktion -- 5.3.2 Feinabstimmung -- 5.3.3 Zusammenfassung -- 5.4 Visualisierung: Was CNNs erlernen können -- 5.4.1 Visualisierung zwischenliegender Aktivierungen -- 5.4.2 Visualisierung von CNN-Filtern -- 5.4.3 Visualisierung der Heatmaps der Klassenaktivierung -- 5.5 Zusammenfassung Kapitel 5 -- Kapitel 6: Deep Learning, Text und sequenzielle Daten -- 6.1 Textdaten -- 6.1.1 One-hot-Codierung von Wörtern und Zeichen -- 6.1.2 Worteinbettung -- 6.1.3 Zusammengefasst: von reinem Text zu Worteinbettungen -- 6.1.4 Zusammenfassung -- 6.2 Rekurrente neuronale Netze -- 6.2.1 Ein rekurrenter Layer in Keras -- 6.2.2 LSTM- und GRU-Layer -- 6.2.3 Ein konkretes LSTM-Beispiel in Keras -- 6.2.4 Zusammenfassung -- 6.3 Erweiterte Nutzung rekurrenter neuronaler Netze -- 6.3.1 Temperaturvorhersage -- 6.3.2 Daten vorbereiten -- 6.3.3 Eine vernünftige Abschätzung ohne Machine Learning -- 6.3.4 Ein elementarer Machine-Learning-Ansatz -- 6.3.5 Ein erstes RNN -- 6.3.6 Rekurrentes Dropout-Verfahren zum Verhindern einer Überanpassung -- 6.3.7 Hintereinanderschaltung rekurrenter Layer -- 6.3.8 Bidirektionale RNNs -- 6.3.9 Noch einen Schritt weiter gehen -- 6.3.10 Zusammenfassung -- 6.4 Verarbeitung von Sequenzen mit CNNs -- 6.4.1 Eindimensionale Faltung sequenzieller Daten -- 6.4.2 Eindimensionales Pooling sequenzieller Daten -- 6.4.3 Implementierung eines eindimensionalen CNNs -- 6.4.4 Lange Sequenzen mit einer Kombination aus CNNs und RNNs verarbeiten -- 6.4.5 Zusammenfassung -- 6.5 Zusammenfassung Kapitel 6 -- Kapitel 7: Bewährte Verfahren des Deep Learnings , 7.1 Jenseits des Sequential-Modells: die funktionale Keras-API -- 7.1.1 Einführung in die funktionale API -- 7.1.2 Modelle mit mehreren Eingaben -- 7.1.3 Modelle mit mehreren Ausgaben -- 7.1.4 Gerichtete azyklische Graphen von Layern -- 7.1.5 Gemeinsam genutzte Gewichtungen von Layern -- 7.1.6 Modelle als Layer -- 7.1.7 Zusammenfassung -- 7.2 Deep-Learning-Modelle mit Callbacks und TensorBoard untersuchen und überwachen -- 7.2.1 Beeinflussung eines Modells während des Trainings durch Callbacks -- 7.2.2 Einführung in das Visualisierungs-Framework TensorBoard -- 7.2.3 Zusammenfassung -- 7.3 Modelle richtig ausreizen -- 7.3.1 Erweiterte Architekturmuster -- 7.3.2 Hyperparameteroptimierung -- 7.3.3 Ensemblemodelle -- 7.3.4 Zusammenfassung -- 7.4 Zusammenfassung Kapitel 7 -- Kapitel 8: Generatives Deep Learning -- 8.1 Texterzeugung mit LSTM-Modellen -- 8.1.1 Eine kurze Geschichte generativer RNNs -- 8.1.2 Wie erzeugt man sequenzielle Daten? -- 8.1.3 Die Bedeutung der Sampling-Strategie -- 8.1.4 Implementierung der LSTM-Texterzeugung für Zeichen -- 8.1.5 Zusammenfassung -- 8.2 DeepDream -- 8.2.1 DeepDream in Keras implementieren -- 8.2.2 Zusammenfassung -- 8.3 Stilübertragung mit dem Neural-Style-Algorithmus -- 8.3.1 Verlustfunktion für den Inhalt -- 8.3.2 Verlustfunktion für den Stil -- 8.3.3 Stilübertragung in Keras -- 8.3.4 Zusammenfassung -- 8.4 Bilderzeugung mit Variational Autoencoders -- 8.4.1 Sampling eines latenten Bilderraums -- 8.4.2 Konzeptvektoren für das Bearbeiten von Bildern -- 8.4.3 Variational Autoencoders -- 8.4.4 Zusammenfassung -- 8.5 Einführung in Generative Adversarial Networks -- 8.5.1 Eine schematische GAN-Implementierung -- 8.5.2 Einige nützliche Tricks -- 8.5.3 Der Generator -- 8.5.4 Der Diskriminator -- 8.5.5 Das gegnerische Netz -- 8.5.6 Training des DCGAN -- 8.5.7 Zusammenfassung -- 8.6 Zusammenfassung Kapitel 8 , Kapitel 9: Schlussfolgerungen
    Weitere Ausg.: Print version: Chollet, François Deep Learning mit Python und Keras Frechen : mitp,c2018
    Schlagwort(e): Electronic books.
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
Schließen ⊗
Diese Webseite nutzt Cookies und das Analyse-Tool Matomo. Weitere Informationen finden Sie auf den KOBV Seiten zum Datenschutz