Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
  • 1
    UID:
    kobvindex_ERBEBC6341803
    Format: 1 online resource (396 pages)
    ISBN: 9783969100257
    Note: Intro -- Inhalt -- Danksagung -- Wie um alles in der Welt ist so etwas möglich? -- Über dieses Buch -- Bevor wir beginnen -- Teil 1: Von null auf Bilderkennung -- Kapitel 1: Einführung in Machine Learning -- Programmierung und Machine Learning im Vergleich -- Überwachtes Lernen -- Die Mathematik hinter dem Zaubertrick -- Das System einrichten -- Kapitel 2: Ihr erstes ML-Programm -- Die Aufgabenstellung -- Pizzavorhersage mit überwachtem Lernen -- Zusammenhänge in den Daten erkennen -- Eine lineare Regression programmieren -- Das Modell definieren -- Eine Vorhersage treffen -- Das Training implementieren -- Los geht's! -- Bias hinzufügen -- Zusammenfassung -- Praktische Übung: Die Lernrate optimieren -- Kapitel 3: Am Gradienten entlang -- Unser Algorithmus bringt es nicht -- Das Gradientenverfahren -- Ein wenig Mathematik -- Abwärts -- Die dritte Dimension -- Partielle Ableitung -- Die Probe aufs Exempel -- Probleme beim Gradientenverfahren -- Zusammenfassung -- Praktische Übung: Über das Ziel hinaus -- Kapitel 4: Hyperräume -- Noch mehr Dimensionen -- Matrizenrechnung -- Matrizen multiplizieren -- Matrizen transponieren -- Das ML-Programm erweitern -- Die Daten aufbereiten -- Die Vorhersagefunktion anpassen -- Die Verlustfunktion anpassen -- Die Gradientenfunktion anpassen -- Der Code im Ganzen -- Bye-bye, Bias! -- Ein letzter Testlauf -- Zusammenfassung -- Praktische Übung: Statistik in der Praxis -- Kapitel 5: Ein binärer Klassifizierer -- Grenzen der linearen Regression -- Invasion der Sigmoiden -- Konfidenz -- Glätten -- Den Gradienten anpassen -- Was ist mit der Modellfunktion geschehen? -- Klassifizierung in Aktion -- Zusammenfassung -- Praktische Übung: Gewichtige Entscheidungen -- Kapitel 6: Eine Aufgabe aus der Praxis -- Die Daten -- MNIST -- Trainings- und Testdatensatz -- Unsere eigene MNIST-Bibliothek , Die Eingabematrizen vorbereiten -- Die Daten aufbereiten -- Anwendung in der Praxis -- Zusammenfassung -- Praktische Übung: Knifflige Ziffern -- Kapitel 7: Die große Herausforderung -- Von zwei zu mehr Klassen -- 1-aus-n-Codierung -- 1-aus-n-Codierung in Aktion -- Die Antworten des Klassifizierers decodieren -- Mehr Gewichte -- Die Matrixdimensionen überprüfen -- Der Augenblick der Wahrheit -- Zusammenfassung -- Praktische Übung: Minensucher -- Kapitel 8: Das Perzeptron -- Gestatten, das Perzeptron! -- Perzeptrone kombinieren -- Die Grenzen von Perzeptronen -- Linear separierbare Daten -- Nicht linear separierbare Daten -- Die Geschichte des Perzeptrons -- Der entscheidende Schlag -- Nachwehen -- Teil 2: Neuronale Netze -- Kapitel 9: Das Netz entwerfen -- Ein neuronales Netz aus Perzeptronen zusammenstellen -- Perzeptrone verketten -- Wie viele Knoten? -- Die Softmax-Funktion -- Der Entwurf -- Zusammenfassung -- Praktische Übung: Auf eigene Faust -- Kapitel 10: Das Netz erstellen -- Die Forward-Propagation programmieren -- Die Softmax-Funktion schreiben -- Die Klassifizierungsfunktionen schreiben -- Kreuzentropie -- Zusammenfassung -- Praktische Übung: Test durch Zeitreise -- Kapitel 11: Das Netz trainieren -- Wozu Backpropagation? -- Von der Kettenregel zur Backpropagation -- Die Kettenregel in einem einfachen Netz -- Es wird komplizierter -- Backpropagation anwenden -- Auf Kurs bleiben -- Den Gradienten von w2 berechnen -- Den Gradienten von w1 berechnen -- Die Funktion back() erstellen -- Die Gewichte initialisieren -- Gefährliche Symmetrie -- Tote Neuronen -- Korrekte Gewichtsinitialisierung -- Das fertige neuronale Netz -- Zusammenfassung -- Praktische Übung: Fehlstart -- Kapitel 12: Funktionsweise von Klassifizierern -- Eine Entscheidungsgrenze einzeichnen -- Heimspiel für das Perzeptron -- Klassifizierung verstehen , Eine Gerade reicht nicht aus -- Die Entscheidungsgrenze krümmen -- Zusammenfassung -- Praktische Übung: Albtraumdaten -- Kapitel 13: Das Mini-Batch-Verfahren -- Der Lernvorgang grafisch dargestellt -- Batch für Batch -- Batches erstellen -- Training mit Batches -- Was geschieht bei verschiedenen Batchgrößen? -- Ein Zickzackpfad -- Große und kleine Batches -- Vor- und Nachteile von Batches -- Zusammenfassung -- Praktische Übung: Das kleinste Batch -- Kapitel 14: Die Kunst des Testens -- Die Gefahr der Überanpassung -- Das Problem mit dem Testdatensatz -- Zusammenfassung -- Praktische Übung: Überlegungen zum Testen -- Kapitel 15: Entwicklung -- Daten aufbereiten -- Den Wertebereich der Eingabevariablen prüfen -- Eingabevariablen standardisieren -- Standardisierung in der Praxis -- Die Hyperparameter anpassen -- Die Anzahl der Epochen festlegen -- Die Anzahl der verdeckten Knoten einstellen -- Die Lernrate einstellen -- Die Batchgröße festlegen -- Der Abschlusstest -- Auf dem Weg zu 99 % -- Praktische Übung: 99 % erreichen -- Zusammenfassung und Vorschau -- Teil 3: Deep Learning -- Kapitel 16: Tiefere Netze -- Der Echidna-Datensatz -- Neuronale Netze mit Keras erstellen -- Den Aufbau des Netzes planen und der erste Code -- Die Daten laden -- Das Modell erstellen -- Das Modell kompilieren -- Das Netz trainieren -- Die Entscheidungsgrenze einzeichnen -- Das Netz ausführen -- Ein tieferes Netz -- Zusammenfassung -- Praktische Übung: Keras-Spielwiese -- Kapitel 17: Überanpassung vermeiden -- Was ist Überanpassung? -- Ursachen der Überanpassung -- Unteranpassung -- Das Modell regularisieren -- Eine Untersuchung unseres tiefen Netzes -- L1- und L2-Regularisierung -- Weitere Möglichkeiten zur Regularisierung -- Zusammenfassung -- Praktische Übung: Weitere Regularisierungstechniken -- Kapitel 18: Tiefe Netze zähmen -- Aktivierungsfunktionen , Wozu Aktivierungsfunktionen gut sind -- Die sigmoide Aktivierungsfunktion und ihre Auswirkungen -- Verschwindender Gradient -- Alternativen zur Sigmoidfunktion -- Gestatten, die ReLU-Aktivierungsfunktion -- Die richtige Funktion auswählen -- Weitere Techniken -- Bessere Gewichtsinitialisierung -- Gradientenabstieg auf Speed -- Regularisierung für Fortgeschrittene -- Batchnormalisierung -- Zusammenfassung -- Praktische Übung: Die 10-Epochen-Aufgabe -- Kapitel 19: Jenseits von Standardnetzen -- Der CIFAR-10-Datensatz -- Was ist CIFAR-10? -- Das CIFAR-Waterloo -- Die Bausteine von Faltungsnetzen -- Ein Bild ist ein Bild -- Faltung -- Konvolutionsschichten -- Ein Faltungsnetz ausführen -- Zusammenfassung -- Praktische Übung: Massenweise Hyperparameter -- Kapitel 20: Der Weg in die Tiefe -- Der Aufstieg des Deep Learning -- Es braut sich etwas zusammen -- Der Wendepunkt -- Fortsetzung folgt -- Unverhältnismäßige Effektivität -- Was nun? -- Maschinelles Sehen -- Sprache -- Bildgenerierung -- Das Gesamtbild -- Praktischer Einstieg -- Sie sind am Zug -- Anhang -- A: Grundlagen von Python -- Wie sieht Python-Code aus? -- Dynamische Typisierung -- Einrückungen -- Die Bausteine von Python -- Datentypen und Operatoren -- Datenstrukturen -- Strings -- Schleifen -- Funktionen definieren und aufrufen -- Schlüsselwortargumente -- Standardargumente -- Module und Pakete -- Module definieren und importieren -- Das __main__-Idiom -- Pakete verwalten -- Objekte erstellen und verwenden -- Das war's -- B: Wörterbuch des Machine Learning -- Stichwortverzeichnis
    Additional Edition: Print version: Perrotta, Paolo Machine Learning für Softwareentwickler Heidelberg : dpunkt.verlag,c2020 ISBN 9783864907876
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages