Your email was sent successfully. Check your inbox.

An error occurred while sending the email. Please try again.

Proceed reservation?

Export
Filter
Type of Medium
Language
Region
Access
  • 1
    UID:
    almafu_BV003683709
    Format: 57 S. : graph.Darst.
    Series Statement: Rot 44.
    Uniform Title: Prolegomena to an apology for pragmaticism
    Note: EST: Prolegomena to an apology for pragmaticism (dt.)
    Language: German
    Subjects: Comparative Studies. Non-European Languages/Literatures , German Studies
    RVK:
    RVK:
    Author information: Peirce, Charles S. 1839-1914
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 2
    UID:
    gbv_020250002
    Format: 57 S.
    Series Statement: Rot Text 44
    Uniform Title: Prolegomena to an apology for pragmaticism 〈dt.〉
    In: The Monist ; 16.1906
    Language: German
    Keywords: Pragmatismus ; Zeichen
    Author information: Peirce, Charles S. 1839-1914
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 3
    Book
    Book
    Leipzig : Fachbuchverlag | Leipzig : Fachbuchverl.
    UID:
    kobvindex_GFZ013709275
    Format: 671 Seiten , graphische Darstellung , 20 cm
    Edition: 1. Auflage
    ISBN: 3-343-00248-8
    Series Statement: Nachschlagebücher für Grundlagenfächer
    Note: Mit 524 Bildern und 414 Beispielen , Bezeichnung der Zahlenbereiche Übersicht über die in den einzelnen Abschnitten eingeführten Zeichen und ihre Bedeutung Aus der mathematischen Logik Wissenschaftssprache und natürliche Sprache Einige Grundbegriffe der mathematischen Logik Konstante, Variable, Terme Aussagen Aussageformen Logische Operationen Aussagenfunktionen Wahrheitsfunktionen Zur Negation Zur Konjunktion Zur Alternative, Antivalenz Zur Implikation Zur Äquivalenz Logische Ausdrücke Aussagenlogische Ausdrücke Aussagenlogische Äquivalenzen und Identitäten Prädikatenlogische Ausdrücke Logisches Schließen Zum Folgerungsbegriff Aussagenlogisches Schließen Prädikatenlogisches Schließen Zur Erkenntnisgewinnung in mathematischen Disziplinen Reduktive Methoden der Erkenntnisfindung Zur axiomatischen Methode Zum Definieren mathematischer Begriffe Zum Beweisen mathematischer Sätze (Erkenntnissicherung) Direkter Beweis Indirekter Beweis Beweis durch vollständige Induktion Zum Modellbegriff in der Mathematik Aus der Mengenlehre Mengenbildung Beziehungen zwischen Mengen Gleichheit von Mengen Inklusion von Mengen Potenzmengen Operationen mit Mengen Komplementärmenge Durchschnitt von Mengen Vereinigung von Mengen Differenz von Mengen Abbildungen von Mengen Produktmenge Zum Abbildungsbegriff Funktionen Relationen zwischen Mengen Zweistellige Relationen Ordnungsrelationen Äquivalenzrelationen Algebraische Operationen Ein- und zweistellige Operationen Isomorphie von Mengen bezüglich der Operationen (Relationen) Algebraische Strukturen Zur Struktur »Körper« Zur Struktur »Vektorraum« Mächtigkeit von Mengen Zahlen, Zahlenbereiche Der Bereich der natürlichen Zahlen Zum Begriff »natürliche Zahl« Darstellung natürlicher Zahlen Algebraische Operationen in der Menge der natürlichen Zahlen Addition natürlicher Zahlen Multiplikation natürlicher Zahlen Potenzierung natürlicher Zahlen Ordnungsrelationen in der Menge der natürlichen Zahlen Veranschaulichung von natürlichen Zahlen Teilbarkeitsrelation in der Menge der natürlichen Zahlen Teiler und Vielfache natürlicher Zahlen Primzahlen Zerlegung einer natürlichen Zahl in Primfaktoren Teilbarkeitsregeln Gemeinsamer Teiler Gemeinsames Vielfaches Kombinatorische Anzahlbestimmungen Permutationen Variationen Kombinationen Übersicht über die Formeln zu kombinatorischen Anzahlbestimmungen Notwendigkeit und Möglichkeiten der Erweiterung des Bereichs der natürlichen Zahlen Der Bereich der gebrochenen Zahlen Die Menge der gebrochenen Zahlen Ordnungsrelation in der Menge der gebrochenen Zahlen Algebraische Operationen in der Menge der gebrochenen Zahlen Addition gebrochener Zahlen Multiplikation gebrochener Zahlen Die Menge der natürlichen Zahlen als Teilmenge der Menge der gebrochenen Zahlen Darstellung gebrochener Zahlen im dekadischen Positionssystem Zehnerbrüche, Dezimalbrüche Ordnungsrelation für gebrochene Zahlen in Dezimalbruchdarstellung Rechenoperationen für gebrochene Zahlen in Dezimalbruchdarstellung Der Bereich der rationalen Zahlen Die Menge der rationalen Zahlen Der absolute Betrag einer rationalen Zahl Ordnungsrelationen und algebraische Operationen in der Menge der rationalen Zahlen Ordnungsrelationen in Q Algebraische Operationen in Q Die Menge der gebrochenen Zahlen als Teilmenge der Menge der rationalen Zahlen Beschränkte Teilmengen in Q Der Bereich der ganzen Zahlen Teilbarkeitsrelation in der Menge der ganzen Zahlen Erweiterung der Teilbarkeitsrelation von der Menge der natürlichen Zahlen auf die Menge der ganzen Zahlen Zahlenkongruenzen Restklassen modulo m Rechenregeln für Zahlenkongruenzen zu dem festen Modul m Der Bereich der reellen Zahlen Die Menge der reellen Zahlen Ordnungsrelationen und Rechenoperationen in R Definition des Wurzelbegriffs Potenzieren in R Radizieren in R Logarithmieren in R Der Bereich der komplexen Zahlen Zum Begriff »komplexe Zahl« Der Bereich der komplexen Zahlen Trigonometrische Darstellung der komplexen Zahl Exponentialform einer komplexen Zahl Übersicht über den Aufbau der Zahlenbereiche Zum praktischen Rechnen mit reellen Zahlen und mit Größen Zum Termbegriff Zum Rechnen mit dem Summen- und mit dem Produktzeichen Termumformungen mit Variablen im Bereich der reellen Zahlen Addition von Termen, Auflösen und Setzen von Klammern Multiplizieren von Termen, Ausmultiplizieren von Klammern und Ausklammern Binomische Formeln, binomischer Lehrsatz Dividieren von Summen in R Gemeinsames Vielfaches und gemeinsamer Nenner von Quotienten Grundrechenoperationen für Quotienten aus reellen Zahlen unter Verwendung von Variablen Zum numerischen Rechnen Regeln für das numerische Rechnen Abgetrennte Zehnerpotenzen Näherungswerte und Arbeiten mit Näherungswerten Ermitteln von Näherungswerten durch Runden, Überschlagen und Abschätzen von rationalen Zahlen Näherungswerte von Potenzen Fehlerrechnung Zum Begriff »Fehler« Absoluter und relativer Fehler, Fehlerschranken Fehlerabschätzung beim Rechnen mit Näherungswerten Rechenhilfsmittel Zahlentafeln Elektronische Taschenrechner Zum Rechnen mit Größen Zum Begriff »Größe« Zum Arbeiten mit Größen Gleichungen und Ungleichungen Gleichheitsrelation. Begriffe »Gleichung« und »Ungleichung« Einteilung der Gleichungen Zum Lösen von Gleichungen Variablengrundbereich, Lösungsgrundmenge, Lösungsmenge Lösungsverfahren für Gleichungen Fundamentalsatz der Algebra für algebraische Gleichungen System von Regeln für äquivalente Umformungen von Gleichungen Lösen algebraischer Gleichungen Lineare Gleichungen mit einer Variablen Lineare Gleichungen mit mehr als einer Variablen Lineare diophantische Gleichungen mit zwei Variablen Gleichungen mit Beträgen Quadratische Gleichungen Zu Gleichungen 3. und 4.Grades Wurzelgleichungen mit einer Variablen Lösen transzendenter Gleichungen Exponentialgleichungen Logarithmische Gleichungen Goniometrische Gleichungen Verfahren zur Verbesserung von Näherungswerten für Lösungen von Gleichungen Sekantennäherungsverfahren (Regula falsi) Tangentennäherungsverfahren (Newtonsches Verfahren) Lösen von Gleichungssystemen Lösungsgrundbereich und Lösungsmenge eines Gleichungssystems Lösen linearer Gleichungssysteme Lösen nichtlinearer Gleichungssysteme von zwei Gleichungen mit zwei Variablen Textaufgaben, die auf Gleichungen führen; Größengleichungen Zum Lösen von Ungleichungen Zum Ungleichungsbegriff Lösungsverfahren für Ungleichungen Lösen algebraischer Ungleichungen Lineare Ungleichungen mit genau einer Variablen Simultane Ungleichungen mit einer Variablen Linear gebrochene Ungleichungen mit einer Variablen Lineare Ungleichungen mit genau zwei Variablen Ungleichungen mit absoluten Beträgen Quadratische Ungleichungen Wurzelungleichungen Ungleichungssysteme Lineare Ungleichungssysteme Quadratische Ungleichungssysteme mit zwei Variablen Reelle Funktionen Zum Funktionsbegriff Definition des Begriffs »Funktion« Einteilung der reellen Funktionen Umkehrfunktionen Allgemeine Eigenschaften von reellen Funktionen Beschränkte Funktionen Gerade und ungerade Funktionen (Symmetrieeigenschaften) Monotone Funktionen Periodische Funktionen Nullstellen einer Funktion Verknüpfungen von reellen Funktionen Bildung neuer Funktionen durch rationale Rechenoperationen Verkettung von Funktionen Geometrische Transformationen der Graphen reeller Funktionen Spiegelungen Translationen Streckungen (Dehnungen bzw. Stauchungen) Rationale Funktionen Zum Begriff »rationale Funktion« Ganzrationale Funktionen in mehreren Variablen Eigenschaften der Potenzfunktion mit natürlichen Exponenten Einige Eigenschaften ganzrationaler Funktionen HORNERsches Schema Einige Eigenschaften gebrochenrationaler Funktionen Eigenschaften der Potenzfunktionen mit negativen ganzzahligen Exponenten Irrationale Funktionen Zum Begriff »irrationale Funktion« Potenzfunktionen mit rationalen Exponenten Wurzelfunktionen Transzendente Funktionen Zum Begriff »transzendente Funktion« Exponentialfunktionen Logarithmusfunktionen Winkelfunktionen Die Arcusfunktionen Zahlenfolgen und Reihen Zum Begriff »Zahlenfolge« Eigenschaften von Zahlenfolgen Verknüpfunge
    Language: German
    Keywords: Einführung
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 4
    Online Resource
    Online Resource
    Bonn : Rheinwerk Verlag
    UID:
    kobvindex_ERBEBC6746986
    Format: 1 online resource (1223 pages)
    Edition: 5
    ISBN: 9783836289122
    Note: Intro -- Vorwort -- 1 Einige Grundbegriffe -- 1.1 Algorithmus -- 1.2 Datenstruktur -- 1.3 Programm -- 1.4 Programmiersprachen -- 1.5 Aufgaben -- 2 Einführung in die Programmierung -- 2.1 Softwareentwicklung -- 2.2 Die Programmierumgebung -- 2.2.1 Der Editor -- 2.2.2 Der Compiler -- 2.2.3 Der Linker -- 2.2.4 Der Debugger -- 2.2.5 Der Profiler -- 3 Ausgewählte Sprachelemente von C -- 3.1 Programmrahmen -- 3.2 Zahlen -- 3.3 Variablen -- 3.4 Operatoren -- 3.4.1 Zuweisungsoperator -- 3.4.2 Arithmetische Operatoren -- 3.4.3 Typkonvertierungen -- 3.4.4 Vergleichsoperationen -- 3.5 Kontrollfluss -- 3.5.1 Bedingte Befehlsausführung -- 3.5.2 Wiederholte Befehlsausführung -- 3.5.3 Verschachtelung von Kontrollstrukturen -- 3.6 Elementare Ein- und Ausgabe -- 3.6.1 Bildschirmausgabe -- 3.6.2 Tastatureingabe -- 3.6.3 Kommentare und Layout -- 3.7 Beispiele -- 3.7.1 Das erste Programm -- 3.7.2 Das zweite Programm -- 3.7.3 Das dritte Programm -- 3.8 Aufgaben -- 4 Arithmetik -- 4.1 Folgen -- 4.2 Summen und Produkte -- 4.3 Aufgaben -- 5 Aussagenlogik -- 5.1 Aussagen -- 5.2 Aussagenlogische Operatoren -- 5.3 Boolesche Funktionen -- 5.4 Logische Operatoren in C -- 5.5 Beispiele -- 5.5.1 Kugelspiel -- 5.5.2 Schaltung -- 5.6 Aufgaben -- 6 Elementare Datentypen und ihre Darstellung -- 6.1 Zahlendarstellungen -- 6.1.1 Dualdarstellung -- 6.1.2 Oktaldarstellung -- 6.1.3 Hexadezimaldarstellung -- 6.2 Bits und Bytes -- 6.3 Skalare Datentypen in C -- 6.3.1 Ganze Zahlen -- 6.3.2 Gleitkommazahlen -- 6.4 Bitoperationen -- 6.5 Programmierbeispiele -- 6.5.1 Kartentrick -- 6.5.2 Zahlenraten -- 6.5.3 Addierwerk -- 6.6 Zeichen -- 6.7 Arrays -- 6.7.1 Eindimensionale Arrays -- 6.7.2 Mehrdimensionale Arrays -- 6.8 Zeichenketten -- 6.9 Programmierbeispiele -- 6.9.1 Buchstabenstatistik -- 6.9.2 Sudoku -- 6.10 Aufgaben -- 7 Modularisierung -- 7.1 Funktionen , 7.2 Arrays als Funktionsparameter -- 7.3 Lokale und globale Variablen -- 7.4 Rekursion -- 7.5 Der Stack -- 7.6 Beispiele -- 7.6.1 Bruchrechnung -- 7.6.2 Das Damenproblem -- 7.6.3 Permutationen -- 7.6.4 Labyrinth -- 7.7 Aufgaben -- 8 Zeiger und Adressen -- 8.1 Zeigerarithmetik -- 8.2 Zeiger und Arrays -- 8.3 Funktionszeiger -- 8.4 Aufgaben -- 9 Programmgrobstruktur -- 9.1 Der Präprozessor -- 9.1.1 Includes -- 9.1.2 Symbolische Konstanten -- 9.1.3 Makros -- 9.1.4 Bedingte Kompilierung -- 9.2 Ein kleines Projekt -- 10 Die Standard C Library -- 10.1 Mathematische Funktionen -- 10.2 Zeichenklassifizierung und -konvertierung -- 10.3 Stringoperationen -- 10.4 Ein- und Ausgabe -- 10.5 Variable Anzahl von Argumenten -- 10.6 Freispeicherverwaltung -- 10.7 Aufgaben -- 11 Kombinatorik -- 11.1 Kombinatorische Grundaufgaben -- 11.2 Permutationen mit Wiederholungen -- 11.3 Permutationen ohne Wiederholungen -- 11.3.1 Kombinationen ohne Wiederholungen -- 11.3.2 Kombinationen mit Wiederholungen -- 11.3.3 Zusammenfassung -- 11.4 Kombinatorische Algorithmen -- 11.4.1 Permutationen mit Wiederholungen -- 11.4.2 Kombinationen mit Wiederholungen -- 11.4.3 Kombinationen ohne Wiederholungen -- 11.4.4 Permutationen ohne Wiederholungen -- 11.5 Beispiele -- 11.5.1 Juwelenraub -- 11.5.2 Geldautomat -- 12 Leistungsanalyse und Leistungsmessung -- 12.1 Leistungsanalyse -- 12.2 Leistungsmessung -- 12.2.1 Überdeckungsanalyse -- 12.2.2 Performance-Analyse -- 12.3 Laufzeitklassen -- 12.3.1 Programm 1 -- 12.3.2 Programm 2 -- 12.3.3 Programm 3 -- 12.3.4 Programm 4 -- 12.3.5 Programm 5 -- 12.3.6 Programm 6 -- 13 Sortieren -- 13.1 Sortierverfahren -- 13.1.1 Bubblesort -- 13.1.2 Selectionsort -- 13.1.3 Insertionsort -- 13.1.4 Shellsort -- 13.1.5 Quicksort -- 13.1.6 Heapsort -- 13.2 Leistungsanalyse der Sortierverfahren -- 13.2.1 Bubblesort -- 13.2.2 Selectionsort -- 13.2.3 Insertionsort , 13.2.4 Shellsort -- 13.2.5 Quicksort -- 13.2.6 Heapsort -- 13.3 Leistungsmessung der Sortierverfahren -- 13.4 Grenzen der Optimierung von Sortierverfahren -- 14 Datenstrukturen -- 14.1 Strukturdeklarationen -- 14.1.1 Variablendefinitionen -- 14.2 Zugriff auf Strukturen -- 14.2.1 Direktzugriff -- 14.2.2 Indirektzugriff -- 14.3 Datenstrukturen und Funktionen -- 14.4 Ein vollständiges Beispiel (Teil 1) -- 14.5 Dynamische Datenstrukturen -- 14.6 Ein vollständiges Beispiel (Teil 2) -- 14.7 Die Freispeicherverwaltung -- 14.8 Aufgaben -- 15 Ausgewählte Datenstrukturen -- 15.1 Listen -- 15.2 Bäume -- 15.2.1 Traversierung von Bäumen -- 15.2.2 Aufsteigend sortierte Bäume -- 15.3 Treaps -- 15.3.1 Heaps -- 15.3.2 Der Container als Treap -- 15.4 Hash-Tabellen -- 15.4.1 Speicherkomplexität -- 15.4.2 Laufzeitkomplexität -- 16 Abstrakte Datentypen -- 16.1 Der Stack als abstrakter Datentyp -- 16.2 Die Queue als abstrakter Datentyp -- 17 Elemente der Graphentheorie -- 17.1 Graphentheoretische Grundbegriffe -- 17.2 Die Adjazenzmatrix -- 17.3 Beispielgraph (Autobahnnetz) -- 17.4 Traversierung von Graphen -- 17.5 Wege in Graphen -- 17.6 Der Algorithmus von Warshall -- 17.7 Kantentabellen -- 17.8 Zusammenhang und Zusammenhangskomponenten -- 17.9 Gewichtete Graphen -- 17.10 Kürzeste Wege -- 17.11 Der Algorithmus von Floyd -- 17.12 Der Algorithmus von Dijkstra -- 17.13 Erzeugung von Kantentabellen -- 17.14 Der Algorithmus von Ford -- 17.15 Minimale Spannbäume -- 17.16 Der Algorithmus von Kruskal -- 17.17 Hamiltonsche Wege -- 17.18 Das Travelling-Salesman-Problem -- 18 Zusammenfassung und Ergänzung -- 19 Einführung in C++ -- 19.1 Schlüsselwörter -- 19.2 Kommentare -- 19.3 Datentypen, Datenstrukturen und Variablen -- 19.3.1 Automatische Typisierung von Aufzählungstypen -- 19.3.2 Automatische Typisierung von Strukturen -- 19.3.3 Vorwärtsverweise auf Strukturen , 19.3.4 Der Datentyp bool -- 19.3.5 Verwendung von Konstanten -- 19.3.6 Definition von Variablen -- 19.3.7 Verwendung von Referenzen -- 19.3.8 Referenzen als Rückgabewerte -- 19.3.9 Referenzen außerhalb von Schnittstellen -- 19.4 Funktionen -- 19.4.1 Funktionsdeklarationen und Prototypen -- 19.4.2 Vorgegebene Werte in der Funktionsschnittstelle (Default-Werte) -- 19.4.3 Inline-Funktionen -- 19.4.4 Überladen von Funktionen -- 19.4.5 Parametersignatur von Funktionen -- 19.4.6 Zuordnung der Parametersignaturen und der passenden Funktion -- 19.4.7 Verwendung von C-Funktionen in C++-Programmen -- 19.5 Operatoren -- 19.5.1 Der Globalzugriff -- 19.5.2 Alle Operatoren in C++ -- 19.5.3 Überladen von Operatoren -- 19.6 Auflösung von Namenskonflikten -- 19.6.1 Der Standardnamensraum std -- 20 Objektorientierte Programmierung -- 20.1 Ziele der Objektorientierung -- 20.2 Objektorientiertes Design -- 20.3 Klassen in C++ -- 20.4 Aufbau von Klassen -- 20.4.1 Zugriffsschutz von Klassen -- 20.4.2 Datenmember -- 20.4.3 Funktionsmember -- 20.4.4 Verwendung des Zugriffsschutzes -- 20.4.5 Konstruktoren -- 20.4.6 Destruktoren -- 20.5 Instanziierung von Klassen -- 20.5.1 Automatische Variablen in C -- 20.5.2 Automatische Instanziierung in C++ -- 20.5.3 Statische Variablen in C -- 20.5.4 Statische Instanziierung in C++ -- 20.5.5 Dynamische Variablen in C -- 20.5.6 Dynamische Instanziierung in C++ -- 20.5.7 Instanziierung von Arrays in C++ -- 20.6 Operatoren auf Klassen -- 20.6.1 Friends -- 20.6.2 Operator als Methode der Klasse -- 20.7 Ein- und Ausgabe in C++ -- 20.7.1 Überladen des < -- < -- -Operators -- 20.7.2 Tastatureingabe -- 20.7.3 Dateioperationen -- 20.8 Der this-Pointer -- 20.9 Beispiele -- 20.9.1 Menge -- 20.10 Aufgaben -- 21 Das Zusammenspiel von Objekten -- 21.1 Modellierung von Beziehungen -- 21.2 Komposition eigener Objekte -- 21.2.1 Komposition in C++ , 21.2.2 Implementierung der print-Methode für timestamp -- 21.2.3 Der Konstruktor von timestamp -- 21.2.4 Parametrierter Konstruktor einer komponierten Klasse -- 21.2.5 Konstruktionsoptionen der Klasse timestamp -- 21.3 Eine Klasse text -- 21.3.1 Der Copy-Konstruktor -- 21.3.2 Implementierung eines Copy-Konstruktors -- 21.3.3 Zuweisung von Objekten -- 21.3.4 Implementierung des Zuweisungsoperators -- 21.3.5 Erweiterung der Klasse text -- 21.3.6 Vorgehen für eigene Objekte -- 21.4 Übungen/Beispiel -- 21.4.1 Bingo -- 21.5 Aufgabe -- 22 Vererbung -- 22.1 Darstellung der Vererbung -- 22.1.1 Mehrere abgeleitete Klassen -- 22.1.2 Wiederholte Vererbung -- 22.1.3 Mehrfachvererbung -- 22.2 Vererbung in C++ -- 22.2.1 Ableiten einer Klasse -- 22.2.2 Gezieltes Aufrufen des Konstruktors der Basisklasse -- 22.2.3 Der geschützte Zugriffsbereich einer Klasse -- 22.2.4 Erweiterung abgeleiteter Klassen -- 22.2.5 Überschreiben von Funktionen der Basisklasse -- 22.2.6 Unterschiedliche Instanziierungen und deren Verwendung -- 22.2.7 Virtuelle Memberfunktionen -- 22.2.8 Verwendung des Schlüsselwortes virtual -- 22.2.9 Mehrfachvererbung -- 22.2.10 Zugriff auf die Methoden der Basisklassen -- 22.2.11 Statische Member -- 22.2.12 Rein virtuelle Funktionen -- 22.3 Beispiele -- 22.3.1 Würfelspiel -- 22.3.2 Partnervermittlung -- 23 Zusammenfassung und Überblick -- 23.1 Klassen und Instanzen -- 23.2 Member -- 23.2.1 Datenmember -- 23.2.2 Funktionsmember -- 23.2.3 Konstante Member -- 23.2.4 Statische Member -- 23.2.5 Operatoren -- 23.2.6 Zugriff auf Member -- 23.2.7 Zugriff von außen -- 23.2.8 Zugriff von innen -- 23.2.9 Der this-Pointer -- 23.2.10 Zugriff durch friends -- 23.3 Vererbung -- 23.3.1 Einfachvererbung -- 23.3.2 Mehrfachvererbung -- 23.3.3 Virtuelle Funktionen -- 23.3.4 Virtuelle Destruktoren -- 23.3.5 Rein virtuelle Funktionen -- 23.4 Zugriffsschutz und Vererbung , 23.4.1 Geschützte Member
    Additional Edition: Print version: Kaiser, Ulrich C/C++ Bonn : Rheinwerk Verlag,c2014 ISBN 9783836227575
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 5
    Online Resource
    Online Resource
    Berlin, Heidelberg :Springer Berlin Heidelberg :
    UID:
    almahu_9948191991702882
    Format: XIV, 331 S. , online resource.
    Edition: 1st ed. 1990.
    ISBN: 9783642711213
    Series Statement: Informationstechnik und Datenverarbeitung,
    Content: Prolog, die wohl bedeutendste Programmiersprache der Künstlichen Intelligenz, hat eine einzigartige Verbreitung und Beliebtheit erreicht und gilt als Basis für eine ganze neue Generation von Programmiersprachen und -systemen. Der vorliegenden deutschen Übersetzung des Standardwerks Programming in Prolog liegt die dritte Auflage der englischen Fassung zugrunde. Das Buch ist sowohl Lehrbuch als auch Nachschlagewerk und für alle geeignet, die Prolog als Programmiersprache für die Praxis erlernen und benutzen wollen. Zahlreiche Beispiele zeigen, wie nützliche Programme mit heutigen Prolog-Systemen geschrieben werden können. Die Autoren konzentrieren sich auf den "Kern" von Prolog; alle Beispiele entsprechen diesem Standard und laufen auf den verbreitetsten Prolog-Implementierungen. Zu einigen Implementierungen sind im Anhang Hinweise auf Besonderheiten enthalten.
    Note: 1 Einführung -- Gibt dem Leser ein „Gefül“ für das Programmieren in Prolog. Vorgestellt werden: Objekte, Relationen, Fakten, Regeln, Variablen. -- 1.1 Fakten -- 1.2 Fragen -- 1.3 Variablen -- 1.4 Konjunktionen -- 1.5 Regeln -- 1.6 Zusammenfassung und Übungen -- 2 Genauere Betrachtung -- Ausführlichere Darstellung von Syntax und Datenstruktur in Prolog. -- 2.1 Syntax -- 2.2 Zeichen -- 2.3 Operatoren -- 2.4 Gleichheit und Deckungsgleichheit (Matching) -- 2.5 Arithmetik -- 2.6 Zusammenfassung zur Erfüllung von Zielen -- 3 Der Umgang mit Datenstrukturen -- Darstellung von Objekten und Relationen durch „Bäume“ und „Listen“. Entwicklung verschiedener Standardprogrammtechniken in Prolog. -- 3.1 Strukturen und Bäume -- 3.2 Listen -- 3.3 Rekursives Suchen -- 3.4 Umformungen -- 3.5 Rekursiver Vergleich -- 3.6 Verknüpfung von Strukturen -- 3.7 Akkumulatoren -- 3.8 Differenz-Strukturen -- 4 Backtracking und Cut -- Wie eine Menge von Klauseln eine Menge von Lösungen erzeugt. Verwendung des „Cut“ zur Steuerung des Ablaufs von Prolog-Programmen. -- 4.1 Erzeugen von mehreren Lösungen -- 4.2 Der Cut -- 4.3 Allgemeine Anwendungen des Cut -- 4.4 Probleme mit dem Cut -- 5 Eingabe und Ausgabe -- Ein- und Augabe von Zeichen und Strukturen. Entwicklung eines Programms, das Sätze einliest und diese als Wortlisten darstellt, die mit den Grammatikregeln aus Kapitel 9 verwendet werden können. -- 5.1 Lesen und Schreiben von Termen -- 5.2 Lesen und Schreiben von Zeichen -- 5.3 Lesen von natürlichsprachlichen Sätzen -- 5.4 Lesen und Schreiben von Dateien -- 5.5 Deklarieren von Operatoren -- 6 Standardprädikate -- Definition der wichtigsten Standardprädikate mit Beispielen zur Veranschaulichung ihres Gebrauchs. Der Leser sollte inzwischen in der Lage sein, relativ komplexe Programme zu lesen und sollte daher die Funktion von Standardprädikaten erschließen können, wenn er sieht, wie sie benutzt werden. -- 6.1 Eingeben neuer Klauseln -- 6.2 Ziel erreichen oder Scheitern -- 6.3 Klassifikation von Termen -- 6.4 Klauseln wie Terme behandeln -- 6.5 Konstruktion von und Zugriff auf Strukturkomponenten -- 6.6 Beeinflussung des Backtracking -- 6.7 Konstruktion von zusammengesetzten Zielen -- 6.8 Gleichheit -- 6.9 Eingabe und Ausgabe -- 6.10 Umgang mit Dateien -- 6.11 Auswertung von arithmetischen Ausdrücken -- 6.12 Vergleichen von Zahlen -- 6.13 Wir sehen Prolog bei der Arbeit zu -- 7 Weitere Beispielprogramme -- Es werden zahlreiche Beispielprogramme aus den verschiedenen Anwendungsbereichen vorgestellt. Zu den neuen Beispielen gehört die Verarbeitung von Listen, die Operation mit Mengen, die symbolische Differentiation und die Vereinfachung von Formeln. -- 7.1 Ein Baumstraktur-Lexikon -- 7.2 Durchsuchen eines Labyrinthes -- 7.3 Die Türme von Hanoi -- 7.4 Inventarliste -- 7.5 Listenverarbeitung -- 7.6 Darstellung und Manipulation von Mengen -- 7.7 Sortieren -- 7.8 Benutzung der Datenbank: random, gensym, findall -- 7.9 Suchen in Graphen -- 7.10 „Sieb die Zwei’n und sieb die Drei’n“ -- 7.11 Symbolische Differentiation -- 7.12 Das Umformen von Strukturen und Transformieren von Bäumen -- 7.13 Das Manipulieren von Programmen -- 8 Fehlersuche in Prolog-Programmen -- Der Leser dürfte nun in der Lage sein, relativ komplexe Programme zu erstellen, womit das Problem der Fehlersuche an Bedeutung gewinnt. Modell des Programmablaufs, Hinweise auf häufige Fehler, Methoden der Fehlersuche. -- 8.1 Aufbereiten von Programmen -- 8.2 Häufige Fehler -- 8.3 Das Tracing-Modell -- 8.4 Ablaufüberwachung und Überwachungspunkte -- 8.5 Fehlerkorrektur -- 9 Grammatikregeln in Prolog -- Anwendung der vorgestellten Methoden. Benutzung von Grammatikregeln. Untersuchung der Entscheidungsmotive in einigen Bereichen der Analyse natürlicher Sprache mit Hilfe von Grammatikregeln. -- 9.1 Das Analyse-Problem -- 9.2 Die Darstellung des Analyse-Problems in Prolog -- 9.3 Die Notation für Grammatikregeln -- 9.4 Hinzufügen von zusätzlichen Argumenten -- 9.5 Hinzufügen von zusätzlichen Tests -- 9.6 Zusammenfassung -- 10 Das Verhältnis von Prolog zur Logik -- Prädikatenkalkül, Klauselform, Resolution und Theorembeweis, logische Programmierung. -- 10.1 Kurze Einführung in den Prädikatenkalkül -- 10.2 Die Klauselform -- 10.3 Eine Notation für Klauseln -- 10.4 Resolution und Theorembeweis -- 10.5 Horn-Klauseln -- 10.6 Prolog -- 10.7 Prolog und logische Programmierung -- 11 Projekte in Prolog -- Ausgewählte Vorschläge zu Übungen, Projekten und Problemen. -- 11.1 Leichtere Projekte -- 11.2 Projekte für Fortgeschrittene -- A. Antworten zu ausgewählten Übungen -- B. Programm-Listings zur Klausel-Form -- C. Verschiedene Prolog-Versionen -- D. Edinburgh-Prolog -- E. micro-Prolog.
    In: Springer eBooks
    Additional Edition: Printed edition: ISBN 9783540163848
    Language: German
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 6
    UID:
    almahu_9948193804402882
    Format: XIV, 273 S. 287 Abb. , online resource.
    Edition: 1st ed. 2001.
    ISBN: 9783322968418
    Content: Der Leitfaden Geometrie gibt für Studierende der Primarstufe und des Sekundarbereichs I eine Einführung in die Teilgebiete Topologie, Körper, euklidische Geometrie, darstellende Geometrie, Axiomatik und Abbildungsgeometrie. Während sich die Ausführungen zur Abbildungsgeometrie durchgängig an einem axiomatischen Aufbau orientieren, werden die Darstellungen zu den anderen Teilgebieten im Hinblick auf die Zielgruppe primär durch Alltagsfragestellungen und -probleme motiviert.
    Note: 1 Topologie -- 1.1 Einstiegsproblem -- 1.2 Grundlegende Definitionen der Graphentheorie -- 1.3 Eckenordnungen und Kantenzahlen -- 1.4 Plättbarkeit von Graphen -- 1.5 Durchlaufbarkeit von Graphen -- 1.6 Erbteilungs- und Färbungsprobleme -- 2 Polyeder -- 2.1 Einstiegsproblem -- 2.2 Die platonischen Körper -- 2.3 Halbreguläre Polyeder -- 3 Axiomatik -- 3.1 Zum Einstieg -- 3.2 Inzidenzgeometrie -- 3.3 Affine und projektive Inzidenzgeometrien -- 3.4 Axiome der Anordnung -- 3.5 Winkel -- 3.6 Längen- und Winkelmessung -- 3.7 Zusammenstellung aller relevanten Axiome -- 4 Abbildungsgeometrie -- 4.1 Einstiegsproblem -- 4.2 Kongruenzabbildungen -- 4.3 Ähnlichkeitsabbildungen -- 4.4 Affine Abbildungen -- 5 Fragestellungen der euklidischen Geometrie -- 5.1 Einstiegsproblem -- 5.2 Besondere Punkte und Linien im Dreieck -- 5.3 Sätze am Kreis -- 5.4 Die Satzgruppe des Pythagoras -- 6 Darstellende Geometrie -- 6.1 Einstiegsproblem -- 6.2 Axonometrie -- 6.3 Dreitafelprojektion -- 6.4 Zentralprojektion -- Benutzte Zeichen und Abkürzungen -- Literatur -- Stichwortverzeichnis.
    In: Springer eBooks
    Additional Edition: Printed edition: ISBN 9783528031770
    Language: German
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 7
    UID:
    kobvindex_ERBEBC6947691
    Format: 1 online resource (448 pages)
    Edition: 1
    ISBN: 9783958458390
    Note: Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Einleitung -- Über dieses Buch -- Wer sollte dieses Buch lesen? -- Überblick -- Erforderliche Hard- und Software -- Quellcode -- Das Forum zum Buch -- Über den Autor -- Über den Fachkorrektor -- Danksagungen -- Teil I: Grundlagen des Deep Learnings -- Kapitel 1: Was ist Deep Learning? -- 1.1 Künstliche Intelligenz, Machine Learning und Deep Learning -- 1.1.1 Künstliche Intelligenz -- 1.1.2 Machine Learning -- 1.1.3 Die Repräsentation anhand der Daten erlernen -- 1.1.4 Das »Deep« in Deep Learning -- 1.1.5 Deep Learning in drei Diagrammen erklärt -- 1.1.6 Was Deep Learning heute schon leisten kann -- 1.1.7 Schenken Sie dem kurzfristigen Hype keinen Glauben -- 1.1.8 Das Versprechen der KI -- 1.2 Vor Deep Learning: eine kurze Geschichte des Machine Learnings -- 1.2.1 Probabilistische Modellierung -- 1.2.2 Die ersten neuronalen Netze -- 1.2.3 Kernel-Methoden -- 1.2.4 Entscheidungsbäume, Random Forests und Gradient Boosting Machines -- 1.2.5 Zurück zu neuronalen Netzen -- 1.2.6 Das Besondere am Deep Learning -- 1.2.7 Der Stand des modernen Machine-Learnings -- 1.3 Warum Deep Learning? Und warum jetzt? -- 1.3.1 Hardware -- 1.3.2 Daten -- 1.3.3 Algorithmen -- 1.3.4 Eine neue Investitionswelle -- 1.3.5 Die Demokratisierung des Deep Learnings -- 1.3.6 Bleibt es so? -- Kapitel 2: Bevor es losgeht: die mathematischen Bausteine eines NNs -- 2.1 Ein erster Blick auf ein NN -- 2.2 Datenrepräsentationen -- 2.2.1 Skalare (0-D-Tensoren) -- 2.2.2 Vektoren (1-D-Tensoren) -- 2.2.3 Matrizen (2-D-Tensoren) -- 2.2.4 3-D-Tensoren und höherdimensionale Tensoren -- 2.2.5 Die wichtigsten Attribute -- 2.2.6 Bearbeiten von Tensoren mit Numpy -- 2.2.7 Datenstapel -- 2.2.8 Beispiele für Datentensoren aus der Praxis -- 2.2.9 Vektordaten -- 2.2.10 Zeitreihen oder sequenzielle Daten -- 2.2.11 Bilddaten -- 2.2.12 Videodaten , 2.3 Das Getriebe von NNs: Tensoroperationen -- 2.3.1 Elementweise Operationen -- 2.3.2 Broadcasting -- 2.3.3 Tensorprodukt -- 2.3.4 Tensoren umformen -- 2.3.5 Geometrische Interpretation von Tensoroperationen -- 2.3.6 Eine geometrische Interpretation des Deep Learnings -- 2.4 Der Antrieb von NNs: gradientenbasierte Optimierung -- 2.4.1 Was ist eine Ableitung? -- 2.4.2 Ableitung einer Tensoroperation: der Gradient -- 2.4.3 Stochastisches Gradientenabstiegsverfahren -- 2.4.4 Ableitungen verketten: der Backpropagation-Algorithmus -- 2.5 Zurück zum ersten Beispiel -- 2.6 Zusammenfassung Kapitel 2 -- Kapitel 3: Einführung in neuronale Netze -- 3.1 Aufbau eines NNs -- 3.1.1 Layer: Bausteine des Deep Learnings -- 3.1.2 Modelle: vernetzte Layer -- 3.1.3 Verlustfunktionen und Optimierer: Konfiguration des Lernvorgangs -- 3.2 Einführung in Keras -- 3.2.1 Keras, TensorFlow, Theano und CNTK -- 3.2.2 Mit Keras entwickeln: eine kurze Übersicht -- 3.3 Einrichtung eines Deep-Learning-Rechners -- 3.3.1 Die bevorzugte Methode zum Ausführen von Deep-Learning- Experimenten: Jupyter-Notebooks -- 3.3.2 Keras zum Laufen bringen: zwei Möglichkeiten -- 3.3.3 Pro und Kontra: Deep Learning in der Cloud ausführen -- 3.3.4 Für Deep Learning geeignete GPUs -- 3.4 Klassifizierung von Filmbewertungen: ein Beispiel für eine Binärklassifizierung -- 3.4.1 Die IMDb-Datensammlung -- 3.4.2 Daten vorbereiten -- 3.4.3 NN erzeugen -- 3.4.4 Validierung des Ansatzes -- 3.4.5 Vorhersagen über neue Daten mit einem trainierten NN treffen -- 3.4.6 Weitere Experimente -- 3.4.7 Zusammenfassung -- 3.5 Ein Beispiel für eine Mehrfachklassifizierung: Klassifizierung von Nachrichtenmeldungen -- 3.5.1 Die Reuters-Datensammlung -- 3.5.2 Daten vorbereiten -- 3.5.3 NN erzeugen -- 3.5.4 Validierung des Ansatzes -- 3.5.5 Vorhersagen über neue Daten treffen , 3.5.6 Eine weitere Möglichkeit zur Handhabung der Klassenbezeichnungen und der Verlustfunktion -- 3.5.7 Hinreichend große zwischenliegende Layer sind wichtig -- 3.5.8 Weitere Experimente -- 3.5.9 Zusammenfassung -- 3.6 Ein Beispiel für eine Regression: Vorhersage der Kaufpreise von Häusern -- 3.6.1 Die Boston-Housing-Price-Datensammlung -- 3.6.2 Daten vorbereiten -- 3.6.3 NN erzeugen -- 3.6.4 K-fache Kreuzvalidierungen des Ansatzes -- 3.6.5 Zusammenfassung -- 3.7 Zusammenfassung Kapitel 3 -- Kapitel 4: Grundlagen des Machine Learnings -- 4.1 Vier Teilgebiete des Machine Learnings -- 4.1.1 Überwachtes Lernen -- 4.1.2 Unüberwachtes Lernen -- 4.1.3 Selbstüberwachtes Lernen -- 4.1.4 Verstärkendes Lernen -- 4.1.5 Glossar: Klassifizierung und Regression -- 4.2 Bewertung von Machine-Learning-Modellen -- 4.2.1 Trainings-, Validierungs- und Testmengen -- 4.2.2 Worauf zu achten ist -- 4.3 Datenvorverarbeitung, Merkmalserstellung und Erlernen von Merkmalen -- 4.3.1 Datenvorverarbeitung für NNs -- 4.3.2 Merkmalserstellung -- 4.4 Überanpassung und Unteranpassung -- 4.4.1 Das NN verkleinern -- 4.4.2 Regularisierung der Gewichtungen -- 4.4.3 Dropout-Regularisierung -- 4.5 Ein allgemeiner Machine-Learning-Workflow -- 4.5.1 Definition der Aufgabe und Zusammenstellen einer Datenmenge -- 4.5.2 Auswahl eines Erfolgskriteriums -- 4.5.3 Auswahl einer Bewertungsmethode -- 4.5.4 Daten vorbereiten -- 4.5.5 Entwicklung eines Modells, das besser funktioniert als zufälliges Raten -- 4.5.6 Hochskalieren: Entwicklung eines Modells mit Überanpassung -- 4.5.7 Regularisierung des Modells und Abstimmung der Hyperparameter -- 4.6 Zusammenfassung Kapitel 4 -- Teil II: Deep Learning in der Praxis -- Kapitel 5: Deep Learning und maschinelles Sehen -- 5.1 Einführung in CNNs -- 5.1.1 Die Faltungsoperation -- 5.1.2 Die Max-Pooling-Operation , 5.2 Ein CNN von Grund auf mit einer kleinen Datenmenge trainieren -- 5.2.1 Die Bedeutung des Deep Learnings für Aufgaben mit kleinen Datenmengen -- 5.2.2 Daten herunterladen -- 5.2.3 NN erzeugen -- 5.2.4 Datenvorverarbeitung -- 5.2.5 Datenaugmentation -- 5.3 Verwendung eines vortrainierten CNNs -- 5.3.1 Merkmalsextraktion -- 5.3.2 Feinabstimmung -- 5.3.3 Zusammenfassung -- 5.4 Visualisierung: Was CNNs erlernen können -- 5.4.1 Visualisierung zwischenliegender Aktivierungen -- 5.4.2 Visualisierung von CNN-Filtern -- 5.4.3 Visualisierung der Heatmaps der Klassenaktivierung -- 5.5 Zusammenfassung Kapitel 5 -- Kapitel 6: Deep Learning, Text und sequenzielle Daten -- 6.1 Textdaten -- 6.1.1 One-hot-Codierung von Wörtern und Zeichen -- 6.1.2 Worteinbettung -- 6.1.3 Zusammengefasst: von reinem Text zu Worteinbettungen -- 6.1.4 Zusammenfassung -- 6.2 Rekurrente neuronale Netze -- 6.2.1 Ein rekurrenter Layer in Keras -- 6.2.2 LSTM- und GRU-Layer -- 6.2.3 Ein konkretes LSTM-Beispiel in Keras -- 6.2.4 Zusammenfassung -- 6.3 Erweiterte Nutzung rekurrenter neuronaler Netze -- 6.3.1 Temperaturvorhersage -- 6.3.2 Daten vorbereiten -- 6.3.3 Eine vernünftige Abschätzung ohne Machine Learning -- 6.3.4 Ein elementarer Machine-Learning-Ansatz -- 6.3.5 Ein erstes RNN -- 6.3.6 Rekurrentes Dropout-Verfahren zum Verhindern einer Überanpassung -- 6.3.7 Hintereinanderschaltung rekurrenter Layer -- 6.3.8 Bidirektionale RNNs -- 6.3.9 Noch einen Schritt weiter gehen -- 6.3.10 Zusammenfassung -- 6.4 Verarbeitung von Sequenzen mit CNNs -- 6.4.1 Eindimensionale Faltung sequenzieller Daten -- 6.4.2 Eindimensionales Pooling sequenzieller Daten -- 6.4.3 Implementierung eines eindimensionalen CNNs -- 6.4.4 Lange Sequenzen mit einer Kombination aus CNNs und RNNs verarbeiten -- 6.4.5 Zusammenfassung -- 6.5 Zusammenfassung Kapitel 6 -- Kapitel 7: Bewährte Verfahren des Deep Learnings , 7.1 Jenseits des Sequential-Modells: die funktionale Keras-API -- 7.1.1 Einführung in die funktionale API -- 7.1.2 Modelle mit mehreren Eingaben -- 7.1.3 Modelle mit mehreren Ausgaben -- 7.1.4 Gerichtete azyklische Graphen von Layern -- 7.1.5 Gemeinsam genutzte Gewichtungen von Layern -- 7.1.6 Modelle als Layer -- 7.1.7 Zusammenfassung -- 7.2 Deep-Learning-Modelle mit Callbacks und TensorBoard untersuchen und überwachen -- 7.2.1 Beeinflussung eines Modells während des Trainings durch Callbacks -- 7.2.2 Einführung in das Visualisierungs-Framework TensorBoard -- 7.2.3 Zusammenfassung -- 7.3 Modelle richtig ausreizen -- 7.3.1 Erweiterte Architekturmuster -- 7.3.2 Hyperparameteroptimierung -- 7.3.3 Ensemblemodelle -- 7.3.4 Zusammenfassung -- 7.4 Zusammenfassung Kapitel 7 -- Kapitel 8: Generatives Deep Learning -- 8.1 Texterzeugung mit LSTM-Modellen -- 8.1.1 Eine kurze Geschichte generativer RNNs -- 8.1.2 Wie erzeugt man sequenzielle Daten? -- 8.1.3 Die Bedeutung der Sampling-Strategie -- 8.1.4 Implementierung der LSTM-Texterzeugung für Zeichen -- 8.1.5 Zusammenfassung -- 8.2 DeepDream -- 8.2.1 DeepDream in Keras implementieren -- 8.2.2 Zusammenfassung -- 8.3 Stilübertragung mit dem Neural-Style-Algorithmus -- 8.3.1 Verlustfunktion für den Inhalt -- 8.3.2 Verlustfunktion für den Stil -- 8.3.3 Stilübertragung in Keras -- 8.3.4 Zusammenfassung -- 8.4 Bilderzeugung mit Variational Autoencoders -- 8.4.1 Sampling eines latenten Bilderraums -- 8.4.2 Konzeptvektoren für das Bearbeiten von Bildern -- 8.4.3 Variational Autoencoders -- 8.4.4 Zusammenfassung -- 8.5 Einführung in Generative Adversarial Networks -- 8.5.1 Eine schematische GAN-Implementierung -- 8.5.2 Einige nützliche Tricks -- 8.5.3 Der Generator -- 8.5.4 Der Diskriminator -- 8.5.5 Das gegnerische Netz -- 8.5.6 Training des DCGAN -- 8.5.7 Zusammenfassung -- 8.6 Zusammenfassung Kapitel 8 , Kapitel 9: Schlussfolgerungen
    Additional Edition: Print version: Chollet, François Deep Learning mit Python und Keras Frechen : mitp,c2018
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 8
    UID:
    kobvindex_ERBEBC6947709
    Format: 1 online resource (448 pages)
    Edition: 1
    ISBN: 9783958458949
    Note: Cover -- Titel -- Impressum -- Inhaltsverzeichnis -- Vorwort -- Einleitung -- Danksagungen -- Über die Autoren -- Teil I: Grundlagen des Deep Learnings -- Kapitel 1: Was ist Deep Learning? -- 1.1 Künstliche Intelligenz, Machine Learning und Deep Learning -- 1.1.1 Künstliche Intelligenz -- 1.1.2 Machine Learning -- 1.1.3 Die Repräsentation anhand der Daten erlernen -- 1.1.4 Das »Deep« in Deep Learning -- 1.1.5 Deep Learning in drei Diagrammen erklärt -- 1.1.6 Was Deep Learning heute schon leisten kann -- 1.1.7 Schenken Sie dem kurzfristigen Hype keinen Glauben -- 1.1.8 Das Versprechen der KI -- 1.2 Bevor es Deep Learning gab: eine kurze Geschichte des Machine Learnings -- 1.2.1 Probabilistische Modellierung -- 1.2.2 Die ersten neuronalen Netze -- 1.2.3 Kernel-Methoden -- 1.2.4 Entscheidungsbäume, Random Forests und Gradient Boosting Machines -- 1.2.5 Zurück zu neuronalen Netzen -- 1.2.6 Das Besondere am Deep Learning -- 1.2.7 Der Stand des modernen Machine Learnings -- 1.3 Warum Deep Learning? Und warum jetzt? -- 1.3.1 Hardware -- 1.3.2 Daten -- 1.3.3 Algorithmen -- 1.3.4 Eine neue Investitionswelle -- 1.3.5 Die Demokratisierung des Deep Learnings -- 1.3.6 Bleibt es so? -- Kapitel 2: Bevor es losgeht: die mathematischen Bausteine eines neuronalen Netzes -- 2.1 Ein erster Blick auf ein neuronales Netz -- 2.2 Datenrepräsentationen -- 2.2.1 Skalare (0-D-Tensoren) -- 2.2.2 Vektoren (1-D-Tensoren) -- 2.2.3 Matrizen (2-D-Tensoren) -- 2.2.4 3-D-Tensoren und höherdimensionale Tensoren -- 2.2.5 Die wichtigsten Attribute -- 2.2.6 Bearbeiten von Tensoren in R -- 2.2.7 Datenstapel -- 2.2.8 Beispiele für Datentensoren aus der Praxis -- 2.2.9 Vektordaten -- 2.2.10 Zeitreihen oder sequenzielle Daten -- 2.2.11 Bilddaten -- 2.2.12 Videodaten -- 2.3 Das Getriebe von neuronalen Netzen: Tensoroperationen -- 2.3.1 Elementweise Operationen , 2.3.2 Operationen mit Tensoren unterschiedlicher Dimensionalität -- 2.3.3 Tensorprodukt -- 2.3.4 Tensoren umformen -- 2.3.5 Geometrische Interpretation von Tensoroperationen -- 2.3.6 Eine geometrische Interpretation des Deep Learnings -- 2.4 Der Antrieb von neuronalen Netzen: gradientenbasierte Optimierung -- 2.4.1 Was ist eine Ableitung? -- 2.4.2 Ableitung einer Tensoroperation: der Gradient -- 2.4.3 Stochastisches Gradientenabstiegsverfahren -- 2.4.4 Ableitungen verketten: der Backpropagation-Algorithmus -- 2.5 Zurück zum ersten Beispiel -- 2.6 Zusammenfassung Kapitel 2 -- Kapitel 3: Einführung in neuronale Netze -- 3.1 Aufbau eines neuronalen Netzes -- 3.1.1 Layer: Bausteine des Deep Learnings -- 3.1.2 Modelle: vernetzte Layer -- 3.1.3 Verlustfunktionen und Optimierer: Konfiguration des Lernvorgangs -- 3.2 Einführung in Keras -- 3.2.1 Keras, TensorFlow, Theano und CNTK -- 3.2.2 Keras installieren -- 3.2.3 Mit Keras entwickeln: eine kurze Übersicht -- 3.3 Einrichtung eines Deep-Learning-Rechners -- 3.3.1 Zwei Möglichkeiten, Keras zum Laufen zu bringen -- 3.3.2 Pro und Kontra: Deep Learning in der Cloud ausführen -- 3.3.3 Für Deep Learning geeignete GPUs -- 3.4 Klassifikation von Filmbewertungen: ein Beispiel für eine Binärklassifikation -- 3.4.1 Die IMDb-Datensammlung -- 3.4.2 Daten vorbereiten -- 3.4.3 Neuronales Netz erzeugen -- 3.4.4 Validierung des Ansatzes -- 3.4.5 Vorhersagen über neue Daten mit einem trainierten neuronalen Netz treffen -- 3.4.6 Weitere Experimente -- 3.4.7 Zusammenfassung -- 3.5 Ein Beispiel für eine Mehrfachklassifikation: Klassifikation von Nachrichtenmeldungen -- 3.5.1 Die Reuters-Datensammlung -- 3.5.2 Daten vorbereiten -- 3.5.3 Neuronales Netz erzeugen -- 3.5.4 Validierung des Ansatzes -- 3.5.5 Vorhersagen über neue Daten treffen , 3.5.6 Eine weitere Möglichkeit zur Handhabung der Klassenbezeichnungen und der Verlustfunktion -- 3.5.7 Hinreichend große zwischenliegende Layer sind wichtig -- 3.5.8 Weitere Experimente -- 3.5.9 Zusammenfassung -- 3.6 Ein Beispiel für eine Regression: Vorhersage der Kaufpreise von Häusern -- 3.6.1 Die Boston-Housing-Price-Datensammlung -- 3.6.2 Daten vorbereiten -- 3.6.3 Neuronales Netz erzeugen -- 3.6.4 K-fache Kreuzvalidierung des Ansatzes -- 3.6.5 Zusammenfassung -- 3.7 Zusammenfassung Kapitel 3 -- Kapitel 4: Grundlagen des Machine Learnings -- 4.1 Vier Teilgebiete des Machine Learnings -- 4.1.1 Überwachtes Lernen -- 4.1.2 Unüberwachtes Lernen -- 4.1.3 Selbstüberwachtes Lernen -- 4.1.4 Bestärkendes Lernen -- 4.2 Bewertung von Machine-Learning-Modellen -- 4.2.1 Trainings-, Validierungs- und Testmengen -- 4.2.2 Worauf zu achten ist -- 4.3 Datenvorverarbeitung, Merkmalserstellung und Erlernen von Merkmalen -- 4.3.1 Datenvorverarbeitung für neuronale Netze -- 4.3.2 Merkmalserstellung -- 4.4 Überanpassung und Unteranpassung -- 4.4.1 Das neuronale Netz verkleinern -- 4.4.2 Regularisierung der Gewichte -- 4.4.3 Dropout-Regularisierung -- 4.5 Ein allgemeiner Machine-Learning-Workflow -- 4.5.1 Definition der Aufgabe und Zusammenstellen einer Datenmenge -- 4.5.2 Auswahl eines Erfolgskriteriums -- 4.5.3 Auswahl einer Bewertungsmethode -- 4.5.4 Daten vorbereiten -- 4.5.5 Entwicklung eines Modells, das besser funktioniert als zufälliges Raten -- 4.5.6 Hochskalieren: Entwicklung eines Modells mit Überanpassung -- 4.5.7 Regularisierung des Modells und Abstimmung der Hyperparameter -- 4.6 Zusammenfassung Kapitel 4 -- Teil II: Deep Learning in der Praxis -- Kapitel 5: Deep Learning und maschinelles Sehen -- 5.1 Einführung in CNNs -- 5.1.1 Die Faltungsoperation -- 5.1.2 Die Max-Pooling-Operation -- 5.2 Ein CNN von Grund auf mit einer kleinen Datenmenge trainieren , 5.2.1 Die Bedeutung des Deep Learnings für Aufgaben mit kleinen Datenmengen -- 5.2.2 Daten herunterladen -- 5.2.3 Erstellen des neuronalen Netzes -- 5.2.4 Datenvorverarbeitung -- 5.2.5 Datenaugmentation -- 5.3 Verwendung eines vortrainierten CNNs -- 5.3.1 Merkmalsextraktion -- 5.3.2 Feinabstimmung -- 5.3.3 Zusammenfassung -- 5.4 Visualisierung: Was CNNs erlernen können -- 5.4.1 Visualisierung zwischenliegender Aktivierungen -- 5.4.2 Visualisierung von CNN-Filtern -- 5.4.3 Visualisierung der Heatmaps der Klassenaktivierung -- 5.5 Zusammenfassung Kapitel 5 -- Kapitel 6: Deep Learning, Text und sequenzielle Daten -- 6.1 Textdaten -- 6.1.1 One-hot-Codierung von Wörtern und Zeichen -- 6.1.2 Worteinbettung -- 6.1.3 Zusammengefasst: von reinem Text zu Worteinbettungen -- 6.1.4 Zusammenfassung -- 6.2 Rekurrente neuronale Netze -- 6.2.1 Ein rekurrenter Layer in Keras -- 6.2.2 LSTM- und GRU-Layer -- 6.2.3 Ein konkretes LSTM-Beispiel in Keras -- 6.2.4 Zusammenfassung -- 6.3 Erweiterte Nutzung rekurrenter neuronaler Netze -- 6.3.1 Temperaturvorhersage -- 6.3.2 Daten vorbereiten -- 6.3.3 Eine vernünftige Abschätzung ohne Machine Learning -- 6.3.4 Ein elementarer Machine-Learning-Ansatz -- 6.3.5 Ein erstes RNN -- 6.3.6 Rekurrentes Dropout-Verfahren zum Verhindern einer Überanpassung -- 6.3.7 Hintereinanderschaltung rekurrenter Layer -- 6.3.8 Bidirektionale RNNs -- 6.3.9 Noch einen Schritt weiter gehen -- 6.3.10 Zusammenfassung -- 6.4 Verarbeitung von Sequenzen mit CNNs -- 6.4.1 Eindimensionale Faltung sequenzieller Daten -- 6.4.2 Eindimensionales Pooling sequenzieller Daten -- 6.4.3 Implementierung eines eindimensionalen CNNs -- 6.4.4 Lange Sequenzen mit einer Kombination aus CNNs und RNNs verarbeiten -- 6.4.5 Zusammenfassung -- 6.5 Zusammenfassung Kapitel 6 -- Kapitel 7: Bewährte Verfahren des Deep Learnings , 7.1 Jenseits des Sequential-Modells: die funktionale Keras-API -- 7.1.1 Einführung in die funktionale API -- 7.1.2 Modelle mit mehreren Eingaben -- 7.1.3 Modelle mit mehreren Ausgaben -- 7.1.4 Gerichtete azyklische Graphen von Layern -- 7.1.5 Gemeinsam genutzte Gewichte von Layern -- 7.1.6 Modelle als Layer -- 7.1.7 Zusammenfassung -- 7.2 Deep-Learning-Modelle mit Callbacks und TensorBoard untersuchen und überwachen -- 7.2.1 Beeinflussung eines Modells während des Trainings durch Callbacks -- 7.2.2 Einführung in das Visualisierungs-Framework TensorBoard -- 7.2.3 Zusammenfassung -- 7.3 Modelle richtig ausreizen -- 7.3.1 Erweiterte Architekturmuster -- 7.3.2 Hyperparameteroptimierung -- 7.3.3 Ensemblemodelle -- 7.3.4 Zusammenfassung -- 7.4 Zusammenfassung Kapitel 7 -- Kapitel 8: Generatives Deep Learning -- 8.1 Texterzeugung mit LSTM-Modellen -- 8.1.1 Eine kurze Geschichte generativer RNNs -- 8.1.2 Wie erzeugt man sequenzielle Daten? -- 8.1.3 Die Bedeutung der Sampling-Strategie -- 8.1.4 Implementierung der LSTM-Texterzeugung für Zeichen -- 8.1.5 Zusammenfassung -- 8.2 DeepDream -- 8.2.1 DeepDream in Keras implementieren -- 8.2.2 Zusammenfassung -- 8.3 Stilübertragung mit dem Neural-Style-Algorithmus -- 8.3.1 Verlustfunktion für den Inhalt -- 8.3.2 Verlustfunktion für den Stil -- 8.3.3 Stilübertragung in Keras -- 8.3.4 Zusammenfassung -- 8.4 Bilderzeugung mit Variational Autoencoders -- 8.4.1 Sampling eines latenten Bilderraums -- 8.4.2 Konzeptvektoren für das Bearbeiten von Bildern -- 8.4.3 Variational Autoencoders -- 8.4.4 Zusammenfassung -- 8.5 Einführung in Generative-Adversarial-Netze -- 8.5.1 Eine schematische GAN-Implementierung -- 8.5.2 Einige nützliche Tricks -- 8.5.3 Der Generator -- 8.5.4 Der Diskriminator -- 8.5.5 Das gegnerische Netz -- 8.5.6 Training des DCGAN -- 8.5.7 Zusammenfassung -- 8.6 Zusammenfassung Kapitel 8 , Kapitel 9: Schlussfolgerungen
    Additional Edition: Print version: Chollet, François Deep Learning mit R und Keras Frechen : mitp,c2018
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 9
    UID:
    kobvindex_ERBEBC5993333
    Format: 1 online resource (488 pages)
    Edition: 2
    ISBN: 9783960889113
    Series Statement: Programmieren mit JavaScript
    Note: Intro -- Inhaltsübersicht -- Inhaltsverzeichnis -- Einleitung -- Teil I: Die Sprache -- Kapitel 1: Werte, Typen und Operatoren -- 1.1 Werte -- 1.2 Zahlen -- 1.3 Strings -- 1.4 Unäre Operatoren -- 1.5 Boolesche Werte -- 1.6 Leere Werte -- 1.7 Automatische Typumwandlung -- 1.8 Zusammenfassung -- Kapitel 2: Programmstruktur -- 2.1 Ausdrücke und Anweisungen -- 2.2 Bindungen -- 2.3 Namen von Bindungen -- 2.4 Die Umgebung -- 2.5 Funktionen -- 2.6 Die Funktion console.log -- 2.7 Rückgabewerte -- 2.8 Ablaufsteuerung -- 2.9 Bedingte Ausführung -- 2.10 While- und do-Schleifen -- 2.11 Einrückungen -- 2.12 for-Schleifen -- 2.13 Eine Schleife abbrechen -- 2.14  Kurzschreibweisen für die Aktualisierung von Bindungen -- 2.15 Werte mithilfe von switch auswählen -- 2.16 Groß- und Kleinschreibung -- 2.17 Kommentare -- 2.18 Zusammenfassung -- 2.19 Übungsaufgaben -- Kapitel 3: Funktionen -- 3.1 Funktionen definieren -- 3.2 Gültigkeitsbereiche von Bindungen -- 3.3 Funktionen als Werte -- 3.4 Schreibweise von Deklarationen -- 3.5 Pfeilfunktionen -- 3.6 Der Aufrufstack -- 3.7 Optionale Argumente -- 3.8 Closures -- 3.9 Rekursion -- 3.10 Funktionen einführen -- 3.11 Seiteneffekte -- 3.12 Zusammenfassung -- 3.13 Übungen -- Kapitel: 4 Datenstrukturen: Objekte und Arrays -- 4.1 Das Wereichhörnchen -- 4.2 Datenmengen -- 4.3 Eigenschaften -- 4.4 Methoden -- 4.5 Objekte -- 4.6 Veränderbarkeit -- 4.7 Das Tagebuch des Wereichhörnchens -- 4.8 Korrelationen berechnen -- 4.9 Array-Schleifen -- 4.10 Die endgültige Analyse -- 4.11 Arrayologie für Fortgeschrittene -- 4.12 Eigenschaften von Strings -- 4.13 Restparameter -- 4.14 Das Objekt Math -- 4.15 Zerlegung -- 4.16 JSON -- 4.17 Zusammenfassung -- 4.18 Übungen -- Kapitel: 5 Funktionen höherer Ordnung -- 5.1 Abstraktion -- 5.2 Wiederholungen abstrahieren -- 5.3 Funktionen höherer Ordnung -- 5.4 Die Schriftbeispieldaten , 5.5 Arrays filtern -- 5.6 Transformationen mit map -- 5.7 Zusammenfassungen mit reduce -- 5.8 Komponierbarkeit -- 5.9 Strings und Zeichencodes -- 5.10 Text erkennen -- 5.11 Zusammenfassung -- 5.12 Übungen -- Kapitel: 6 Das geheime Leben der Objekte -- 6.1 Kapselung -- 6.2 Methoden -- 6.3 Prototypen -- 6.4 Klassen -- 6.5 Klassenschreibweise -- 6.6 Abgeleitete Eigenschaften überschreiben -- 6.7 Maps -- 6.8 Polymorphismus -- 6.9 Symbole -- 6.10 Die Iteratorschnittstelle -- 6.11 Get-, Set- und statische Methoden -- 6.12 Vererbung -- 6.13 Der Operator instanceof -- 6.14 Zusammenfassung -- 6.15 Übungen -- Kapitel: 7 Projekt: Ein Roboter -- 7.1 Meadowfield -- 7.2 Die Aufgabe -- 7.3 Persistente Daten -- 7.4 Simulation -- 7.5 Die Route des Postautos -- 7.6 Routen finden -- 7.7 Übungen -- Kapitel: 8 Bugs und Fehler -- 8.1 Die Rolle der Sprache -- 8.2 Strikter Modus -- 8.3 Typen -- 8.4 Tests -- 8.5 Debugging -- 8.6 Fehlerweiterleitung -- 8.7 Ausnahmen -- 8.8 Aufräumen nach Ausnahmen -- 8.9 Selektives Abfangen von Ausnahmen -- 8.10 Assertions -- 8.11 Zusammenfassung -- 8.12 Übungen -- Kapitel: 9 Reguläre Ausdrücke -- 9.1 Reguläre Ausdrücke erstellen -- 9.2 Auf Übereinstimmungen prüfen -- 9.3 Mengen von Zeichen -- 9.4 Teile eines Musters wiederholen -- 9.5 Teilausdrücke gruppieren -- 9.6 Übereinstimmungen und Gruppen -- 9.7 Die Klasse Date -- 9.8 Wort- und String-Grenzen -- 9.9 Alternative Muster -- 9.10 Der Vergleichsmechanismus -- 9.11 Rückverfolgung -- 9.12 Die Methode replace -- 9.13 Gierige Operatoren -- 9.14 RegExp-Objekte dynamisch erstellen -- 9.15 Die Methode search -- 9.16 Die Eigenschaft lastIndex -- 9.17 Eine INI-Datei analysieren -- 9.18 Internationale Zeichen -- 9.19 Zusammenfassung -- 9.20 Übungen -- Kapitel: 10 Module -- 10.1 Module als Bausteine -- 10.2 Pakete -- 10.3 Module -- 10.4 Daten als Code auswerten -- 10.5 CommonJS , 10.6 ECMAScript-Module -- 10.7 Compiler, Bundler und Minifier -- 10.8 Moduldesign -- 10.9 Zusammenfassung -- 10.10 Übungen -- Kapitel: 11 Asynchrone Programmierung -- 11.1 Asynchronität -- 11.2 Crow Tech -- 11.3 Callbacks -- 11.4 Promises -- 11.5 Fehlschläge -- 11.6 Netzwerke sind schwierig -- 11.7 Kombinationen von Promises -- 11.8 Flooding -- 11.9 Nachrichtenrouting -- 11.10 Async-Funktionen -- 11.11 Generatoren -- 11.12 Die Ereignisschleife -- 11.13 Asynchronitätsbugs -- 11.14 Zusammenfassung -- 11.15 Übungen -- Kapitel: 12 Projekt: Eine Programmiersprache -- 12.1 Der Parser -- 12.2 Der Evaluierer -- 12.3 Sonderformen -- 12.4 Die Umgebung -- 12.5 Funktionen -- 12.6 Kompilierung -- 12.7 Schummeln -- 12.8 Übungen -- Teil II: Der Browser -- Kapitel: 13 JavaScript im Browser -- 13.1 Netzwerke und das Internet -- 13.2 Das Web -- 13.3 HTML -- 13.4 HTML und JavaScript -- 13.5 Ausführung in einer Sandbox -- 13.6  Die Browserkriege und das Problem der Kompatibilität -- Kapitel: 14 DOM (Document Object Model) -- 14.1 Die Dokumentstruktur -- 14.2 Bäume -- 14.3 Der Standard -- 14.4 Den Baum durchlaufen -- 14.5 Elemente finden -- 14.6 Das Dokument ändern -- 14.7 Knoten erstellen -- 14.8 Attribute -- 14.9 Layout -- 14.10 Formatierung -- 14.11 CSS -- 14.12 Abfrageselektoren -- 14.13 Positionierung und Animation -- 14.14 Zusammenfassung -- 14.15 Übungen -- Kapitel: 15 Umgang mit Ereignissen -- 15.1 Ereignis-Handler -- 15.2 Ereignisse und DOM-Knoten -- 15.3 Ereignisobjekte -- 15.4 Weiterleitung -- 15.5 Standardaktionen -- 15.6 Tastaturereignisse -- 15.7 Zeigeereignisse -- 15.8 Scrollereignisse -- 15.9 Fokusereignisse -- 15.10 Ladeereignisse -- 15.11 Ereignisse und die Ereignisschleife -- 15.12 Timer -- 15.13 Entprellen -- 15.14 Zusammenfassung -- 15.15 Übungen -- Kapitel: 16 Projekt: Ein Jump'n'Run-Spiel -- 16.1 Das Spiel -- 16.2 Die Technologie -- 16.3 Levels , 16.4 Ein Level lesen -- 16.5 Akteure -- 16.6 Kapselung als zusätzliche Belastung -- 16.7 Zeichnen -- 16.8 Bewegungen und Kollisionen -- 16.9 Akteure aktualisieren -- 16.10 Tastenbetätigungen verfolgen -- 16.11 Das Spiel ausführen -- 16.12 Übungen -- Kapitel: 17 Zeichnen auf Leinwand -- 17.1 SVG -- 17.2 Das Canvas-Element -- 17.3 Linien und Flächen -- 17.4 Pfade -- 17.5 Kurven -- 17.6 Ein Tortendiagramm zeichnen -- 17.7 Text -- 17.8 Bilder -- 17.9 Transformationen -- 17.10 Transformationen speichern und löschen -- 17.11 Zurück zu unserem Spiel -- 17.12 Auswahl einer Grafikschnittstelle -- 17.13 Zusammenfassung -- 17.14 Übungen -- Kapitel: 18 HTTP und Formulare -- 18.1 Das Protokoll -- 18.2 Browser und HTTP -- 18.3 Fetch -- 18.4 HTTP-Sandboxing -- 18.5 Die Möglichkeiten von HTTP nutzen -- 18.6 Sicherheit durch HTTPS -- 18.7 Formularfelder -- 18.8 Fokus -- 18.9 Deaktivierte Felder -- 18.10 Das Formular als Ganzes -- 18.11 Textfelder -- 18.12 Kontrollkästchen und Optionsschalter -- 18.13 Auswahlfelder -- 18.14 Dateifelder -- 18.15 Clientseitige Datenspeicherung -- 18.16 Zusammenfassung -- 18.17 Übungen -- Kapitel: 19 Projekt: Editor für Pixelgrafiken -- 19.1 Komponenten -- 19.2 Der Status -- 19.3 Aufbau des DOM -- 19.4 Die Leinwand -- 19.5 Die Anwendung -- 19.6 Zeichenwerkzeuge -- 19.7 Speichern und Laden -- 19.8 Der Undo-Verlauf -- 19.9 Die Anwendung einrichten -- 19.10 Warum ist das so schwer? -- 19.11 Übungen -- Teil III: Node.js -- Kapitel: 20 Einführung in Node.js -- 20.1 Hintergrund -- 20.2 Der Befehl node -- 20.3 Module -- 20.4 Installation mit NPM -- 20.5 Das Dateisystemmodul -- 20.6 Das HTTP-Modul -- 20.7 Streams -- 20.8 Ein Dateiserver -- 20.9 Zusammenfassung -- 20.10 Übungen -- Kapitel: 21 Projekt: Eine Website zur ­Wissensvermittlung -- 21.1 Design -- 21.2 Long Polling -- 21.3 Die HTTP-Schnittstelle -- 21.4 Der Server -- 21.5 Der Client , 21.6 Übungen -- Kapitel: 22 Leistung -- 22.1 Stufenweise Kompilierung -- 22.2 Graphzeichnen -- 22.3 Definition eines Graphen -- 22.4 Kräftebasiertes Graphzeichnen -- 22.5 Arbeit vermeiden -- 22.6 Profiling -- 22.7 Inline-Ersetzung -- 22.8 Weniger überflüssige Objekte erzeugen -- 22.9 Garbage Collection -- 22.10 Dynamische Typen -- 22.11 Zusammenfassung -- 22.12 Übungen -- Hinweise zu den Übungen -- Stichwortverzeichnis
    Additional Edition: Print version: Haverbeke, Marijn JavaScript Heidelberg : dpunkt.verlag,c2019 ISBN 9783864907289
    Keywords: Electronic books.
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
  • 10
    Online Resource
    Online Resource
    Wiesbaden :Vieweg+Teubner Verlag :
    UID:
    almahu_9948191794302882
    Format: I, 409 S. 16 Abb. , online resource.
    Edition: 1st ed. 1992.
    ISBN: 9783322947703
    Note: 1 Einleitung -- Quell- und Objektcode -- Programmiersprachen -- Sprachversionen -- Rechner und Zahlensysteme -- Ganzzahltypen in Pascal -- 2 Programme in Pascal -- Reservierte Wörter, Standardbezeichner -- Ein- und Ausgabe Integer -- Wertzuweisungen -- Die Sprachumgebung TURBO (Editor, Compiler) -- 3 Funktionen, Zeichen, Logik -- Die Rechnung DIV -- Standardfunktionen -- Der ASCII-Code -- BOOLEsche Ausdrücke -- Wahrheitstafeln und Schaltalgebra -- Operatoren -- 4 Kontrollstrukturen -- Schleifen und Maschen -- FOR-DO-Schleife -- WHILE, REPEAT -- Selektion mit IF und CASE -- Menüsteuerung -- Syntaxdiagramme -- 5 Programmentwicklung -- Analyse und Algorithmus -- Fehlerarten -- Flußdiagramme und Strukto-gramme -- Modulares, strukturiertes Programmieren -- Der Debugger -- 6 Mengen, Felder und Strings -- Mengen und Mengenoperationen -- Statische Arrays -- Große Zahlen -- Einfaches Sortieren -- Stringprozeduren in TURBO -- Sichere Eingaben -- 7 Der Zufall in Pascal -- Der Zufallsgenerator -- Simulation von Zufallsereignissen, u. a. mit MONTE-CARLO-Methoden -- Geheimtexte -- Normalverteilung -- 8 Fenster, Auch im Editor -- Window und andere Prozeduren -- Editor-Befehle -- Bildschirm retten -- 9 Struktur Mit Type und Record -- Datentypen und Typenvereinbarungen -- Bereichsüberprüfung -- Feste und variante Records -- 10 Externe Dateien -- Files und Dateistruktur -- Prozeduren mit Dateien -- IO-Fehler -- Binärsuche -- Filekopierer -- Viren -- 11 Prozeduren und Funktionen -- Globale und lokale Variable -- Wertparameter und Referenzparameter -- Funktionen -- Scancodes bei Funktionstasten -- Ein 8-Bit-Rechner -- 12 Bibliotheken und Units -- Include-Files -- Programmbibliotheken -- Systemunits -- Eigene Units -- Fenstertechnik im Editor -- Programme mit Parametern -- 13 Rekursionen -- Rekursive Prozeduren -- Rekursion und Iteration -- Wechselseitige Aufrufe und FORWARD-Deklaration -- 14 Der Zugriff Auf Dos -- Register der CPU -- Interrupts samt Anwendungen -- Directories -- Versteckte Files -- Segment und Offset -- Hardcopy -- Viren -- 15 Eine Adressverwaltung -- Verwaltung von Adressen -- Mischen von Dateien -- 16 Nützliche Programme -- Druckertreiber -- Minitext -- Kalender -- Lister -- Umlautsortieren -- 17 Grafik Mit Der Ega-Karte -- Grundkenntnisse zur EGA-Karte -- Ein- und Auslesen von Bildern -- Maus -- Bildformate samt Beispielen -- Cutten -- Rekursive Grafiken -- 18 Algorithmen -- Textmaus -- Warteschlangen -- Differentialgleichungen -- Geometrische Objekte -- Komplexe Zahlen und Mandelbrot-Menge -- Anaglyphen -- 19 Verkettung und Zeiger -- Der Begriff Verkettung -- Heap und Pointer -- Lineare Listen -- Vorwärtsverkettung -- Mehrfachverkettung -- Graphen und Backtracking -- 20 Datei Mit Zeigerverwaltung -- Ein komplettes Programm für Schadensfälle, Rechnungen oder dgl. -- 21 Dateien und Bäume -- Sortieren sehr großer Dateien -- Verwaltung über Indexdateien -- Indexdateien als Binärbäume -- Große Datenbanken und B-Bäume -- 22 Schwach Besetzte Felder -- Kalkulationsprogramme -- Ein lauffähiger Terminkalender -- 23 Opcode und Inline-Code -- Debugger und Maschinensprache -- Inline-Code in Pascal -- Assembler -- 24 Klassen und Objekte -- OOP: Kapselung, Vererbung und Polymorphie -- Export aus Units -- 25 Das Betriebssystem Dos -- Grundlegende Kommandos -- Wildcards -- Unterverzeichnisse -- AUTOEXEC und CONFIG.SYS -- Management u. a. -- 26 Literatur -- 27 Disketten -- Liefermodus -- Liste aller Programme und sonstigen Files -- 28 Stichwortverzeichnis.
    In: Springer eBooks
    Additional Edition: Printed edition: ISBN 9783519029816
    Language: German
    Library Location Call Number Volume/Issue/Year Availability
    BibTip Others were also interested in ...
Close ⊗
This website uses cookies and the analysis tool Matomo. Further information can be found on the KOBV privacy pages