Log In
Or create an account -> 
Imperial Library
  • Home
  • About
  • News
  • Upload
  • Forum
  • Help
  • Login/SignUp

Index
Title Page Copyright Contents Vorwort Notationen 1 Einführung
1.1 Was ist maschinelles Lernen? 1.2 Beispiele für Anwendungen des maschinellen Lernens
1.2.1 Assoziationsregeln 1.2.2 Klassifikation 1.2.3 Regression 1.2.4 Unüberwachtes Lernen 1.2.5 Bestärkendes Lernen
1.3 Geschichte 1.4 Angrenzende Themenfelder
1.4.1 Hochleistungsrechnen 1.4.2 Datenschutz und Datensicherheit 1.4.3 Interpretierbarkeit und Vertrauenswürdigkeit des Modells 1.4.4 Data Science
1.5 Übungen 1.6 Literaturangaben
2 Überwachtes Lernen
2.1 Lernen einer Klasse aus Beispielen 2.2 Vapnik-Chervonenkis-Dimension 2.3 PAC-Lernen 2.4 Rauschen 2.5 Lernen multipler Klassen 2.6 Regression 2.7 Modellauswahl und Generalisierung 2.8 Dimensionen eines Algorithmus für überwachtes Lernen 2.9 Anmerkungen 2.10 Übungen 2.11 Literaturangaben
3 Bayessche Entscheidungstheorie
3.1 Einführung 3.2 Klassifikation 3.3 Verluste und Risiken 3.4 Diskriminanzfunktionen 3.5 Assoziationsregeln 3.6 Anmerkungen 3.7 Übungen 3.8 Literaturangaben
4 Parametrische Methoden
4.1 Einführung 4.2 Maximum-Likelihood-Schätzung
4.2.1 Bernoulli-Verteilung 4.2.2 Multinomiale Dichte 4.2.3 Gauß-Verteilung (Normalverteilung)
4.3 Bewertung eines Schätzers: Verzerrung und Varianz 4.4 Der Bayessche Schätzer 4.5 Parametrische Klassifikation 4.6 Regression 4.7 Anpassung der Modellkomplexität: Das Verzerrung-Varianz-Dilemma 4.8 Modellauswahl 4.9 Anmerkungen 4.10 Übungen 4.11 Literaturangaben
5 Multivariate Methoden
5.1 Multivariate Daten 5.2 Parameterschätzung 5.3 Schätzung von fehlenden Werten 5.4 Multivariate Normalverteilung 5.5 Multivariate Klassifikation 5.6 Anpassen der Komplexität 5.7 Diskrete Merkmale 5.8 Multivariate Regression 5.9 Anmerkungen 5.10 Übungen 5.11 Literaturangaben
6 Dimensionalitätsreduktion
6.1 Einführung 6.2 Teilmengenselektion 6.3 Hauptkomponentenanalyse 6.4 Merkmalseinbettung 6.5 Faktorenanalyse 6.6 Singulärwertzerlegung und Faktorisierung von Matrizen 6.7 Multidimensionale Skalierung 6.8 Lineare Diskriminanzanalyse 6.9 Kanonische Korrelationsanalyse 6.10 Isomap 6.11 Lokal lineare Einbettung 6.12 Laplacesche Eigenmaps 6.13 t-verteilte stochastische Nachbareinbettung 6.14 Anmerkungen 6.15 Übungen 6.16 Literaturangaben
7 Clusteranalyse
7.1 Einführung 7.2 Mischungsdichten 7.3 k-Means-Clusteranalyse 7.4 Expectation-Maximization-Algorithmus 7.5 Mischungsmodelle mit verborgenen Variablen 7.6 Überwachtes Lernen nach einer Clusteranalyse 7.7 Spektrale Clusteranalyse 7.8 Hierarchische Clusteranalyse 7.9 Wahl der Clusteranzahl 7.10 Anmerkungen 7.11 Übungen 7.12 Literaturangaben
8 Nichtparametrische Methoden
8.1 Einführung 8.2 Nichtparametrische Dichteschätzung
8.2.1 Histogrammschätzer 8.2.2 Kernel-Schätzer 8.2.3 k-Nächste-Nachbarn-Schätzer
8.3 Verallgemeinerung auf multivariate Daten 8.4 Nichtparametrische Klassifikation 8.5 Verdichtete Nächste-Nachbarn-Methode 8.6 Abstandsbasierte Klassifikation 8.7 Ausreißererkennung 8.8 Nichtparametrische Regression: Glättungsmodelle
8.8.1 Gleitende Mittelwertglättung 8.8.2 Glättung durch Kernel-Funktion 8.8.3 Gleitende Linienglättung
8.9 Wahl des glättenden Hyperparameters 8.10 Anmerkungen 8.11 Übungen 8.12 Literaturangaben
9 Entscheidungsbäume
9.1 Einführung 9.2 Univariate Bäume
9.2.1 Klassifikationsbäume 9.2.2 Regressionsbäume
9.3 Pruning 9.4 Regelextraktion aus Bäumen 9.5 Lernen von Regeln anhand von Daten 9.6 Multivariate Bäume 9.7 Anmerkungen 9.8 Übungen 9.9 Literaturangaben
10 Lineare Diskriminanz
10.1 Einführung 10.2 Generalisierung des linearen Modells 10.3 Geometrie der linearen Diskriminanz
10.3.1 Zwei Klassen 10.3.2 Multiple Klassen
10.4 Paarweise Trennung 10.5 Neubetrachtung der parametrischen Diskriminanz 10.6 Gradientenabstieg 10.7 Logistische Diskriminanz
10.7.1 Zwei Klassen 10.7.2 Multiple Klassen 10.7.3 Multiple Labels
10.8 Lernen von Rangordnungen 10.9 Anmerkungen 10.10 Übungen 10.11 Literaturangaben
11 Mehrlagige Perzeptronen
11.1 Einführung
11.1.1 Das Gehirn verstehen 11.1.2 Neuronale Netze als Paradigma für die Parallelverarbeitung
11.2 Das Perzeptron 11.3 Training eines Perzeptrons 11.4 Lernen von Booleschen Funktionen 11.5 Mehrlagige Perzeptronen 11.6 Das MLP als universelle Näherungsfunktion 11.7 Backpropagation
11.7.1 Nichtlineare Regression 11.7.2 Zweiklassendiskriminanz 11.7.3 Diskriminanz bei multiplen Klassen 11.7.4 Diskriminanz bei multiplen Labeln
11.8 Übertraining 11.9 Lernen verborgener Darstellungen 11.10 Autoencoder 11.11 Die word2vec-Architektur 11.12 Anmerkungen 11.13 Übungen 11.14 Literaturangaben
12 Tiefes Lernen
12.1 Einführung 12.2 Training mehrerer verborgener Schichten
12.2.1 Rektifizierte lineare Einheit 12.2.2 Initialisierung 12.2.3 Verallgemeinerung der Backpropagation auf mehrere verborgene Schichten
12.3 Verbessern der Trainingskonvergenz
12.3.1 Momentum 12.3.2 Adaptiver Lernfaktor 12.3.3 Batch-Normalisierung
12.4 Regularisierung
12.4.1 Hinweise 12.4.2 Gewichtsabbau 12.4.3 Dropout
12.5 Faltungsschichten
12.5.1 Die Idee 12.5.2 Formalisierung 12.5.3 Beispiele: LeNet-5 und AlexNet 12.5.4 Erweiterungen 12.5.5 Multimodale tiefe Netze
12.6 Einstellen der Netzwerkstruktur
12.6.1 Struktursuche und Hyperparametersuche 12.6.2 Sprungverbindungen 12.6.3 Gattereinheiten
12.7 Lernen von Sequenzen
12.7.1 Beispielaufgaben 12.7.2 Neuronale Netze mit Zeitverzögerung 12.7.3 Rekurrente Netze 12.7.4 Langes Kurzzeitgedächtnis 12.7.5 Gated Recurrent Unit (GRU)
12.8 Generative gegnerische Netze 12.9 Anmerkungen 12.10 Übungen 12.11 Literaturangaben
13 Lokale Modelle
13.1 Einführung 13.2 Kompetitives Lernen
13.2.1 Online-k-Means-Algorithmus 13.2.2 Adaptive Resonanztheorie 13.2.3 Selbstorganisierende Merkmalskarten
13.3 Radiale Basisfunktionen 13.4 Regelbasiertes Wissen 13.5 Normalisierte Basisfunktionen 13.6 Kompetitive Basisfunktionen 13.7 Lernen mit Vektorquantisierung 13.8 Das MoE-Modell
13.8.1 Kooperative Experten 13.8.2 Kompetitive Experten
13.9 Hierarchische MoE und weiche Entscheidungsbäume 13.10 Anmerkungen 13.11 Übungen 13.12 Literaturangaben
14 Kernel-Maschinen
14.1 Einführung 14.2 Die optimal trennende Hyperebene 14.3 Der nicht trennbare Fall: Soft-Margin-Trennebenen 14.4 v-SVM 14.5 Kernel-Trick 14.6 Vektorielle Kernel 14.7 Definition von Kerneln 14.8 Multiple-Kernel-Lernen 14.9 Mehrklassen-Kernel-Maschinen 14.10 Kernel-Maschinen und Regression 14.11 Kernel-Maschinen und Ranking 14.12 Einklassen-Kernel-Maschinen 14.13 Breiter-Margin-Nächster-Nachbar-Klassifikator 14.14 Dimensionalitätsreduktion mit Kernel 14.15 Anmerkungen 14.16 Übungen 14.17 Literaturangaben
15 Graphenmodelle
15.1 Einführung 15.2 Kanonische Fälle für bedingte Unabhängigkeit
Fall 1: Spitze-Ende-Verbindung Fall 2: Ende-Ende-Verbindung Fall 3: Spitze-an-Spitze-Verbindung
15.3 Generative Modelle 15.4 d-Separation 15.5 Belief-Propagation
15.5.1 Ketten 15.5.2 Bäume 15.5.3 Mehrfachbäume 15.5.4 Verbindungsbäume
15.6 Ungerichtete Graphen: Markovsche Zufallsfelder 15.7 Lernen der Struktur eines Graphenmodells 15.8 Einflussdiagramme 15.9 Anmerkungen 15.10 Übungen 15.11 Literaturangaben
16 Hidden-Markov-Modelle
16.1 Einführung 16.2 Diskrete Markov-Prozesse 16.3 Hidden-Markov-Modelle 16.4 Drei Problemstellungen für HMMs 16.5 Evaluierungsproblem 16.6 Herausfinden der Zustandssequenz 16.7 Lernen von Modellparametern 16.8 Kontinuierliche Beobachtungen 16.9 Das HMM als Graphenmodell 16.10 Modellauswahl im HMM 16.11 Anmerkungen 16.12 Übungen 16.13 Literaturangaben
17 Bayessche Schätzung
17.1 Einführung 17.2 Bayessche Schätzung der Parameter diskreter Verteilungen
17.2.1 K > 2-Zustände: Dirichlet-Verteilung 17.2.2 K = 2-Zustände: Betaverteilung
17.3 Bayessche Schätzung der Parameter einer Gauß-Verteilung
17.3.1 Univariater Fall: Unbekannter Mittelwert, bekannte Varianz 17.3.2 Univariater Fall: Unbekannter Mittelwert, unbekannte Varianz 17.3.3 Multivariater Fall: Unbekannter Mittelwert, unbekannte Kovarianz
17.4 Bayessche Schätzung der Parameter einer Funktion
17.4.1 Regression 17.4.2 Regression mit Prior für die Präzision des Rauschens 17.4.3 Basis/Kernel-Funktionen 17.4.4 Bayessche Klassifikation
17.5 Wahl eines Priors 17.6 Bayesscher Modellvergleich 17.7 Bayessche Schätzung für ein Mischungsmodell 17.8 Nichtparametrische Bayessche Modelle 17.9 Gaußsche Prozesse 17.10 Dirichlet-Prozesse und Chinaestaurants 17.11 Latente Dirichlet-Allokation 17.12 Betaprozesse und indische Büffets 17.13 Anmerkungen 17.14 Übungen 17.15 Literaturangaben
18 Kombination mehrerer Lerner
18.1 Grundprinzip 18.2 Generierung diverser Lerner
Verschiedene Algorithmen Verschiedene Hyperparameter Verschiedene Repräsentationen der Eingabe Verschiedene Trainingsmengen Diversität vs. Genauigkeit
18.3 Methoden der Modellkombination 18.4 Voting 18.5 Fehlerkorrekturcodes 18.6 Bagging 18.7 Boosting 18.8 Neubetrachtung des MoE-Modells 18.9 Geschachtelte Generalisierung 18.10 Feinabstimmung eines Ensembles
18.10.1 Wahl einer Teilmenge des Ensembles 18.10.2 Konstruktion von Metalernern
18.11 Kaskadierung 18.12 Anmerkungen 18.13 Übungen 18.14 Literaturangaben
19 Bestärkendes Lernen
19.1 Einführung 19.2 Fälle mit einem Zustand: K-armiger Bandit 19.3 Elemente des bestärkenden Lernens 19.4 Modellbasiertes Lernen
19.4.1 Wertiteration 19.4.2 Taktikiteration
19.5 Lernen mit temporaler Differenz
19.5.1 Explorationsstrategien 19.5.2 Deterministische Belohnungen und Aktionen 19.5.3 Nichtdeterministische Belohnungen und Aktionen 19.5.4 Eignungsprotokolle
19.6 Generalisierung 19.7 Teilweise beobachtbare Zustände
19.7.1 Setting 19.7.2 Beispiel: Das Tigerproblem
19.8 Tiefes Q-Lernen 19.9 Taktikgradienten 19.10 Backgammon und Go 19.11 Anmerkungen 19.12 Übungen 19.13 Literaturangaben
20 Design und Analyse von Experimenten mit maschinellem Lernen
20.1 Einführung 20.2 Faktoren, Antwort und Strategie beim Experimentieren 20.3 Antwortflächenmethode 20.4 Randomisieren, Wiederholen und Blocken 20.5 Richtlinien für Experimente mit maschinellem Lernen
A. Zweck der Studie B. Auswahl der Antwortvariable C . Wahl der Faktoren und Einstellmöglichkeiten D. Design des Experiments E. Durchführung des Experiments F. Statistische Analyse der Daten G. Schlussfolgerungen und Empfehlungen
20.6 Kreuzvalidierung und Resampling-Methoden
20.6.1 K-fache Kreuzvalidierung 20.6.2 5 × 2-Kreuzvalidierung 20.6.3 Bootstrapping
20.7 Leistungsmessung für Klassifikatoren 20.8 Intervallschätzung 20.9 Hypothesenprüfung 20.10 Leistungsbewertung für Klassifikationsalgorithmen
20.10.1 Binomialtest 20.10.2 Test der approximierten Normalverteilung 20.10.3 t-Test
20.11 Vergleich von zwei Klassifikationsalgorithmen
20.11.1 Der McNemarsche Test 20.11.2 Gepaarter t-Test mit K-facher Kreuzvalidierung 20.11.3 Gepaarter t-Test mit 5 × 2 Kreuzvalidierung 20.11.4 Gepaarter F-Test mit 5 × 2 Kreuzvalidierung
20.12 Vergleich mehrerer Algorithmen: Varianzanalyse 20.13 Vergleich über mehrere Datensätze
20.13.1 Vergleich zweier Algorithmen 20.13.2 Vergleich mehrerer Algorithmen
20.14 Multivariate Tests
20.14.1 Vergleich zweier Algorithmen 20.14.2 Vergleich mehrerer Algorithmen
20.15 Anmerkungen 20.16 Übungen 20.17 Literaturangaben
A Wahrscheinlichkeit
A. 1 Elemente der Wahrscheinlichkeit
A. 1.1 Axiome der Wahrscheinlichkeit A. 1.2 Bedingte Wahrscheinlichkeit
A. 2 Zufallsvariablen
A. 2.1 Verteilungsfunktion und Wahrscheinlichkeitsdichte A. 2.2 Gemeinsame Verteilungsfunktion und gemeinsame Dichte A. 2.3 Bedingte Verteilungen A. 2.4 Satz von Bayes A. 2.5 Erwartungswert A. 2.6 Varianz A. 2.7 Das schwache Gesetz großer Zahlen
A. 3 Spezielle Verteilungen von Zufallsvariablen
A. 3.1 Bernoulli-Verteilung A. 3.2 Binomialverteilung A. 3.3 Multinomiale Verteilung A. 3.4 Gleichverteilung A. 3.5 Normalverteilung (Gauß-Verteilung) A. 3.6 Chi-Quadrat-Verteilung A. 3.7 t-Verteilung A. 3.8 F-Verteilung
A.4 Literaturangaben
B Lineare Algebra
B. 1 Vektoren B. 2 Matrizen B. 3 Ähnlichkeit zwischen Vektoren B. 4 Quadratische Matrizen B. 5 Lineare Abhängigkeit und Rang B. 6 Die inverse Matrix B. 7 Positiv definite Matrizen B. 8 Spur und Determinante B. 9 Eigenwerte und Eigenvektoren B. 10 Spektralzerlegung B. 11 Singulärwertzerlegung B.12 Literaturangaben
C Optimierung
C. 1 Einführung C. 2 Lineare Optimierung C. 3 Konvexe Optimierung C. 4 Dualität C. 5 Lokale Optimierung C.6 Literaturangaben
Index
Notes
  • ← Prev
  • Back
  • Next →
  • ← Prev
  • Back
  • Next →

Chief Librarian: Las Zenow <zenow@riseup.net>
Fork the source code from gitlab
.

This is a mirror of the Tor onion service:
http://kx5thpx2olielkihfyo4jgjqfb7zx7wxr3sd4xzt26ochei4m6f7tayd.onion