Log In
Or create an account -> 
Imperial Library
  • Home
  • About
  • News
  • Upload
  • Forum
  • Help
  • Login/SignUp

Index
Title Page Copyright Contents Vorwort 1 Einführung
1.1 Auswertung von Massendaten 1.2 Ablauf einer Datenanalyse 1.3 Das Vorgehensmodell von Fayyad
Datenselektion Datenvorverarbeitung Datentransformation Data Mining Evaluation und Interpretation
1.4 Interdisziplinarität von Data Mining
Datenbanken und Data Warehouses Wissensbasierte Systeme Maschinelles Lernen Statistik Visualisierung
1.5 Wozu Data Mining? 1.6 Werkzeuge
1.6.1 KNIME 1.6.2 WEKA Beispiel 1.1 (Wetter-Beispiel in Weka). 1.6.3 JavaNNS
2 Grundlagen des Data Mining
2.1 Grundbegriffe 2.2 Datentypen 2.3 Abstands- und Ähnlichkeitsmaße 2.4 Grundlagen Künstlicher Neuronaler Netze
Propagierungsfunktion Ausgabefunktion Beispiel-Neuron
2.5 Logik 2.6 Überwachtes und unüberwachtes Lernen
3 Anwendungsklassen
3.1 Cluster-Analyse 3.2 Klassifikation 3.3 Numerische Vorhersage
Lineare Regression
3.4 Assoziationsanalyse 3.5 Text Mining 3.6 Web Mining
4 Wissensrepräsentation
4.1 Entscheidungstabelle 4.2 Entscheidungsbäume 4.3 Regeln 4.4 Assoziationsregeln
Schwellwerte Arten von Assoziationsregeln Hierarchische Assoziationsregeln Quantitative Assoziationsregeln Unscharfe Assoziationsregeln Temporale Assoziationsregeln
4.5 Instanzenbasierte Darstellung 4.6 Repräsentation von Clustern 4.7 Neuronale Netze als Wissensspeicher
5 Klassifikation
5.1 K-Nearest Neighbour
5.1.1 K-Nearest-Neighbour-Algorithmus 5.1.2 Ein verfeinerter Algorithmus Anmerkungen
5.2 Entscheidungsbaumlernen
5.2.1 Erzeugen eines Entscheidungsbaums 5.2.2 Auswahl eines Attributs Metrische Attribute 5.2.3 Der ID3-Algorithmus zur Erzeugung eines Entscheidungsbaums 5.2.4 Entropie 5.2.5 Der Gini-Index 5.2.6 Der C4.5-Algorithmus 5.2.7 Probleme beim Entscheidungsbaumlernen 5.2.8 Entscheidungsbaum und Regeln
5.3 Naive Bayes
5.3.1 Bayessche Formel 5.3.2 Der Naive-Bayes-Algorithmus Schritt 1 Schritt 2
5.4 Vorwärtsgerichtete Neuronale Netze
5.4.1 Architektur 5.4.2 Das Backpropagation-of-Error-Lernverfahren 5.4.3 Modifikationen des Backpropagation-Algorithmus Backpropagation mit Momentum QuickProp Resilient Propagation (RPROP) 5.4.4 Ein Beispiel 5.4.5 Convolutional Neural Networks
5.5 Support Vector Machines
5.5.1 Grundprinzip 5.5.2 Formale Darstellung von Support Vector Machines
5.6 Ensemble Learning
5.6.1 Bagging 5.6.2 Boosting 5.6.3 Random Forest
6 Cluster-Analyse
6.1 Arten der Cluster-Analyse
6.1.1 Partitionierende Cluster-Bildung 6.1.2 Hierarchische Cluster-Bildung Agglomerative Cluster-Bildung Divisive Cluster-Bildung 6.1.3 Dichtebasierte Cluster-Bildung 6.1.4 Cluster-Analyse mit Neuronalen Netzen
6.2 Der k-Means-Algorithmus 6.3 Der k-Medoid-Algorithmus 6.4 Erwartungsmaximierung 6.5 Agglomeratives Clustern
Average Linkage (Within Groups) Centroid WARD
6.6 Dichtebasiertes Clustern 6.7 Cluster-Bildung mittels selbstorganisierender Karten
6.7.1 Aufbau 6.7.2 Lernen 6.7.3 Visualisierung einer SOM 6.7.4 Ein Beispiel
6.8 Cluster-Bildung mittels neuronaler Gase 6.9 Cluster-Bildung mittels ART 6.10 Der Fuzzy-c-Means-Algorithmus
7 Assoziationsanalyse
7.1 Der A-Priori-Algorithmus
7.1.1 Generierung der Kandidaten 7.1.2 Erzeugen der Regeln
7.2 Frequent Pattern Growth 7.3 Assoziationsregeln für spezielle Aufgaben
7.3.1 Hierarchische Assoziationsregeln 7.3.2 Quantitative Assoziationsregeln 7.3.3 Erzeugung von temporalen Assoziationsregeln
8 Datenvorbereitung
8.1 Motivation 8.2 Arten der Datenvorbereitung
8.2.1 Datenselektion und -integration 8.2.2 Datensäuberung Fehlende Daten Inkonsistente und falsche Daten 8.2.3 Datenreduktion Aggregation Dimensionsreduktion Datenkompression Numerische Datenreduktion 8.2.4 Ungleichverteilung des Zielattributs 8.2.5 Datentransformation Anpassung der Datentypen und Konvertierungen Anpassung von Zeichenketten Anpassung von Datumsangaben und Maßeinheiten Umwandlung von nominalen und ordinalen Daten in metrische Daten Zwei Beispiele illustrieren, wie eine solche Umwandlung vonstatten gehen kann. Diskretisierung Normalisierung und Skalierung Kombination oder Separierung von Attributen Berechnung abgeleiteter Werte Datenaggregation Datenglättung Hauptachsentransformation
8.3 Ein Beispiel
9 Bewertung
9.1 Prinzip der minimalen Beschreibungslängen 9.2 Interessantheitsmaße für Assoziationsregeln
9.2.1 Support 9.2.2 Konfidenz 9.2.3 Completeness 9.2.4 Gain-Funktion 9.2.5 p-s-Funktion 9.2.6 Lift 9.2.7 Einordnung der Interessantheitsmaße
9.3 Gütemaße und Fehlerkosten
9.3.1 Fehlerraten 9.3.2 Weitere Gütemaße für Klassifikatoren 9.3.3 Fehlerkosten
9.4 Testmengen
Holdout Stratifikation Leave-one-out
9.5 Qualität von Clustern 9.6 Visualisierung
10 Eine Data-Mining-Aufgabe
10.1 Die Aufgabe 10.2 Das Problem 10.3 Die Daten 10.4 Datenvorbereitung 10.5 Experimente
10.5.1 K-Nearest Neighbour 10.5.2 Naive Bayes 10.5.3 Entscheidungsbaumverfahren 10.5.4 Neuronale Netze
10.6 Auswertung der Ergebnisse
A Anhang – Beispieldaten
A. 1 Iris-Daten A. 2 Sojabohnen A. 3 Wetter-Daten
Variante 1 Variante 2
A. 4 Kontaktlinsen-Daten
Literatur Stichwortverzeichnis
Notes
  • ← Prev
  • Back
  • Next →
  • ← Prev
  • Back
  • Next →

Chief Librarian: Las Zenow <zenow@riseup.net>
Fork the source code from gitlab
.

This is a mirror of the Tor onion service:
http://kx5thpx2olielkihfyo4jgjqfb7zx7wxr3sd4xzt26ochei4m6f7tayd.onion