Log In
Or create an account ->
Imperial Library
Home
About
News
Upload
Forum
Help
Login/SignUp
Index
Title Page
Copyright
Contents
Vorwort
1 Einführung
1.1 Auswertung von Massendaten
1.2 Ablauf einer Datenanalyse
1.3 Das Vorgehensmodell von Fayyad
Datenselektion
Datenvorverarbeitung
Datentransformation
Data Mining
Evaluation und Interpretation
1.4 Interdisziplinarität von Data Mining
Datenbanken und Data Warehouses
Wissensbasierte Systeme
Maschinelles Lernen
Statistik
Visualisierung
1.5 Wozu Data Mining?
1.6 Werkzeuge
1.6.1 KNIME
1.6.2 WEKA
Beispiel 1.1 (Wetter-Beispiel in Weka).
1.6.3 JavaNNS
2 Grundlagen des Data Mining
2.1 Grundbegriffe
2.2 Datentypen
2.3 Abstands- und Ähnlichkeitsmaße
2.4 Grundlagen Künstlicher Neuronaler Netze
Propagierungsfunktion
Ausgabefunktion
Beispiel-Neuron
2.5 Logik
2.6 Überwachtes und unüberwachtes Lernen
3 Anwendungsklassen
3.1 Cluster-Analyse
3.2 Klassifikation
3.3 Numerische Vorhersage
Lineare Regression
3.4 Assoziationsanalyse
3.5 Text Mining
3.6 Web Mining
4 Wissensrepräsentation
4.1 Entscheidungstabelle
4.2 Entscheidungsbäume
4.3 Regeln
4.4 Assoziationsregeln
Schwellwerte
Arten von Assoziationsregeln
Hierarchische Assoziationsregeln
Quantitative Assoziationsregeln
Unscharfe Assoziationsregeln
Temporale Assoziationsregeln
4.5 Instanzenbasierte Darstellung
4.6 Repräsentation von Clustern
4.7 Neuronale Netze als Wissensspeicher
5 Klassifikation
5.1 K-Nearest Neighbour
5.1.1 K-Nearest-Neighbour-Algorithmus
5.1.2 Ein verfeinerter Algorithmus
Anmerkungen
5.2 Entscheidungsbaumlernen
5.2.1 Erzeugen eines Entscheidungsbaums
5.2.2 Auswahl eines Attributs
Metrische Attribute
5.2.3 Der ID3-Algorithmus zur Erzeugung eines Entscheidungsbaums
5.2.4 Entropie
5.2.5 Der Gini-Index
5.2.6 Der C4.5-Algorithmus
5.2.7 Probleme beim Entscheidungsbaumlernen
5.2.8 Entscheidungsbaum und Regeln
5.3 Naive Bayes
5.3.1 Bayessche Formel
5.3.2 Der Naive-Bayes-Algorithmus
Schritt 1
Schritt 2
5.4 Vorwärtsgerichtete Neuronale Netze
5.4.1 Architektur
5.4.2 Das Backpropagation-of-Error-Lernverfahren
5.4.3 Modifikationen des Backpropagation-Algorithmus
Backpropagation mit Momentum
QuickProp
Resilient Propagation (RPROP)
5.4.4 Ein Beispiel
5.4.5 Convolutional Neural Networks
5.5 Support Vector Machines
5.5.1 Grundprinzip
5.5.2 Formale Darstellung von Support Vector Machines
5.6 Ensemble Learning
5.6.1 Bagging
5.6.2 Boosting
5.6.3 Random Forest
6 Cluster-Analyse
6.1 Arten der Cluster-Analyse
6.1.1 Partitionierende Cluster-Bildung
6.1.2 Hierarchische Cluster-Bildung
Agglomerative Cluster-Bildung
Divisive Cluster-Bildung
6.1.3 Dichtebasierte Cluster-Bildung
6.1.4 Cluster-Analyse mit Neuronalen Netzen
6.2 Der k-Means-Algorithmus
6.3 Der k-Medoid-Algorithmus
6.4 Erwartungsmaximierung
6.5 Agglomeratives Clustern
Average Linkage (Within Groups)
Centroid
WARD
6.6 Dichtebasiertes Clustern
6.7 Cluster-Bildung mittels selbstorganisierender Karten
6.7.1 Aufbau
6.7.2 Lernen
6.7.3 Visualisierung einer SOM
6.7.4 Ein Beispiel
6.8 Cluster-Bildung mittels neuronaler Gase
6.9 Cluster-Bildung mittels ART
6.10 Der Fuzzy-c-Means-Algorithmus
7 Assoziationsanalyse
7.1 Der A-Priori-Algorithmus
7.1.1 Generierung der Kandidaten
7.1.2 Erzeugen der Regeln
7.2 Frequent Pattern Growth
7.3 Assoziationsregeln für spezielle Aufgaben
7.3.1 Hierarchische Assoziationsregeln
7.3.2 Quantitative Assoziationsregeln
7.3.3 Erzeugung von temporalen Assoziationsregeln
8 Datenvorbereitung
8.1 Motivation
8.2 Arten der Datenvorbereitung
8.2.1 Datenselektion und -integration
8.2.2 Datensäuberung
Fehlende Daten
Inkonsistente und falsche Daten
8.2.3 Datenreduktion
Aggregation
Dimensionsreduktion
Datenkompression
Numerische Datenreduktion
8.2.4 Ungleichverteilung des Zielattributs
8.2.5 Datentransformation
Anpassung der Datentypen und Konvertierungen
Anpassung von Zeichenketten
Anpassung von Datumsangaben und Maßeinheiten
Umwandlung von nominalen und ordinalen Daten in metrische Daten Zwei Beispiele illustrieren, wie eine solche Umwandlung vonstatten gehen kann.
Diskretisierung
Normalisierung und Skalierung
Kombination oder Separierung von Attributen
Berechnung abgeleiteter Werte
Datenaggregation
Datenglättung
Hauptachsentransformation
8.3 Ein Beispiel
9 Bewertung
9.1 Prinzip der minimalen Beschreibungslängen
9.2 Interessantheitsmaße für Assoziationsregeln
9.2.1 Support
9.2.2 Konfidenz
9.2.3 Completeness
9.2.4 Gain-Funktion
9.2.5 p-s-Funktion
9.2.6 Lift
9.2.7 Einordnung der Interessantheitsmaße
9.3 Gütemaße und Fehlerkosten
9.3.1 Fehlerraten
9.3.2 Weitere Gütemaße für Klassifikatoren
9.3.3 Fehlerkosten
9.4 Testmengen
Holdout
Stratifikation
Leave-one-out
9.5 Qualität von Clustern
9.6 Visualisierung
10 Eine Data-Mining-Aufgabe
10.1 Die Aufgabe
10.2 Das Problem
10.3 Die Daten
10.4 Datenvorbereitung
10.5 Experimente
10.5.1 K-Nearest Neighbour
10.5.2 Naive Bayes
10.5.3 Entscheidungsbaumverfahren
10.5.4 Neuronale Netze
10.6 Auswertung der Ergebnisse
A Anhang – Beispieldaten
A. 1 Iris-Daten
A. 2 Sojabohnen
A. 3 Wetter-Daten
Variante 1
Variante 2
A. 4 Kontaktlinsen-Daten
Literatur
Stichwortverzeichnis
Notes
← Prev
Back
Next →
← Prev
Back
Next →