Log In
Or create an account ->
Imperial Library
Home
About
News
Upload
Forum
Help
Login/SignUp
Index
Titel
Übersicht der Zeichnungen
Übersicht der Tabellen
Impressum
Vorwort
Inhaltsverzeichnis
1 - Einführung
1.1 Auswertung von Massendaten
1.2 Data Mining und Business Intelligence
1.3 Ablauf einer Datenanalyse
1.4 Interdisziplinarität
1.5 Erfolgreiche Beispiele
1.6 Werkzeuge
1.6.1 KNIME
1.6.2 WEKA
1.6.3 JavaNNS
2 - Grundlagen des Data Mining
2.1 Grundbegriffe
2.2 Datentypen
2.3 Abstands- und Ähnlichkeitsmaße
2.4 Grundlagen Künstlicher Neuronaler Netze
2.5 Logik
2.6 Überwachtes und unüberwachtes Lernen
3 - Anwendungsklassen
3.1 Cluster-Analyse
3.2 Klassifikation
3.3 Numerische Vorhersage
3.4 Assoziationsanalyse
3.5 Text Mining
3.6 Web Mining
4 - Wissensrepräsentation
4.1 Entscheidungstabelle
4.2 Entscheidungsbäume
4.3 Regeln
4.4 Assoziationsregeln
4.5 Instanzenbasierte Darstellung
4.6 Repräsentation von Clustern
4.7 Neuronale Netze als Wissensspeicher
5 - Klassifikation
5.1 K-Nearest Neighbour
5.1.1 K-Nearest-Neighbour-Algorithmus
5.1.2 Ein verfeinerter Algorithmus
5.2 Entscheidungsbaumlernen
5.2.1 Erzeugen eines Entscheidungsbaums
5.2.2 Auswahl eines Attributs
5.2.3 Der ID3-Algorithmus zur Erzeugung einesEntscheidungsbaums
5.2.4 Entropie
5.2.5 Der Gini-Index
5.2.6 Der C4.5-Algorithmus
5.2.7 Probleme beim Entscheidungsbaumlernen
5.2.8 Entscheidungsbaum und Regeln
5.3 Naive Bayes
5.3.1 Bayessche Formel
5.3.2 Der Naive-Bayes-Algorithmus
5.4 Vorwärtsgerichtete Neuronale Netze
5.4.1 Architektur
5.4.2 Das Backpropagation-of-Error-Lernverfahren
5.4.3 Modifikationen des Backpropagation-Algorithmus
5.4.4 Ein Beispiel
5.5 Support Vector Machines
5.5.1 Grundprinzip
5.5.2 Formale Darstellung von Support Vector Machines
5.5.3 Ein Beispiel
6 - Cluster-Analyse
6.1 Arten der Cluster-Analyse
6.2 Der k-Means-Algorithmus
6.3 Der k-Medoid-Algorithmus
6.4 Erwartungsmaximierung
6.5 Agglomeratives Clustern
6.6 Dichtebasiertes Clustern
6.7 Clusterbildung mittels selbstorganisierenderKarten
6.7.1 Aufbau
6.7.2 Lernen
6.7.3 Visualisierung einer SOM
6.7.4 Ein Beispiel
6.8 Clusterbildung mittels neuronaler Gase
6.9 Clusterbildung mittels ART
7 - Assoziationsanalyse
7.1 Der A-Priori-Algorithmus
7.1.1 Generierung der Kandidaten
7.1.2 Erzeugen der Regeln
7.2 Frequent Pattern Growth
7.3 Assoziationsregeln für spezielle Aufgaben
7.3.1 Hierarchische Assoziationsregeln
7.3.2 Quantitative Assoziationsregeln
7.3.3 Erzeugung von temporalen Assoziationsregeln
8 - Datenvorbereitung
8.1 Motivation
8.2 Arten der Datenvorbereitung
8.2.1 Datenselektion und -integration
8.2.2 Datensäuberung
8.2.3 Datenreduktion
8.2.4 Datentransformation
8.3 Ein Beispiel
9 - Bewertung
9.1 Prinzip der minimalen Beschreibungslängen
9.2 Interessantheitsmaße für Assoziationsregeln
9.2.1 Support
9.2.2 Konfidenz
9.2.3 Gain-Funktion
9.2.4 p-s-Funktion
9.2.5 Lift
9.3 Gütemaße und Fehlerkosten
9.3.1 Fehlerraten
9.3.2 Weitere Gütemaße für Klassifikatoren
9.3.3 Fehlerkosten
9.4 Testmengen
9.5 Qualität von Clustern
9.6 Visualisierung
10 - Eine Data-Mining-Aufgabe
10.1 Die Aufgabe
10.2 Das Problem
10.3 Die Daten
10.4 Datenvorbereitung
10.5 Experimente
10.5.1 K-Nearest Neighbour
10.5.2 Naive Bayes
10.5.3 Entscheidungsbaumverfahren
10.5.4 Neuronale Netze
10.6 Auswertung der Ergebnisse
A - Anhang
A.1 Iris-Daten
A.2 Sojabohnen
A.3 Wetter-Daten
A.4 Kontaktlinsen-Daten
Verzeichnis der Symbole
Verzeichnis der Abkürzungen
Literaturverzeichnis
Index
← Prev
Back
Next →
← Prev
Back
Next →