Log In
Or create an account ->
Imperial Library
Home
About
News
Upload
Forum
Help
Login/SignUp
Index
Cover
Titelseite
Impressum
Inhaltsverzeichnis
Über die Autoren
Einführung
Über dieses Buch
Grundvoraussetzungen
Symbole, die in diesem Buch verwendet werden
Weitere Ressourcen
Und nun?
Teil I: Einführung in das maschinelle Lernen
Kapitel 1: Künstliche Intelligenz in Fiktion und Realität
Eine realistische Betrachtung von KI
Träume von elektrischen Schafen
Die Grenzen zwischen Fiktion und Realität
Die Beziehung zwischen KI und maschinellem Lernen
Die technischen Spezifikationen von KI und maschinellem Lernen
Technische und kreative Vorgehensweisen
Kapitel 2: Lernen im Zeitalter von Big Data
Definition von Big Data
Mögliche Quellen für Big Data
Die Statistik und das maschinelle Lernen
Die Rolle von Algorithmen
Das Training von Algorithmen
Kapitel 3: Ein Ausblick auf die Zukunft
Nützliche Technologien für die Zukunft
Neue Arbeitsfelder durch maschinelles Lernen
Potenzielle Tücken zukünftiger Technologien
Teil II: Einrichtung Ihrer Programmierumgebung
Kapitel 4: Installation einer R‐Distribution
Auswahl einer R‐Distribution für maschinelles Lernen
Installation von R unter Windows
Installation von R unter Linux
Installation von R unter Mac OS X
Herunterladen der Quelltexte und Datensätze
Kapitel 5: Programmierung mit R und RStudio
Wichtige Datentypen
Verwendung von Vektoren
Datenorganisation mit Listen
Verwendung von Matrizen
Nutzung mehrerer Dimensionen mit Arrays
Nutzung von Data‐Frames
Durchführung einfacher statistischer Aufgaben
Kapitel 6: Installation einer Python‐Distribution
Auswahl einer Python‐Distribution für maschinelles Lernen
Installation von Python unter Linux
Installation von Python unter Mac OS X
Installation von Python unter Windows
Herunterladen der Quelltexte und Datensätze
Kapitel 7: Programmierung mit Python und Anaconda
Zahlen und logische Ausdrücke in Python
Erzeugung und Verwendung von Zeichenketten
Interaktion mit Datums‐ und Zeitangaben
Erzeugung und Verwendung von Funktionen
Bedingungen und Schleifen
Datenspeicherung mit Mengen, Listen und Tupeln
Definition nützlicher Iteratoren
Datenindizierung mit Wörterbüchern
Codespeicherung in Modulen
Kapitel 8: Weitere Softwareprogramme für maschinelles Lernen
Die Vorgänger: SAS, Stata und SPSS
Lernen im akademischen Sektor mit Weka
Einfacher Zugriff auf komplexe Algorithmen mit LIBSVM
Höchstgeschwindigkeit mit Vowpal Wabbit
Visualisierung mit Knime und RapidMiner
Verwaltung riesiger Datenmengen mit Spark
Teil III: Mathematische Grundlagen
Kapitel 9: Mathematische Grundlagen des maschinellen Lernens
Die Arbeit mit Daten
Die Welt der Wahrscheinlichkeiten
Nutzung der Statistik für maschinelles Lernen
Kapitel 10: Fehlerfunktionen und ihre Minimierung
Der Lernprozess als Optimierung
Kostenfunktionen
Minimierung der Fehlerfunktion
Aktualisierung per Mini‐Batch‐ und Online‐Lernen
Kapitel 11: Validierung von maschinellem Lernen
Fehler durch inkorrekte Stichprobenerhebung
Der Einfluss von Bias
Beachtung der Komplexität des Modells
Ausgeglichene Lösungen
Training, Validierung und Test
Kreuzvalidierung
Alternativen bei der Validierung
Optimierung von Kreuzvalidierungsverfahren
Vermeidung von Datenlecks und Bias in Stichproben
Kapitel 12: Einfache Lerner
Das faszinierende Perzeptron
Klassifikationsbäume und der Greedy‐Ansatz
Wahrscheinlichkeitsbasierte Algorithmen
Teil IV: Aufbereitung und Verwendung von Daten zum Lernen
Kapitel 13: Vorverarbeitung von Daten
Erfassung und Bereinigung von Daten
Korrektur von fehlenden Daten
Transformation von Verteilungen
Erzeugung Ihrer eigenen Merkmale
Komprimierung von Daten
Abgrenzung anomaler Daten
Kapitel 14: Ausnutzung von Ähnlichkeiten in Daten
Messung der Ähnlichkeit zwischen Vektoren
Suche nach Clustern durch Berechnung von Abständen
Feinanpassung des k‐Means‐Algorithmus
Klassifikation mit k‐Nearest Neighbors
Auswahl des korrekten Parameters k
Kapitel 15: Einfache Anwendung von linearen Modellen
Kombination von Variablen
Vermischung von Variablen unterschiedlichen Typs
Nutzung von Wahrscheinlichkeiten
Schätzung der richtigen Merkmale
Lernen aus einzelnen Beispielen
Kapitel 16: Komplexere Lernverfahren und neuronale Netze
Imitation der Natur beim Lernen
Vermeidung von Überanpassung
Einführung in Deep Learning
Kapitel 17: Support Vector Machines und Kernel‐Funktionen
Ein neuer Ansatz für das Problem der Separierbarkeit
Die Funktionsweise des Algorithmus
Nichtlinearität
Implementierung und Hyperparameter
Klassifikation und Schätzung mit einer SVM
Kapitel 18: Kombination von Lernalgorithmen in Ensembles
Kombination von Entscheidungsbäumen
Verwendung beinahe zufälliger Schätzungen
Boosting von intelligenten Prädiktoren
Durchschnitt verschiedener Prädiktoren
Teil V: Praktische Anwendung von maschinellem Lernen
Kapitel 19: Klassifikation von Bildern
Die Arbeit mit Bildern
Extraktion visueller Merkmale
Gesichtserkennung mit Eigengesichtern
Klassifikation von Bildern
Kapitel 20: Bewertung von Meinungen und Stimmungslagen
Einführung in die Verarbeitung natürlicher Sprache
Lesende Maschinen
Bewertung und Klassifikation von Texten
Kapitel 21: Produkt‐ und Filmempfehlungen
Revolutionäre Systeme
Bewertungsdaten aus dem Internet
Nutzung der Singulärwertzerlegung
Teil VI: Der Top‐Ten‐Teil
Kapitel 22: Zehn wichtige Pakete für maschinelles Lernen
Oryx 2
CUDA‐Convnet
ConvNetJS
e1071
gbm
Gensim
glmnet
randomForest
SciPy
XGBoost
Kapitel 23: Zehn Methoden zur Verbesserung Ihrer maschinellen Lernmodelle
Auswertung von Lernkurven
Korrekte Verwendung der Kreuzvalidierung
Auswahl der geeigneten Fehler‐ oder Bewertungsmaße
Suche nach den besten Hyperparametern
Test von mehreren Modellen
Bildung des Durchschnitts verschiedener Modelle
Mehrstufige Kombination von Modellen
Erzeugung neuer Merkmale
Auswahl von Merkmalen und Beispielen
Suche nach mehr Daten
Stichwortverzeichnis
End User License Agreement
← Prev
Back
Next →
← Prev
Back
Next →