Log In
Or create an account -> 
Imperial Library
  • Home
  • About
  • News
  • Upload
  • Forum
  • Help
  • Login/SignUp

Index
Title Page Copyright Contents Vorwort 1 Einleitung
Zum Begriff „Künstliche Intelligenz” Die Entwicklung der KI Paradigmen der KI
Symbolische Repräsentation – die Wissensebene Nicht symbolische Ansätze und Maschinelles Lernen Verteilung und Situiertheit Verkörperung (Embodiment)
Teilbereiche und Anwendungsgebiete der Künstlichen Intelligenz
Danksagung
Literaturverzeichnis Notes
2 Wissensrepräsentation und -verarbeitung
2.1 Einleitung und Motivation
2.1.1 Wissen – wozu? 2.1.2 Wissensformen 2.1.3 Repräsentation 2.1.4 Wissensverarbeitung = Schlussfolgern
2.2 Deklarative Wissensrepräsentation
2.2.1 Wissensbasierte Systeme 2.2.2 Die Rolle der Logik 2.2.3 Schlussfolgerungstypen
2.3 Ein Beispiel: Beschreibungslogiken
2.3.1 Der Formalismus 2.3.2 Semantik 2.3.3 Inferenzdienste 2.3.4 Inferenzalgorithmen 2.3.5 Berechenbarkeitseigenschaften 2.3.6 Jenseits von 𝒜⁢ℒ⁢𝒞
2.4 Zusammenfassung und Ausblick Literaturverzeichnis Notes
3 Suche
3.1 Problemlösen als Suche
3.1.1 Zustandsräume 3.1.2 Suchgraphen
3.2 Pfadsuche
3.2.1 Generisches Verfahren 3.2.2 Uninformierte Suche 3.2.3 Informierte Suche 3.2.4 Zusammenfassung
3.3 Optimierung
3.3.1 Bergsteigerverfahren 3.3.2 Evolutionäre Algorithmen
3.4 Modellierung von Problemräumen
Beispiel 3.4.1. (DasAcht-Damen-Problem [25]) 3.4.1 Zustände und Operatoren 3.4.2 Zielfunktionen 3.4.3 Interaktion
Literaturverzeichnis Notes
4 Wissen über Raum und Zeit
Raumkognition und KI – eine Standortbestimmung Eine kurze Geschichte des zeitlichen und räumlichen Wissens Themen dieses Kapitels 4.1 Prinzipielle Ansätze der Repräsentation und des Schlussfolgerns für Wissen über Raum, Zeit und Situationen
4.1.1 Axiomatisierung in klassischer Logik 4.1.2 Temporale Logiken 4.1.3 Räumliche Logiken 4.1.4 Qualitative Modellierung und constraint-basiertes Schließen
4.2 Zeit und Situationen
4.2.1 Zeit als lineare Abfolge 4.2.2 Zeit als verzweigende Struktur
4.3 Raum
4.3.1 Integriert raumzeitliche Ansätze 4.3.2 Anwendungsbereich: ontologiebasierter Datenzugriff auf räumliche und temporale Daten
4.4 Zusammenfassung
Danksagung
Literaturverzeichnis Notes
5 Automatische Inferenz
5.1 Einführung 5.2 Entwurf automatischer Inferenzsysteme
5.2.1 Logik 5.2.2 Kalküle 5.2.3 Beweisprozeduren 5.2.4 Implementierung
5.3 Prädikatenlogik erster Stufe 5.4 Analytische Sequenzenkalküle (Refinement Logik) 5.5 Analytische Tableaus 5.6 Matrixbeweise 5.7 Konnektionskalkül 5.8 Effiziente Beweissuche
5.8.1 Unifikation 5.8.2 Normalformtransformationen 5.8.3 Reduktionen 5.8.4 Implementierungsaspekte
5.9 Erweiterungen
5.9.1 Konstruktive Logik 5.9.2 Modallogiken 5.9.3 Lineare Logik 5.9.4 Logik höherer Stufe 5.9.5 Einbindung von Theorien
5.10 Schlussbetrachtungen Literaturverzeichnis Notes
6 Nichtmonotones Schließen
6.1 Einführung 6.2 Formalisierungen nichtmonotonen Schließens
6.2.1 Default-Logik 6.2.2 Autoepistemische Logik 6.2.3 Zirkumskription
6.3 Default-Schließen als Behandlung von Inkonsistenz
6.3.1 Ein Rahmen für nichtmonotone Systeme 6.3.2 Pooles System 6.3.3 Zuverlässigkeitsstufen
6.4 Nichtmonotonie und Logikprogrammierung
6.4.1 Stabile Modelle 6.4.2 Wohlfundierte Semantik 6.4.3 Antwortmengenprogrammierung
6.5 Argumentation 6.6 Ausblick
Danksagung
Literaturverzeichnis Notes
7 Kognition
7.1 Einführung in die Kognitionsforschung
7.1.1 Ziele und Highlights des interdisziplinären Feldes Kognitionswissenschaft
7.2 Methodenkanon der Kognitionsforschung
7.2.1 Beiträge formaler Wissenschaften zur Untersuchung menschlicher Kognition 7.2.2 Experimentelle und neurowissenschaftliche Methoden 7.2.3 Kognitive Modellierung
7.3 Zentrale Elemente menschlicher Kognition
7.3.1 Wahrnehmung und Aufmerksamkeit 7.3.2 Mentale Repräsentation und Gedächtnis 7.3.3 Lernen 7.3.4 Denken und Problemlösen 7.3.5 Urteilen, Entscheidung und Bewusstsein 7.3.6 Kognition in der Interaktion
7.4 Ausblick mit zentralen Challenges im Bereich Kognition
Danksagung
Literaturverzeichnis Notes
8 Unsicheres, impräzises und unscharfes Wissen
8.1 Einleitung
8.1.1 Wissen 8.1.2 Impräzision, Unsicherheit und Unschärfe 8.1.3 Schlussfolgern
8.2 Unsicheres Wissen
8.2.1 Wahrscheinlichkeit 8.2.2 Probabilistische Schlussfolgerungsnetze 8.2.3 Wissensrevision 8.2.4 Erschließen kausaler Beziehungen
8.3 Unscharfes Wissen
8.3.1 Fuzzy-Mengen 8.3.2 Fuzzy-Regelsysteme 8.3.3 Unsicheres unscharfes Wissen
Literaturverzeichnis Notes
9 Fallbasiertes Schließen
9.1 Grundprinzip des fallbasierten Schließens
9.1.1 CBR-Zyklus 9.1.2 Wissenscontainer
9.2 Fallrepräsentation
9.2.1 Struktur von Fällen 9.2.2 Grundlegende Ansätze zur Fallrepräsentation 9.2.3 Attribut-Wert Repräsentation 9.2.4 Objektorientierte Repräsentation 9.2.5 Graphbasierte Repräsentation 9.2.6 Fallrepräsentation für die Planung 9.2.7 Weiterführende Aspekte
9.3 Ähnlichkeit im fallbasierten Schließen
9.3.1 Bedeutung der Ähnlichkeit 9.3.2 Formalisierung und Modellierung von Ähnlichkeitsmaßen 9.3.3 Traditionelle Ähnlichkeitsmaße 9.3.4 Lokal-Global-Prinzip 9.3.5 Ähnlichkeitsmaße für die objektorientierte Repräsentation 9.3.6 Ähnlichkeitsmaße für graphbasierte Repräsentation 9.3.7 Ähnlichkeitsmaße für die fallbasierte Planung 9.3.8 Weiterführende Aspekte
9.4 Retrieval
9.4.1 Sequenzielles Retrieval 9.4.2 Zweistufiges Retrieval 9.4.3 Indexorientiertes Retrieval
9.5 Adaption
9.5.1 Adaptionsansätze 9.5.2 Repräsentationsformen für Adaptionswissen 9.5.3 Adaptionsprozess
9.6 Lernen und Wartung
9.6.1 Lernen von Fällen 9.6.2 Lernen von Ähnlichkeitswissen 9.6.3 Lernen von Adaptionswissen 9.6.4 Transferlernen 9.6.5 Wartung von CBR-Systemen
9.7 Anwendungsgebiete
9.7.1 Diagnose technischer Systeme 9.7.2 Planung 9.7.3 Prozessorientierte Informationssysteme 9.7.4 Computerspiele
9.8 CBR-Tools und Frameworks
9.8.1 myCBR – Rapid Prototyping von CBR-Anwendungen 9.8.2 ProCAKE – Process-Oriented Case-Based Knowledge Engine 9.8.3 COLIBRI 9.8.4 IAS – Empolis Information Access System
9.9 Aktuelle Aspekte
9.9.1 Erklärfähigkeit von CBR-Systemen (XAI) 9.9.2 CBR und Deep Learning 9.9.3 CBR und Agenten
9.10 Schlussbemerkung Literaturverzeichnis Notes
10 Planen
10.1 Überblick
10.1.1 Sprachmächtigkeit 10.1.2 Unsicherheit 10.1.3 Domänenspezifisches Wissen 10.1.4 Andere Erweiterungen
10.2 Klassisches Planen
Definition 10.2.1. (Klassische Planungsaufgabe)
10.3 Zustandsraumsuche
Definition 10.3.1. (Zustandsraum) 10.3.1 Heuristische Suche 10.3.2 Heuristiken 10.3.3 Pruning
10.4 Symbolische Suche
Definition 10.4.1. (BDD) Algorithmus 10.7 Pseudocode von symbolischer Breitensuche.
10.5 SAT-Planen
Definition 10.5.1. (Einfache SAT-Codierung)
Literaturverzeichnis Notes
11 Grundlagen des Maschinellen Lernens
11.1 Wozu braucht man Maschinelles Lernen?
11.1.1 Der Begriff des Maschinellen Lernens 11.1.2 Unterschiedliche Lernaufgaben 11.1.3 Die Prozesssicht des Maschinellen Lernens
11.2 Ablauf des Maschinellen Lernens am Beispiel der logistischen Regression
11.2.1 Trainings- und Testmenge 11.2.2 Das Modell der logistischen Regression 11.2.3 Die Verlustfunktion: Maximum Likelihood 11.2.4 Einige Verlustfunktionen 11.2.5 Optimierung durch Gradientenabstieg 11.2.6 Stochastischer Gradientenabstieg 11.2.7 Evaluation des Modells 11.2.8 Bayessche Modelle
11.3 Einführung in neuronale Netze
11.3.1 Beispiel: Lineare Separierbarkeit 11.3.2 Konnektionistischer Ansatz 11.3.3 Backpropagation 11.3.4 Numerische Stabilität und Konvergenz 11.3.5 Regularisierung 11.3.6 Netzwerktypen und Lernprobleme
11.4 Lernen von Regeln und logischen Zusammenhängen
11.4.1 Entscheidungsbäume 11.4.2 Random Forest 11.4.3 Gradient-Boosted Tree 11.4.4 Markov-Logik-Netze
11.5 Klassiker des Maschinellen Lernens
11.5.1 Lineare Diskriminanzanalyse (LDA) 11.5.2 Stützvektormaschinen (SVM) 11.5.3 L2 Stützvektormaschinen und ein besonders einfacher Trainingsalgorithmus 11.5.4 Der Kerntrick und nicht lineare Stützvektormaschinen 11.5.5 Stützvektormaschinen sind flache neuronal Netze 11.5.6 Weiterentwicklungen der Kernelmethoden
11.6 Verbesserung der Modelle und des Trainingsprozesses
11.6.1 Initialisierung der Parameter 11.6.2 k-fach Kreuzvalidierung 11.6.3 Optimierungsverfahren für maschinelle Lernverfahren 11.6.4 Konvergenz des Gradientenabstiegs 11.6.5 Optimierung und Parallelisierung 11.6.6 Optimierung der Hyperparameter 11.6.7 Auswertung der Modellunsicherheit 11.6.8 Lernstrategien
11.7 Infrastruktur und Toolboxen
11.7.1 Toolboxen für das Maschinelle Lernen 11.7.2 Toolboxen für tiefe neuronale Netze
Literaturverzeichnis Notes
12 Tiefe neuronale Netze
12.1 Welche Vorteile haben tiefe neuronale Netze 12.2 Historische Entwicklung tiefer neuronaler Netze 12.3 Faltungsnetzwerke
12.3.1 Faltungsschichten als dichte Merkmalsdetektoren 12.3.2 Konstruktion von Faltungsnetzwerken 12.3.3 Lernen in tiefen Faltungsnetzwerken
12.4 Die Analyse von Sequenzen: rekurrente neuronale Netze
12.4.1 Die Berechnung von Embeddings 12.4.2 Rekurrente neuronale Netze (RNN) 12.4.3 Training des RNN 12.4.4 Explodierende und verschwindende Gradienten 12.4.5 Long Short-Term Memory 12.4.6 RNN mit mehreren Ebenen 12.4.7 Erzeugung von Text mit einem RNN-Sprachmodell 12.4.8 Übersetzung durch Sequenz-nach-Sequenz-Modelle 12.4.9 Die Verbesserung von Übersetzungen durch Attention 12.4.10 Attention-basierte Transformer übertreffen RNN 12.4.11 Transferlernen mit BERT 12.4.12 Generierung von Texten mit GPT2
12.5 Generative neuronale Modelle
12.5.1 Tiefe Boltzmann-Maschine 12.5.2 Variante Autoencoder 12.5.3 Kontradiktorische Netzwerke
12.6 Bestärkungslernen
12.6.1 Markov-Entscheidungsprozesse 12.6.2 Infinite-Horizon-Modell und Bellman-Gleichungen 12.6.3 Value Iteration und Policy Iteration 12.6.4 Von Monte-Carlo-Simulationen zu Temporal-Difference (TD) Learning 12.6.5 Q-Learning 12.6.6 Allgemeine Anmerkungen zum Bestärkungslernen 12.6.7 Bestärkungslernen und neuronale Netze
12.7 Anwendungsbereiche tiefer neuronaler Netze Literaturverzeichnis Notes
13 Vertrauenswürdiges, transparentes und robustes Maschinelles Lernen
13.1 Erklärbarkeit und Interpretierbarkeit
13.1.1 Der Begriff der Interpretierbarkeit 13.1.2 Transparentes Maschinelles Lernen 13.1.3 Beurteilung von Interpretierbarkeit
13.2 Robustheit, Sicherheit und Verlässlichkeit
13.2.1 Der Einfluss von Ausreißern und Messfehlern 13.2.2 Gezielte Konstruktion von falsch klassifizierten Beispielen 13.2.3 Zusammenfassung
13.3 Diskussion und abschließende Bemerkungen
13.3.1 Können tiefe neuronale Netze mit vielen Parametern zuverlässig trainiert werden? 13.3.2 Welche Merkmale werden von tiefen neuronalen Netzen verwendet? 13.3.3 Müssen tiefe neuronale Netze jedesmal alles neu lernen? 13.3.4 Können künstliche neuronale Netze Weltwissen erwerben? 13.3.5 Wie kann man vertrauenswürdige, transparente und robuste KNN sicherstellen?
Literaturverzeichnis Notes
14 Sprachverarbeitung
14.1 Sprache und sprachliche Beschreibungsebenen 14.2 Sprache und Künstliche Intelligenz 14.3 Anwendungen der Sprachtechnologie
14.3.1 Werkzeuge für die zwischenmenschliche Kommunikation 14.3.2 Werkzeuge für die Produktion von Texten und audiovisuellen Medien 14.3.3 Werkzeuge für das Informationsmanagement 14.3.4 Mensch-Maschine-Kommunikation
14.4 Architekturen für die Sprachverarbeitung
14.4.1 Modularisierung 14.4.2 Trainierbare Architekturen 14.4.3 Inkrementelle Verarbeitung 14.4.4 Multimodale Kommunikation
14.5 Sprachliche Strukturen und ihre Beschreibung 14.6 Modelle und Verfahren der Sprachverarbeitung
14.6.1 Sprachmodelle 14.6.2 Transformation von Symbolsequenzen 14.6.3 Repräsentationslernen 14.6.4 Strukturanalyse
14.7 Ausblick Literaturverzeichnis Notes
15 Bildanalyse
15.1 Einführung 15.2 Lokale Bildanalyse
15.2.1 Entrauschung 15.2.2 Algorithmische Steigerung der Bild- und Videoauf‌lösung 15.2.3 Style-Transfer 15.2.4 Tiefenschätzung 15.2.5 Bildsegmentierung und Objekterkennung
15.3 Globale Bildanalyse
15.3.1 Bildbasierte Suche 15.3.2 Objektidentifikation 15.3.3 Klassifikation 15.3.4 Bildbeschriftung 15.3.5 Beantwortung visueller Fragen (VQA)
Literaturverzeichnis
16 Constraints
16.1 Einführung 16.2 Finite-Domain-Constraints
16.2.1 Constraint-Satisfaction-Probleme 16.2.2 Lokale und globale Konsistenz 16.2.3 Suchtechniken 16.2.4 Globale Constraints
16.3 Constraint-basierte Programmierung
16.3.1 Constraint-basierte Sprachen 16.3.2 Constraint-Bibliotheken 16.3.3 Parallele Constraint-Programmierung
16.4 Anwendungsbeispiele
16.4.1 Auftragsoptimierung 16.4.2 Der Icosoku 16.4.3 Ein Schichtplanungsproblem 16.4.4 Verbesserung der Modelle durch Reformulierung
16.5 Soft-Constraints
Spezielle Ausprägungen Generelle Soft-Constraint-Frameworks Partielle Constraint-Erfüllung und Constraint-Hierarchien
16.6 Modellierung und Schließen mit temporalen Constraints 16.7 Zusammenfassung Literaturverzeichnis Notes
17 Multiagentensysteme
17.1 Was ist ein Multiagentensystem?
17.1.1 Was charakterisiert ein Multiagentensystem? 17.1.2 Ein Beispiel 17.1.3 Welche Fragen sind wichtig bei der Entwicklung?
17.2 Einfache Agenten und Schwarmintelligenz 17.3 Deliberative Agenten, klassische verteilte KI
17.3.1 Individuelle Ziele versus soziale Ziele? 17.3.2 Planen und Koordinieren 17.3.3 Anwendungsbeispiele
17.4 Rationale Agenten und verteilte Entscheidungsfindung
17.4.1 Idee des rationalen Agenten 17.4.2 Computational Social Choice 17.4.3 Auktionen 17.4.4 Bildung von Koalitionen
17.5 Verhandelnde Agenten 17.6 Lernende Agenten und Multiagentenlernen 17.7 Multiagentensimulation 17.8 Bemerkungen und weiterführende Literatur Literaturverzeichnis Notes
18 Semantic Web
18.1 Einleitung 18.2 Architektur des Semantic Web
HTTP/URI/IRI XML RDF SPARQL RDFS OWL RIF SHACL Crypto Identifizierung und Verknüpfung Herkunft und Vertrauenswürdigkeit Benutzungsoberfläche und Anwendungen
18.3 Verteilte semantische Graphdaten im Web
18.3.1 Verknüpfte Graphdaten auf dem Web 18.3.2 Anfragen auf Graphdaten mit SPARQL 18.3.3 Anfragen auf verknüpfte, verteilte Graphdaten
18.4 Wissensrepräsentation und -integration
18.4.1 Analyse des einführenden Beispiels 18.4.2 Verschiedene Arten von Ontologien 18.4.3 Verteiltes Netzwerk von Ontologien im Web
18.5 Inferenz im Web
18.5.1 Transformation von Daten 18.5.2 Schlussfolgerungen über Daten
18.6 Identität und Verknüpfung von Objekten und Begriffen 18.7 Herkunft und Vertrauenswürdigkeit von Daten 18.8 Anwendungen des Semantic Web
18.8.1 Vokabulare und Schemas 18.8.2 Semantische Suche 18.8.3 Knowledge Graphs und Wikidata 18.8.4 Zugriff auf soziale Netzwerke
18.9 Bedeutung für die Praxis 18.10 Zusammenfassung
Danksagung
Literaturverzeichnis Notes
19 Universelle Spielprogramme
19.1 Spielregeln beschreiben: Wissensrepräsentation
19.1.1 Spielzustände und Züge 19.1.2 Spielregeln 19.1.3 GDL: Zusammenfassung 19.1.4 Kommunikationsprotokoll für GDL
19.2 Spielregeln verstehen: Inferenz
Definition 19.2.1. (Semantik einer GDL-Beschreibung) 19.2.1 Unifikation/Grundinstanziierung 19.2.2 Ableitungen 19.2.3 Regeln mit Negation 19.2.4 Regeln mit Disjunktion
19.3 Spielbaumsuche
19.3.1 Minimax-Verfahren 19.3.2 Optimierungen 19.3.3 Gegenspielermodelle
19.4 Stochastische Baumsuche
19.4.1 MCT-Suche 19.4.2 UCT-Bonus 19.4.3 Optimierungen 19.4.4 Grenzen
19.5 Heuristische Suche
19.5.1 Mobilitätsheuristik 19.5.2 Zielheuristiken 19.5.3 Optimierungen
19.6 Wissen
19.6.1 Domänenanalyse 19.6.2 Regelstrukturanalyse
19.7 Lernen 19.8 Erweiterung: Spiele mit unvollständiger Information
19.8.1 GDL-II 19.8.2 Hypothetische Spielstellungen
19.9 Weiterführende Literatur Literaturverzeichnis Notes
20 Assistenzsysteme
20.1 Einordnung des Gebiets in die Künstliche Intelligenz 20.2 Assistenzbedarf in Beispielen
20.2.1 Anwendungsbeispiel 1: Interaktion mit einem Küchenhelfer 20.2.2 Warum viele Dialogmodelle für Assistenz zu einfach sind … 20.2.3 Anwendungsbeispiel 2: Interaktive Bedienungsanleitung
20.3 Eine Definition für Assistenzsysteme
20.3.1 Der Bedarf als zentrales Konzept 20.3.2 Companion-Technologie: Eine Realisierung der Definition von Assistenzsystemen 20.3.3 Problemlöse- und State-Tracking-Kompetenzen von Assistenzsystemen
20.4 Wissensrepräsentation für Assistenzsysteme
20.4.1 Linguistisches Wissen 20.4.2 Wissen über Tasks 20.4.3 Wissen über die Domäne 20.4.4 Wissen über Nutzer, Interaktion und Kooperation
20.5 Assistenz per Design
20.5.1 Strukturierung von Software hinsichtlich ihrer Funktionalität – Ausführungsmodelle 20.5.2 Interaktionsmodelle für Assistenzsysteme 20.5.3 Proaktivität in Assistenzverläufen
20.6 Kooperationsmodelle für Assistenzsysteme 20.7 Assistenz durch KI-Algorithmen
20.7.1 Planung 20.7.2 Erstellen von Diagnosen 20.7.3 Probabilistische Inferenz des Nutzerstatus 20.7.4 Ermitteln optimaler Strategien 20.7.5 Deep Learning mit explizitem Wissen als Lösung?
20.8 Wahrnehmung der Umgebung durch Sensorik 20.9 Herausforderungen
20.9.1 Intentionserkennung 20.9.2 Sprachverstehen in Assistenzkontexten 20.9.3 Nicht modelliertes Handeln
Literaturverzeichnis Notes
21 Ethische Fragen der Künstlichen Intelligenz
21.1 Begriff‌liche Klärung 21.2 Ethische Grundfragen
21.2.1 Ethik als wissenschaftliche Disziplin und transakademisches Unternehmen 21.2.2 Autonomie 21.2.3 Verantwortungslücke und Intransparenz 21.2.4 Werthaltigkeit verwendeter Daten, Diskriminierung und Bias 21.2.5 Ethik der Interaktion
21.3 Ansätze einer ethischen und rechtlichen Regulierung
21.3.1 Maschinen- und Roboterethik: Die Realisierung moralischer Maschinen 21.3.2 Roboterrechte/Personenstatus von KI 21.3.3 Künstliche Intelligenz für militärische Anwendungen
21.4 Ausblick
Danksagung
Literaturverzeichnis Notes
Beteiligte
Autorinnen und Autoren mit Affiliationen Gutachtende Historie
Auf‌lagen und Herausgeber (ohne aktuelle Auf‌lage) Kapitel und Autoren (ohne aktuelle Auf‌lage) Nicht mehr enthaltene Kapitel
Stichwortverzeichnis
  • ← Prev
  • Back
  • Next →
  • ← Prev
  • Back
  • Next →

Chief Librarian: Las Zenow <zenow@riseup.net>
Fork the source code from gitlab
.

This is a mirror of the Tor onion service:
http://kx5thpx2olielkihfyo4jgjqfb7zx7wxr3sd4xzt26ochei4m6f7tayd.onion