Log In
Or create an account ->
Imperial Library
Home
About
News
Upload
Forum
Help
Login/SignUp
Index
Title Page
Copyright
Contents
Vorwort
1 Einleitung
Zum Begriff „Künstliche Intelligenz”
Die Entwicklung der KI
Paradigmen der KI
Symbolische Repräsentation – die Wissensebene
Nicht symbolische Ansätze und Maschinelles Lernen
Verteilung und Situiertheit
Verkörperung (Embodiment)
Teilbereiche und Anwendungsgebiete der Künstlichen Intelligenz
Danksagung
Literaturverzeichnis
Notes
2 Wissensrepräsentation und -verarbeitung
2.1 Einleitung und Motivation
2.1.1 Wissen – wozu?
2.1.2 Wissensformen
2.1.3 Repräsentation
2.1.4 Wissensverarbeitung = Schlussfolgern
2.2 Deklarative Wissensrepräsentation
2.2.1 Wissensbasierte Systeme
2.2.2 Die Rolle der Logik
2.2.3 Schlussfolgerungstypen
2.3 Ein Beispiel: Beschreibungslogiken
2.3.1 Der Formalismus
2.3.2 Semantik
2.3.3 Inferenzdienste
2.3.4 Inferenzalgorithmen
2.3.5 Berechenbarkeitseigenschaften
2.3.6 Jenseits von 𝒜ℒ𝒞
2.4 Zusammenfassung und Ausblick
Literaturverzeichnis
Notes
3 Suche
3.1 Problemlösen als Suche
3.1.1 Zustandsräume
3.1.2 Suchgraphen
3.2 Pfadsuche
3.2.1 Generisches Verfahren
3.2.2 Uninformierte Suche
3.2.3 Informierte Suche
3.2.4 Zusammenfassung
3.3 Optimierung
3.3.1 Bergsteigerverfahren
3.3.2 Evolutionäre Algorithmen
3.4 Modellierung von Problemräumen
Beispiel 3.4.1. (DasAcht-Damen-Problem [25])
3.4.1 Zustände und Operatoren
3.4.2 Zielfunktionen
3.4.3 Interaktion
Literaturverzeichnis
Notes
4 Wissen über Raum und Zeit
Raumkognition und KI – eine Standortbestimmung
Eine kurze Geschichte des zeitlichen und räumlichen Wissens
Themen dieses Kapitels
4.1 Prinzipielle Ansätze der Repräsentation und des Schlussfolgerns für Wissen über Raum, Zeit und Situationen
4.1.1 Axiomatisierung in klassischer Logik
4.1.2 Temporale Logiken
4.1.3 Räumliche Logiken
4.1.4 Qualitative Modellierung und constraint-basiertes Schließen
4.2 Zeit und Situationen
4.2.1 Zeit als lineare Abfolge
4.2.2 Zeit als verzweigende Struktur
4.3 Raum
4.3.1 Integriert raumzeitliche Ansätze
4.3.2 Anwendungsbereich: ontologiebasierter Datenzugriff auf räumliche und temporale Daten
4.4 Zusammenfassung
Danksagung
Literaturverzeichnis
Notes
5 Automatische Inferenz
5.1 Einführung
5.2 Entwurf automatischer Inferenzsysteme
5.2.1 Logik
5.2.2 Kalküle
5.2.3 Beweisprozeduren
5.2.4 Implementierung
5.3 Prädikatenlogik erster Stufe
5.4 Analytische Sequenzenkalküle (Refinement Logik)
5.5 Analytische Tableaus
5.6 Matrixbeweise
5.7 Konnektionskalkül
5.8 Effiziente Beweissuche
5.8.1 Unifikation
5.8.2 Normalformtransformationen
5.8.3 Reduktionen
5.8.4 Implementierungsaspekte
5.9 Erweiterungen
5.9.1 Konstruktive Logik
5.9.2 Modallogiken
5.9.3 Lineare Logik
5.9.4 Logik höherer Stufe
5.9.5 Einbindung von Theorien
5.10 Schlussbetrachtungen
Literaturverzeichnis
Notes
6 Nichtmonotones Schließen
6.1 Einführung
6.2 Formalisierungen nichtmonotonen Schließens
6.2.1 Default-Logik
6.2.2 Autoepistemische Logik
6.2.3 Zirkumskription
6.3 Default-Schließen als Behandlung von Inkonsistenz
6.3.1 Ein Rahmen für nichtmonotone Systeme
6.3.2 Pooles System
6.3.3 Zuverlässigkeitsstufen
6.4 Nichtmonotonie und Logikprogrammierung
6.4.1 Stabile Modelle
6.4.2 Wohlfundierte Semantik
6.4.3 Antwortmengenprogrammierung
6.5 Argumentation
6.6 Ausblick
Danksagung
Literaturverzeichnis
Notes
7 Kognition
7.1 Einführung in die Kognitionsforschung
7.1.1 Ziele und Highlights des interdisziplinären Feldes Kognitionswissenschaft
7.2 Methodenkanon der Kognitionsforschung
7.2.1 Beiträge formaler Wissenschaften zur Untersuchung menschlicher Kognition
7.2.2 Experimentelle und neurowissenschaftliche Methoden
7.2.3 Kognitive Modellierung
7.3 Zentrale Elemente menschlicher Kognition
7.3.1 Wahrnehmung und Aufmerksamkeit
7.3.2 Mentale Repräsentation und Gedächtnis
7.3.3 Lernen
7.3.4 Denken und Problemlösen
7.3.5 Urteilen, Entscheidung und Bewusstsein
7.3.6 Kognition in der Interaktion
7.4 Ausblick mit zentralen Challenges im Bereich Kognition
Danksagung
Literaturverzeichnis
Notes
8 Unsicheres, impräzises und unscharfes Wissen
8.1 Einleitung
8.1.1 Wissen
8.1.2 Impräzision, Unsicherheit und Unschärfe
8.1.3 Schlussfolgern
8.2 Unsicheres Wissen
8.2.1 Wahrscheinlichkeit
8.2.2 Probabilistische Schlussfolgerungsnetze
8.2.3 Wissensrevision
8.2.4 Erschließen kausaler Beziehungen
8.3 Unscharfes Wissen
8.3.1 Fuzzy-Mengen
8.3.2 Fuzzy-Regelsysteme
8.3.3 Unsicheres unscharfes Wissen
Literaturverzeichnis
Notes
9 Fallbasiertes Schließen
9.1 Grundprinzip des fallbasierten Schließens
9.1.1 CBR-Zyklus
9.1.2 Wissenscontainer
9.2 Fallrepräsentation
9.2.1 Struktur von Fällen
9.2.2 Grundlegende Ansätze zur Fallrepräsentation
9.2.3 Attribut-Wert Repräsentation
9.2.4 Objektorientierte Repräsentation
9.2.5 Graphbasierte Repräsentation
9.2.6 Fallrepräsentation für die Planung
9.2.7 Weiterführende Aspekte
9.3 Ähnlichkeit im fallbasierten Schließen
9.3.1 Bedeutung der Ähnlichkeit
9.3.2 Formalisierung und Modellierung von Ähnlichkeitsmaßen
9.3.3 Traditionelle Ähnlichkeitsmaße
9.3.4 Lokal-Global-Prinzip
9.3.5 Ähnlichkeitsmaße für die objektorientierte Repräsentation
9.3.6 Ähnlichkeitsmaße für graphbasierte Repräsentation
9.3.7 Ähnlichkeitsmaße für die fallbasierte Planung
9.3.8 Weiterführende Aspekte
9.4 Retrieval
9.4.1 Sequenzielles Retrieval
9.4.2 Zweistufiges Retrieval
9.4.3 Indexorientiertes Retrieval
9.5 Adaption
9.5.1 Adaptionsansätze
9.5.2 Repräsentationsformen für Adaptionswissen
9.5.3 Adaptionsprozess
9.6 Lernen und Wartung
9.6.1 Lernen von Fällen
9.6.2 Lernen von Ähnlichkeitswissen
9.6.3 Lernen von Adaptionswissen
9.6.4 Transferlernen
9.6.5 Wartung von CBR-Systemen
9.7 Anwendungsgebiete
9.7.1 Diagnose technischer Systeme
9.7.2 Planung
9.7.3 Prozessorientierte Informationssysteme
9.7.4 Computerspiele
9.8 CBR-Tools und Frameworks
9.8.1 myCBR – Rapid Prototyping von CBR-Anwendungen
9.8.2 ProCAKE – Process-Oriented Case-Based Knowledge Engine
9.8.3 COLIBRI
9.8.4 IAS – Empolis Information Access System
9.9 Aktuelle Aspekte
9.9.1 Erklärfähigkeit von CBR-Systemen (XAI)
9.9.2 CBR und Deep Learning
9.9.3 CBR und Agenten
9.10 Schlussbemerkung
Literaturverzeichnis
Notes
10 Planen
10.1 Überblick
10.1.1 Sprachmächtigkeit
10.1.2 Unsicherheit
10.1.3 Domänenspezifisches Wissen
10.1.4 Andere Erweiterungen
10.2 Klassisches Planen
Definition 10.2.1. (Klassische Planungsaufgabe)
10.3 Zustandsraumsuche
Definition 10.3.1. (Zustandsraum)
10.3.1 Heuristische Suche
10.3.2 Heuristiken
10.3.3 Pruning
10.4 Symbolische Suche
Definition 10.4.1. (BDD)
Algorithmus 10.7 Pseudocode von symbolischer Breitensuche.
10.5 SAT-Planen
Definition 10.5.1. (Einfache SAT-Codierung)
Literaturverzeichnis
Notes
11 Grundlagen des Maschinellen Lernens
11.1 Wozu braucht man Maschinelles Lernen?
11.1.1 Der Begriff des Maschinellen Lernens
11.1.2 Unterschiedliche Lernaufgaben
11.1.3 Die Prozesssicht des Maschinellen Lernens
11.2 Ablauf des Maschinellen Lernens am Beispiel der logistischen Regression
11.2.1 Trainings- und Testmenge
11.2.2 Das Modell der logistischen Regression
11.2.3 Die Verlustfunktion: Maximum Likelihood
11.2.4 Einige Verlustfunktionen
11.2.5 Optimierung durch Gradientenabstieg
11.2.6 Stochastischer Gradientenabstieg
11.2.7 Evaluation des Modells
11.2.8 Bayessche Modelle
11.3 Einführung in neuronale Netze
11.3.1 Beispiel: Lineare Separierbarkeit
11.3.2 Konnektionistischer Ansatz
11.3.3 Backpropagation
11.3.4 Numerische Stabilität und Konvergenz
11.3.5 Regularisierung
11.3.6 Netzwerktypen und Lernprobleme
11.4 Lernen von Regeln und logischen Zusammenhängen
11.4.1 Entscheidungsbäume
11.4.2 Random Forest
11.4.3 Gradient-Boosted Tree
11.4.4 Markov-Logik-Netze
11.5 Klassiker des Maschinellen Lernens
11.5.1 Lineare Diskriminanzanalyse (LDA)
11.5.2 Stützvektormaschinen (SVM)
11.5.3 L2 Stützvektormaschinen und ein besonders einfacher Trainingsalgorithmus
11.5.4 Der Kerntrick und nicht lineare Stützvektormaschinen
11.5.5 Stützvektormaschinen sind flache neuronal Netze
11.5.6 Weiterentwicklungen der Kernelmethoden
11.6 Verbesserung der Modelle und des Trainingsprozesses
11.6.1 Initialisierung der Parameter
11.6.2 k-fach Kreuzvalidierung
11.6.3 Optimierungsverfahren für maschinelle Lernverfahren
11.6.4 Konvergenz des Gradientenabstiegs
11.6.5 Optimierung und Parallelisierung
11.6.6 Optimierung der Hyperparameter
11.6.7 Auswertung der Modellunsicherheit
11.6.8 Lernstrategien
11.7 Infrastruktur und Toolboxen
11.7.1 Toolboxen für das Maschinelle Lernen
11.7.2 Toolboxen für tiefe neuronale Netze
Literaturverzeichnis
Notes
12 Tiefe neuronale Netze
12.1 Welche Vorteile haben tiefe neuronale Netze
12.2 Historische Entwicklung tiefer neuronaler Netze
12.3 Faltungsnetzwerke
12.3.1 Faltungsschichten als dichte Merkmalsdetektoren
12.3.2 Konstruktion von Faltungsnetzwerken
12.3.3 Lernen in tiefen Faltungsnetzwerken
12.4 Die Analyse von Sequenzen: rekurrente neuronale Netze
12.4.1 Die Berechnung von Embeddings
12.4.2 Rekurrente neuronale Netze (RNN)
12.4.3 Training des RNN
12.4.4 Explodierende und verschwindende Gradienten
12.4.5 Long Short-Term Memory
12.4.6 RNN mit mehreren Ebenen
12.4.7 Erzeugung von Text mit einem RNN-Sprachmodell
12.4.8 Übersetzung durch Sequenz-nach-Sequenz-Modelle
12.4.9 Die Verbesserung von Übersetzungen durch Attention
12.4.10 Attention-basierte Transformer übertreffen RNN
12.4.11 Transferlernen mit BERT
12.4.12 Generierung von Texten mit GPT2
12.5 Generative neuronale Modelle
12.5.1 Tiefe Boltzmann-Maschine
12.5.2 Variante Autoencoder
12.5.3 Kontradiktorische Netzwerke
12.6 Bestärkungslernen
12.6.1 Markov-Entscheidungsprozesse
12.6.2 Infinite-Horizon-Modell und Bellman-Gleichungen
12.6.3 Value Iteration und Policy Iteration
12.6.4 Von Monte-Carlo-Simulationen zu Temporal-Difference (TD) Learning
12.6.5 Q-Learning
12.6.6 Allgemeine Anmerkungen zum Bestärkungslernen
12.6.7 Bestärkungslernen und neuronale Netze
12.7 Anwendungsbereiche tiefer neuronaler Netze
Literaturverzeichnis
Notes
13 Vertrauenswürdiges, transparentes und robustes Maschinelles Lernen
13.1 Erklärbarkeit und Interpretierbarkeit
13.1.1 Der Begriff der Interpretierbarkeit
13.1.2 Transparentes Maschinelles Lernen
13.1.3 Beurteilung von Interpretierbarkeit
13.2 Robustheit, Sicherheit und Verlässlichkeit
13.2.1 Der Einfluss von Ausreißern und Messfehlern
13.2.2 Gezielte Konstruktion von falsch klassifizierten Beispielen
13.2.3 Zusammenfassung
13.3 Diskussion und abschließende Bemerkungen
13.3.1 Können tiefe neuronale Netze mit vielen Parametern zuverlässig trainiert werden?
13.3.2 Welche Merkmale werden von tiefen neuronalen Netzen verwendet?
13.3.3 Müssen tiefe neuronale Netze jedesmal alles neu lernen?
13.3.4 Können künstliche neuronale Netze Weltwissen erwerben?
13.3.5 Wie kann man vertrauenswürdige, transparente und robuste KNN sicherstellen?
Literaturverzeichnis
Notes
14 Sprachverarbeitung
14.1 Sprache und sprachliche Beschreibungsebenen
14.2 Sprache und Künstliche Intelligenz
14.3 Anwendungen der Sprachtechnologie
14.3.1 Werkzeuge für die zwischenmenschliche Kommunikation
14.3.2 Werkzeuge für die Produktion von Texten und audiovisuellen Medien
14.3.3 Werkzeuge für das Informationsmanagement
14.3.4 Mensch-Maschine-Kommunikation
14.4 Architekturen für die Sprachverarbeitung
14.4.1 Modularisierung
14.4.2 Trainierbare Architekturen
14.4.3 Inkrementelle Verarbeitung
14.4.4 Multimodale Kommunikation
14.5 Sprachliche Strukturen und ihre Beschreibung
14.6 Modelle und Verfahren der Sprachverarbeitung
14.6.1 Sprachmodelle
14.6.2 Transformation von Symbolsequenzen
14.6.3 Repräsentationslernen
14.6.4 Strukturanalyse
14.7 Ausblick
Literaturverzeichnis
Notes
15 Bildanalyse
15.1 Einführung
15.2 Lokale Bildanalyse
15.2.1 Entrauschung
15.2.2 Algorithmische Steigerung der Bild- und Videoauflösung
15.2.3 Style-Transfer
15.2.4 Tiefenschätzung
15.2.5 Bildsegmentierung und Objekterkennung
15.3 Globale Bildanalyse
15.3.1 Bildbasierte Suche
15.3.2 Objektidentifikation
15.3.3 Klassifikation
15.3.4 Bildbeschriftung
15.3.5 Beantwortung visueller Fragen (VQA)
Literaturverzeichnis
16 Constraints
16.1 Einführung
16.2 Finite-Domain-Constraints
16.2.1 Constraint-Satisfaction-Probleme
16.2.2 Lokale und globale Konsistenz
16.2.3 Suchtechniken
16.2.4 Globale Constraints
16.3 Constraint-basierte Programmierung
16.3.1 Constraint-basierte Sprachen
16.3.2 Constraint-Bibliotheken
16.3.3 Parallele Constraint-Programmierung
16.4 Anwendungsbeispiele
16.4.1 Auftragsoptimierung
16.4.2 Der Icosoku
16.4.3 Ein Schichtplanungsproblem
16.4.4 Verbesserung der Modelle durch Reformulierung
16.5 Soft-Constraints
Spezielle Ausprägungen
Generelle Soft-Constraint-Frameworks
Partielle Constraint-Erfüllung und Constraint-Hierarchien
16.6 Modellierung und Schließen mit temporalen Constraints
16.7 Zusammenfassung
Literaturverzeichnis
Notes
17 Multiagentensysteme
17.1 Was ist ein Multiagentensystem?
17.1.1 Was charakterisiert ein Multiagentensystem?
17.1.2 Ein Beispiel
17.1.3 Welche Fragen sind wichtig bei der Entwicklung?
17.2 Einfache Agenten und Schwarmintelligenz
17.3 Deliberative Agenten, klassische verteilte KI
17.3.1 Individuelle Ziele versus soziale Ziele?
17.3.2 Planen und Koordinieren
17.3.3 Anwendungsbeispiele
17.4 Rationale Agenten und verteilte Entscheidungsfindung
17.4.1 Idee des rationalen Agenten
17.4.2 Computational Social Choice
17.4.3 Auktionen
17.4.4 Bildung von Koalitionen
17.5 Verhandelnde Agenten
17.6 Lernende Agenten und Multiagentenlernen
17.7 Multiagentensimulation
17.8 Bemerkungen und weiterführende Literatur
Literaturverzeichnis
Notes
18 Semantic Web
18.1 Einleitung
18.2 Architektur des Semantic Web
HTTP/URI/IRI
XML
RDF
SPARQL
RDFS
OWL
RIF
SHACL
Crypto
Identifizierung und Verknüpfung
Herkunft und Vertrauenswürdigkeit
Benutzungsoberfläche und Anwendungen
18.3 Verteilte semantische Graphdaten im Web
18.3.1 Verknüpfte Graphdaten auf dem Web
18.3.2 Anfragen auf Graphdaten mit SPARQL
18.3.3 Anfragen auf verknüpfte, verteilte Graphdaten
18.4 Wissensrepräsentation und -integration
18.4.1 Analyse des einführenden Beispiels
18.4.2 Verschiedene Arten von Ontologien
18.4.3 Verteiltes Netzwerk von Ontologien im Web
18.5 Inferenz im Web
18.5.1 Transformation von Daten
18.5.2 Schlussfolgerungen über Daten
18.6 Identität und Verknüpfung von Objekten und Begriffen
18.7 Herkunft und Vertrauenswürdigkeit von Daten
18.8 Anwendungen des Semantic Web
18.8.1 Vokabulare und Schemas
18.8.2 Semantische Suche
18.8.3 Knowledge Graphs und Wikidata
18.8.4 Zugriff auf soziale Netzwerke
18.9 Bedeutung für die Praxis
18.10 Zusammenfassung
Danksagung
Literaturverzeichnis
Notes
19 Universelle Spielprogramme
19.1 Spielregeln beschreiben: Wissensrepräsentation
19.1.1 Spielzustände und Züge
19.1.2 Spielregeln
19.1.3 GDL: Zusammenfassung
19.1.4 Kommunikationsprotokoll für GDL
19.2 Spielregeln verstehen: Inferenz
Definition 19.2.1. (Semantik einer GDL-Beschreibung)
19.2.1 Unifikation/Grundinstanziierung
19.2.2 Ableitungen
19.2.3 Regeln mit Negation
19.2.4 Regeln mit Disjunktion
19.3 Spielbaumsuche
19.3.1 Minimax-Verfahren
19.3.2 Optimierungen
19.3.3 Gegenspielermodelle
19.4 Stochastische Baumsuche
19.4.1 MCT-Suche
19.4.2 UCT-Bonus
19.4.3 Optimierungen
19.4.4 Grenzen
19.5 Heuristische Suche
19.5.1 Mobilitätsheuristik
19.5.2 Zielheuristiken
19.5.3 Optimierungen
19.6 Wissen
19.6.1 Domänenanalyse
19.6.2 Regelstrukturanalyse
19.7 Lernen
19.8 Erweiterung: Spiele mit unvollständiger Information
19.8.1 GDL-II
19.8.2 Hypothetische Spielstellungen
19.9 Weiterführende Literatur
Literaturverzeichnis
Notes
20 Assistenzsysteme
20.1 Einordnung des Gebiets in die Künstliche Intelligenz
20.2 Assistenzbedarf in Beispielen
20.2.1 Anwendungsbeispiel 1: Interaktion mit einem Küchenhelfer
20.2.2 Warum viele Dialogmodelle für Assistenz zu einfach sind …
20.2.3 Anwendungsbeispiel 2: Interaktive Bedienungsanleitung
20.3 Eine Definition für Assistenzsysteme
20.3.1 Der Bedarf als zentrales Konzept
20.3.2 Companion-Technologie: Eine Realisierung der Definition von Assistenzsystemen
20.3.3 Problemlöse- und State-Tracking-Kompetenzen von Assistenzsystemen
20.4 Wissensrepräsentation für Assistenzsysteme
20.4.1 Linguistisches Wissen
20.4.2 Wissen über Tasks
20.4.3 Wissen über die Domäne
20.4.4 Wissen über Nutzer, Interaktion und Kooperation
20.5 Assistenz per Design
20.5.1 Strukturierung von Software hinsichtlich ihrer Funktionalität – Ausführungsmodelle
20.5.2 Interaktionsmodelle für Assistenzsysteme
20.5.3 Proaktivität in Assistenzverläufen
20.6 Kooperationsmodelle für Assistenzsysteme
20.7 Assistenz durch KI-Algorithmen
20.7.1 Planung
20.7.2 Erstellen von Diagnosen
20.7.3 Probabilistische Inferenz des Nutzerstatus
20.7.4 Ermitteln optimaler Strategien
20.7.5 Deep Learning mit explizitem Wissen als Lösung?
20.8 Wahrnehmung der Umgebung durch Sensorik
20.9 Herausforderungen
20.9.1 Intentionserkennung
20.9.2 Sprachverstehen in Assistenzkontexten
20.9.3 Nicht modelliertes Handeln
Literaturverzeichnis
Notes
21 Ethische Fragen der Künstlichen Intelligenz
21.1 Begriffliche Klärung
21.2 Ethische Grundfragen
21.2.1 Ethik als wissenschaftliche Disziplin und transakademisches Unternehmen
21.2.2 Autonomie
21.2.3 Verantwortungslücke und Intransparenz
21.2.4 Werthaltigkeit verwendeter Daten, Diskriminierung und Bias
21.2.5 Ethik der Interaktion
21.3 Ansätze einer ethischen und rechtlichen Regulierung
21.3.1 Maschinen- und Roboterethik: Die Realisierung moralischer Maschinen
21.3.2 Roboterrechte/Personenstatus von KI
21.3.3 Künstliche Intelligenz für militärische Anwendungen
21.4 Ausblick
Danksagung
Literaturverzeichnis
Notes
Beteiligte
Autorinnen und Autoren mit Affiliationen
Gutachtende
Historie
Auflagen und Herausgeber (ohne aktuelle Auflage)
Kapitel und Autoren (ohne aktuelle Auflage)
Nicht mehr enthaltene Kapitel
Stichwortverzeichnis
← Prev
Back
Next →
← Prev
Back
Next →