Log In
Or create an account -> 
Imperial Library
  • Home
  • About
  • News
  • Upload
  • Forum
  • Help
  • Login/SignUp

Index
Narratologia Titel Impressum Inhaltsverzeichnis Übersicht der Tabellen Übersicht der Zeichnungen 1 Einleitung
1.1 Worum geht es in dieser Studie?
1.1.1 Einordnung in das Feld der Digital Humanities 1.1.2 Redewiedergabe als Untersuchungsgegenstand
1.2 Aufbau der Studie
Teil I: Manuelle Annotation des Erzähltextkorpus
2 Einführung 3 Das Erzähltextkorpus
3.1 Prinzipien der Zusammenstellung 3.2 Zur Textgestalt im Erzähltextkorpus
3.2.1 Musäus: Entführung 3.2.2 Bürger: Münchhausen 3.2.3 Bernhardi: Belinde 3.2.4 Günderrode: Bramine 3.2.5 Kleist: Erdbeben 3.2.6 Tieck: Eckbert 3.2.7 Hauff: Kalif 3.2.8 Hebbel: Kuh 3.2.9 May: Ziege 3.2.10 Schnitzler: Ypsilon 3.2.11 Janitschek: Weib 3.2.12 Heym: Irre 3.2.13 Kafka: Gracchus 3.2.14 Zusammenfassung
4 Das Phänomen Wiedergabe
4.1 Wiedergabe in Linguistik und Literaturwissenschaft 4.2 Die Konstanten narratologischer Kategoriesysteme 4.3 Zur Konstruktion narratologischer Wiedergabeskalen
4.3.1 Mimesis 4.3.2 Faithfulness 4.3.3 Mittelbarkeit 4.3.4 Textinterferenz
5 Das Annotationssystem
5.1 Direkte Wiedergabe
5.1.1 Beschreibung
5.1.1.1 Freie direkte Wiedergabe 5.1.1.2 Innerer Monolog und Bewusstseinsstrom 5.1.1.3 Wechsel der Erzählebene 5.1.1.4 Zitate
5.1.2 Markierungsrichtlinien
5.2 Freie indirekte Wiedergabe
5.2.1 Beschreibung 5.2.2 Unabhängige Konjunktivsätze 5.2.3 Markierungsrichtlinien
5.3 Indirekte Wiedergabe
5.3.1 Beschreibung 5.3.2 Markierungsrichtlinien
5.4 Erzählte Wiedergabe
5.4.1 Beschreibung 5.4.2 Markierungsrichtlinien
5.5 Attribute
5.5.1 level – Schachtelungsgrad 5.5.2 non-fact – Nicht-faktische Wiedergaben 5.5.3 prag – Abweichende pragmatische Funktion 5.5.4 ambig – Ambiguitäten
5.5.4.1 Ambiguität des Wiedergegebenen 5.5.4.2 Ambiguität der Wiedergabetechnik 5.5.5 narr – Sprache oder Handlung?
5.5.6 border – Grenzbereiche der Definition
5.5.6.1 Definition und Grenzfälle von Rede 5.5.6.2 Definition und Grenzfälle von Geschriebenem 5.5.6.3 Definition und Grenzfälle von Gedanken
5.5.7 metaph – Metaphern
5.6 Sonderkategorien
5.6.1 frame – Rahmen für direkte Wiedergabe 5.6.2 embedded – Wechsel der Erzählebene
6 Auswertung
6.1 Zur Subjektivität manueller Annotation 6.2 Hauptkategorien 6.3 Attribute 6.4 Fazit
Teil II: Automatische Annotation
7 Einführung 8 Technischer Rahmen und Vorverarbeitung 9 Grundsätzliches zur Auswertung
9.1 Arten der Auswertung 9.2 Maße zur Bewertung des Erfolgs 9.3 Auswertung auf Satzbasis
10 Regelbasierte Ansätze
10.1 Wiedergabewörter
10.1.1 Wörter für Wiedergabe in linguistischen Darstellungen 10.1.2 Das Modul MarkSTWWords
10.1.2.1 Kompilation der Wiedergabewortliste 10.1.2.2 Aufbereitung der Liste 10.1.2.3 Empirische Studie: Die Verwendung ausgewählter Wiedergabewörter 10.1.2.4 Auswertung auf Basis des Erzähltextkorpus
10.2 Die Erkennung indirekter Wiedergabe
10.2.1 Konjunktiv (und würde-Konstruktion) 10.2.2 Eingebettete Sätze
10.2.2.1 Verbletztsätze mit einleitendem Element 10.2.2.2 Verbzweitsätze 10.2.2.3 zu + Infinitiv-Konstruktion 10.2.2.4 Zur Stellung des eingebetteten Satzes
10.2.3 Formelhafte Referatshinweise 10.2.4 Das Modul MarkIndirect
10.3 Die Erkennung direkter Wiedergabe
10.3.1 Rahmenformeln 10.3.2 Anführungszeichen
10.3.2.1 Funktion 10.3.2.2 Typographische Besonderheiten 10.3.2.3 Historische Perspektive
10.3.3 Das Modul MarkQuotation 10.3.4 Das Modul MarkFrame 10.3.5 Kombination von MarkQuotation und MarkFrame
10.4 Die Erkennung erzählter Wiedergabe
10.4.1 Indikatoren für erzählte Wiedergabe 10.4.2 Das Modul MarkReported
10.5 Die Erkennung freier indirekter Wiedergabe
10.5.1 Indikatoren für freie indirekte Wiedergabe 10.5.2 Das Modul MarkFreeIndirect
10.6 Fazit
10.6.1 Gesamtauswertung der regelbasierten Erkennung 10.6.2 Andere Wiedergabeerkenner 10.6.3 Möglichkeiten der Weiterentwicklung
11 Maschinelles Lernen
11.1 Die Formulierung der Lernaufgabe 11.2 Sätze als Instanzen 11.3 Attribute 11.4 Lernalgorithmus: RandomForest 11.5 Lernen aller Wiedergabekategorien gleichzeitig 11.6 Lernen jeder Wiedergabekategorie einzeln
11.6.1 Die Bedeutung der Wiedergabewort-Attribute 11.6.2 Pseudo-Frei-Indirekt
11.7 Empirische Studie: Attributbewertung
11.7.1 Attributbewertung für direkte Wiedergabe 11.7.2 Attributbewertung für freie indirekte Wiedergabe 11.7.3 Attributbewertung für indirekte Wiedergabe 11.7.4 Attributbewertung für erzählte Wiedergabe 11.7.5 Allgemeine Beobachtungen
11.8 Lernen auf der Basis von Satzabschnitten
11.8.1 Auswertung auf Satzabschnittsbasis 11.8.2 Auswertung auf Satzbasis
11.9 Fazit
12 Gesamtbewertung der automatischen Erkennung
12.1 Übereinstimmung zwischen den Ergebnissen von regelbasierten Methoden und maschinellem Lernen 12.2 Vergleich der Erkennungsergebnisse für die einzelnen Wiedergabetypen
12.2.1 Korrektheit der Ergebnisse 12.2.2 Voraussagekraft des relativen Anteils an Wiedergabe 12.2.3 Befunde für die einzelnen Wiedergabetypen
12.2.3.1 Direkte Wiedergabe 12.2.3.2 Freie indirekte Wiedergabe 12.2.3.3 Indirekte Wiedergabe 12.2.3.4 Erzählte Wiedergabe
12.3 Auswertung ohne Grenzfälle
12.3.1 Regelbasierte Verfahren 12.3.2 Maschinelles Lernen
13 Schlussbetrachtung
13.1 Manuelle Annotation und die Natur von Wiedergabe
13.1.1 Korpus 13.1.2 Annotation 13.1.3 Merkmale von Wiedergabe
13.2 Automatische Annotation
13.2.1 Überblick und Auswertungsstragien 13.2.2 Direkte Wiedegabe 13.2.3 Indirekte Wiedegabe 13.2.4 Erzählte Wiedegabe 13.2.5 Freie indirekte Wiedegabe 13.2.6 Gesamtbewertung
13.3 Forschungsperspektiven 13.4 Die Studie als Beispiel quantitativer Literaturwissenschaft
A Anhang
A.1 Grundlagen für die Texte des Erzähltextkorpus A.2 Das Digitale-Bibliothek-Korpus A.3 Das Literatur-Korpus
A.3.1 Zusammensetzung A.3.2 Bibliographische Angaben für die zitierten Belege
A.4 Das Stuttgart-Tübingen-Tagset A.5 Zufallseffekte beim Lernen mit Random Forest, Resampling und Kreuzvalidierung A.6 Parametereinstellungen für die maschinellen Lernexperimente A.7 Statistische Formeln
A.7.1 Standardabweichung A.7.2 Korrelation
Literatur Register
  • ← Prev
  • Back
  • Next →
  • ← Prev
  • Back
  • Next →

Chief Librarian: Las Zenow <zenow@riseup.net>
Fork the source code from gitlab
.

This is a mirror of the Tor onion service:
http://kx5thpx2olielkihfyo4jgjqfb7zx7wxr3sd4xzt26ochei4m6f7tayd.onion