Computing Action
Dieses abgeschlossene Forschungsprojekt ist Gegenstand meines Buches ‘Computing Action’.
Die folgenden einleitenden Kapitel zeigen einen kurzen Abriss der drei Hauptthemenbereiche dieses Buches – wie der Titel vermuten lässt, sind dies Computing, Narratologie und Handlung. Nach der allgemeinen Betrachtung des Computing folgt die weitere Untersuchung der Prämisse, das Abstrakte vor dem Konkreten darzulegen und somit zunächst die narratologischen Aspekte und dann die der Handlung auszuführen. Rund ein Drittel des Umfangs des Gesamttextes wird darüber hinaus einer philosophischen Kritik des Konzepts der Handlung gewidmet. Eine Diskussion deren Anwendung in den Kontexten von Narratologie und Computing schließt sich an.
Zuerst sollen an dieser Stelle jedoch ein paar Worte zur Art und Weise der Übersetzung des ursprünglich deutschen Textes in die englische Sprache stehen. Wichtigster Grundsatz war es den Zugang zum Inhalt für englischsprachige Leser so leicht wie möglich zu gestalten, ohne dabei auf die nötige theoretische Klarheit und Präzision zu verzichten. Diese Vorgehensweise liegt auch der Verwendung von Zitaten von Autoren und Kritikern zugrunde, die ursprünglich in anderen Sprachen als der englischen standen. Wenn möglich wurde eine äquivalente englische Übersetzung aus zuverlässiger Quelle gefunden. Wenn keine Übersetzung veröffentlicht wurde, eine vorhandene nicht erhältlich war oder die Möglichkeit der Missinterpretation barg, wurde eine eigene Übersetzung angefertigt. In Fällen, in denen die ursprüngliche deutsche Wortwahl unabdingbar für ein kritisches Verständnis ist, wurde diese zusätzlich zur Übersetzung angeführt. Auf diese Weise können Leser, die mit der deutschen Sprache vertraut sind, Original und Übersetzung vergleichen und Nuancen entdecken, welche selbst bei der besten Übersetzung leicht verloren gehen.
Computing
Die Realität des 21. Jahrhunderts und des Zeitalters der Informationstechnologie mag zu der Annahme führen, dass Literaturtheorie sich bald – sofern nicht bereits geschehen – der Genauigkeit und Objektivität, die scheinbar von quantitativer Datenanalyse ausgeht, unterwerfen muss. Eine derartige Analyse der momentanen Situation ist allerdings eine wahrheitsverzerrende Übertreibung – obwohl computerphilologische Methoden für die Textanalyse längst nicht mehr so stark verteufelt werden wie zuvor, gab es doch noch keinen derart umfassenden Mentalitätswandel, als dass von einem Paradigmenwechsel in der Literaturwissenschaft gesprochen werden könnte.
Angemessener erscheint darum, von einer Koexistenz einander ergänzender Paradigmen zu sprechen. Diese Toleranz zeigt sich im erweiterten Kontext der sich weiter entwickelnden digitalen Geisteswissenschaften, die neue computerbasierte Methoden mit eigenen theoretischen und technologischen Besonderheiten nutzen und trotzdem fest innerhalb der Geisteswissenschaften verankert sind. Die Bearbeitung und Analyse literarischer Texte mit Hilfe von Computerprogrammen ist eine Subdomäne innerhalb dieses Forschungsfeldes. Der methodologische und epistemologische Status der digitalen Geisteswissenschaften ist während der Entstehung dieses Buches noch in Entwicklung begriffen. Handelt es sich um eine eigene Disziplin? Eine Methodologie? Eine Methode? Oder geht es um nichts weiter als um die Nutzung eines bestimmten Werkzeuges? Die gleichen Fragen stellen sich bezüglich der Computerphilologie, dem Gegenstück zur Computerlinguistik. Obwohl genaue Definitionen also bisher nicht gefunden werden konnten, ist klar, dass der praktische Nutzen (und dessen Grenzen) computerbasierter Textanalyse ausreichend umfassend dokumentiert wurde, um selbst konservativste Kritiker der Computernutzung zu überzeugen.
Tatsächlich ist die Verwendung von Computersoftware in der wissenschaftlichen Analyse von Texten alles andere als neu. Vor allem die Fachbereiche Linguistik, Korpuslinguistik und Stilistik nutzten computerbasierte Methoden, um Charakteristika und Phänomene der geschriebenen und gesprochenen Sprache zu untersuchen und formale Definitionen und Beschreibungen zu finden. Untersucht wurden unter anderen Metrik, die Kalkulation von Morphemen und Worthäufigkeiten. Die computergestützte Analyse solch formaler Textcharakteristika begann vor rund 50 Jahren und ihre Methodik hat an Popularität und Interesse in den letzten Jahren enorm gewonnen, da die benötigten Ressourcen der Hardware zunehmend auch im nicht-akademischen Umfeld zugänglich wurden.
Das in diesem Buch vorgestellte Projekt hat allerdings wenig gemein mit den oben erwähnten Forschungsrichtungen, abgesehen von der technologischen Basis und den implizierten abstrakten Prinzipien. Mein Hauptinteresse ist zunächst ein Philologisches im traditionellen Wortsinn. Empirische Beschreibung und Analyse von textuellen Besonderheiten sind nur von Interesse, wenn sie zu einem synthetischen Bedeutungskonstrukt beitragen. Bedeutung ist ein komplexes Konzept und sollte nicht mit bloßer Benennung oder Verweisen verwechselt werden; Bedeutung definiert die allgemeine anthropologische und semiotische Funktion eines Textes, nicht abstrakte linguistische oder pragmatische Funktionen einzelner Elemente oder Einheiten innerhalb eines Textes. Sie ist das Produkt komplexer und in hohem Maße rekursiver Interaktion von empirisch nachweisbaren Merkmalen und historisch vordefinierten Strukturen und Erkenntnissen. Wenn wir über Bedeutung sprechen und nachdenken, wenn wir beschreiben, wie sie aus einer textuellen Repräsentation heraus entsteht, müssen wir Sprache als dynamischen, multidimensionalen Prozess betrachten und weniger als eine in eine Richtung verlaufende Funktion innerhalb eines zweidimensionalen Systems.
Die Frage danach, wie Bedeutung innerhalb von Texten – oder präziser in Narrativen (Texte, die Ereignisse in zeitlicher Abfolge repräsentieren) – konstruiert wird, ist nicht allein hermeneutischen Disziplinen vorbehalten. In unserem Fall z.B. ist das Konzept der künstlichen Intelligenz von zentraler Bedeutung. Sobald ein Literaturwissenschaftler sich diesem Feld nähert, wird offenbar, dass die Nutzung computerbasierter Analyse bezüglich der Erforschung von Symbolsystemen ein Problem birgt. Wenn es darum geht, die herausragende Rolle des Bedeutungskonzepts in der Literaturtheorie herauszustellen, wird deutlich, dass Computerlinguistik per definitionem zwei diametral zueinanderstehende Erkenntnistheorien nutzt: Das quantitative, numerische und das qualitative, hermeneutische Paradigma.
Wenn computerbasierte Methoden eingesetzt werden, so steht meist das quantitative Paradigma im Vordergrund – Daten werden anhand vordefinierter Algorithmen erhoben, die eine Input-Datenmenge in eine eindeutige nichtwidersprüchliche Output-Datenmenge verwandeln. Die Algorithmen selbst sind auf semantischer Ebene meist neutral, sodass sie die Daten, die sie produzieren nicht beeinflussen. Aus hermeneutischer Sicht gibt es kaum etwas Inhaltsloseres, da eine ebenso bedeutsame kontextsensible und selbstreflexive Instanz fehlt. Das hermeneutische Paradigma schließt die Möglichkeit ein, Zugang zu einem dynamischen und veränderbaren Bezugssystem zu erschaffen. Es geht also weniger darum eine Input-Datenmenge in eine eindeutige, vorhersehbare und verifizierbare Output-Datenmenge zu verwandeln, sondern darum, eine einzigartige neue Interpretation zu finden, die zuvor noch niemals gefunden wurde. Auf theoretischer Ebene heißt dies, dass eine Informationseinheit zu Bedeutung (im emphatischen Sinne des Wortes) gelangt, wenn sie mehr ist als nur ein mechanisch reproduzierbares Ergebnis, mehr als das Ergebnis eines Prozesses des simplen Codierens und Decodierens von Signifikanten.
Doch zwischen den beiden Paradigmen kann eine Brücke geschlagen werden. Bis zu einem gewissen Grad können Algorithmen so programmiert werden, dass sie die Art und Weise wie sie Input- zu Output-Datenmengen transformieren berücksichtigen. So werden sie selbstreflexiv und kontextsensitiv und nähern sich der menschlichen Intelligenz an. Wenn sie so programmiert werden, dass sie rekursive, kombinatorische, transformatorische Operationen statt einseitige berücksichtigen, ermöglichen wir ihnen, sich der Kapazität menschlichen Denkens anzupassen und potentielle Bedeutungen von Texten zu erforschen. Auf diese Weise ermöglicht der Einsatz von Computertechnologie in der Literaturwissenschaft, die beiden fundamentalsten Unzulänglichkeiten der traditionellen Literaturtheorie zu überwinden: Die Unfähigkeit, individuelle Interpretation auf konsistente empirische Beschreibung der Phänomene innerhalb eines Textes zu stützen und die Unmöglichkeit ausreichend umfassende Corpora in methodisch konsistenter Weise zu analysieren, die nötig wäre, um generelle Aussagen zum Werk eines Autors, zu Epochen oder Genres zu treffen. Diese sollten induktive Schlussfolgerungen statt impressionistsicher Beobachtungen oder normativer Feststellungen sein.
Narratologie
Wir sind nun an dem Punkt angelangt, an dem Narratologie ins Spiel kommt. Die exakte Beschreibung der formalen Gestaltung von literarischen Texten ist – wie dem Leser sicher bewusst sein wird – primäres Ziel des russischen Formalismus und der struktutralistischen Narratologie gewesen, bevor sie ihre Theorien und Konzepte anpassten und verfeinerten. Sie gingen davon aus, dass komplexe semantische und ästhetische Merkmale literarischer Texte auf ihre formale Gestaltung und Struktur zurückgeführt werden konnten. Die frühen narratologischen Theorien, die der poststrukturalistischen Bewegung vorangingen, sind in eine formalistische Methodik eingebunden und eignen sich darum besonders, um mit computerbasierten Mitteln verfeinert, erforscht und angewendet zu werden. Bei dieser Betrachtung muss „computerbasiert“ nicht in engerem Sinne als auf ein bestimmtes digitales Verfahren ausgerichtet, verstanden werden, obwohl die Anpassung eines narratologischen Konzepts an digitale Vorgehensweisen meist die Ausrichtung auf eine bestimmte Software einschließt. Wichtiger ist hingegen die Reformulierung des Konzeptes als etwas, das digital Verwendung finden kann. Narratologisch interessante textuelle Phänomene sind selten unterhalb der Ebene der Satzeinheiten (oder vielmehr Aussagen) auszumachen. Es kann sich darum nur um Phänomene handeln, die nur dann auftreten, wenn Sätze (oder Aussagen) aus einem kognitiven Prozess menschlichen Denkens heraus entstehen. Dies ist einer der Gründe, warum Wissenschaftler wie David Herman die Auffassung vertreten, dass Narratologie als Subdomäne der Kognitionswissenschaft redefiniert werden sollte. Schließlich ist die Konstruktion von Information in Texten, insbesondere die zeitlich geordnete Wiedergabe von Ereignissen in narrativen Texten eine der komplexesten Annäherungen, die uns in Bezug auf die Funktionalität menschlicher Informationsverarbeitung in der Realität gelingen kann.
Die Neuorientierung der narratologischen Theorie und Methodologie in Richtung Kognistionswissenschaft zieht eine Reihe signifikanter Konsequenzen nach sich. Prozesse menschlichen Denkens finden nie in einem kontextfreien Umfeld statt. Wenn Narrotologen diese Erkenntnis ernst nehmen, so müssen sie einige ihrer basalen, vom Formalismus übernommenen, Konzepte – darunter Funktion, Ereignis und Handlung – überdenken. Tun sie dies, finden sie sich unverzüglich in einem Boot mir den digitalen Geisteswissenschaftlern wieder. Es gibt also keinen Grund für sie, sämtliche formalistische Ansätze über Bord zu werfen oder aber alleine umzuarbeiten. Skripte, Rahmen und Wissen interagieren mit logischen Allgemeingültigkeiten – das gilt für kognitive Prozesse ebenso wie für narrative Repräsentationen. Gäbe es diese Analogie nicht, so wäre es ein absolutes Rätsel, wie wir zu annähernd gleichen Interpretationen eines identischen narrativen Datenmaterials kommen können. Die computerlinguistische Herangehensweise an ein bestimmtes narratologisches Phänomen muss das abstrakte Model eines Phänomens in Beziehung zu einem prozessorientierten Model setzen, welches einbezieht, wie Ausprägungen des Phänomens gelesen werden.
Welchen Nutzen zieht nun aber die Narratologie daraus? Holen wir uns noch einmal ins Gedächtnis zurück, dass es selbst mit den radikalsten strukturalistischen Ansätzen nicht gelungen ist, Studien hervorzubringen, in denen ein präzise definiertes methodologisches und taxonomisches System konsequent auf einen ausreichend umfangreichen Korpus narrativer Texte angewendet wird. Propps morphologische und funktionale Analyse 100 russischer Märchen scheint das einzige Gegenbeispiel geblieben zu sein. Dieses Buch hat zum Ziel, zu zeigen, dass Computertechnologie die Möglichkeit bietet, diese Lücke zu schließen. Die praktische Anwendung der hier ausgeführten Theorie wird innerhalb dieser Studie zwar auf sechs kürzere Narrative beschränkt sein, die empirische Methodologie kann aber ohne weitere Modifikationen auch auf sehr viel umfangreichere Korpora angewendet werden. Die beiden Computerprogramme EventParser (ein Markuptool) und EpiTest (ein Analysetool) wurden speziell für dieses Buch entwickelt und sind für das hier ausgeführte Projekt von zentraler Bedeutung. Beide Programme und eine ausführliche Dokumentation sind über einen Download verfügbar.
Das oben angeführte Argument reicht noch nicht aus, um der Art und Weise gerecht zu werden, in der Computerphilologen narratologische Problemstellungen betrachten. Die Relevanz der Computerphilologie entsteht eher durch herausragende methodische Verfahren als durch Empirie. Validität von Hypothesen herzustellen ist eine der größten Schwierigkeiten innerhalb der Geisteswissenschaften – ein Nachteil gegenüber den Naturwissenschaften, in denen Validität durch Experimente nachgewiesen werden kann. In beiden Kontexten ist Validität hingegen nur schwer zu erreichen, wenn es um abstrakte oder hypothetische Ausführungen geht, noch schwieriger wird es, wenn von der fundamentalen Relativität von Beobachtungen die Rede ist, die elementarer Bestandteil von Wahrnehmung und Kognition ist. Auf der anderen Seite sind das Prinzip von Ockhams Rasiermesser und das Einhalten von logischer Konsistenz universale Kriterien, die in jeder wissenschaftlichen Disziplin und auf fast jedes theoretische Konstrukt angewendet werden sollten. Doch es wäre illusorisch anzunehmen, dass diese Kriterien gerade in den Geisteswissenschaften und vor allem in den Literaturwissenschaften mit Leichtigkeit anzuwenden wären – die Möglichkeit auf literaturwissenschaftliche Studien den Popper’schen Test der Falsifikation anzuwenden geht gen null.
Vor diesem Hintergrund wird die methodologische Rolle des Computers zu der eines „Meta-Instruments“ (Orlandi 2002:53) anstatt zu der eines bloßen Hilfsmittels. Das bedeutet, dass der Computer uns hilft, eine objektive Laborsituation zu simulieren, in der Ideen über die Grundfunktionen narrativer Prozesse entstehen können. Algorithmen sind erbarmungslos, wenn es darum geht, offensichtliche Widersprüche oder falsch bzw. nicht ausreichend definierten Input ausfindig zu machen. Es bedeutet oft erheblichen Aufwand, narratologische Konzepte in Programmcodes umzuwandeln, der tatsächlich funktioniert. Doch die Investition von Zeit und Energie werden immer dann belohnt, wenn das Programm Missfunktionen, Abbrüche oder Infinite Loops produziert, und so auf Lücken in der der Theorie zugrunde liegenden Argumentation hinweist.
Handlung
Wie der Titel bereits besagt ist „Handlung“ das zentrale narratologische Konzept, welches in dieser Studie behandelt wird. Bereits seit der aristotelischen Poetik haben Forscher versucht herauszufinden, was erzählte Handlung ist, welche Elemente sie enthält und wie wir sie lesen und weitererzählen. Im ersten Teil dieser Studie werden diese Fragen unter philosophischen und narratologischen Gesichtspunkten diskutiert. Anschließend wird eine neue theoretische Definition von „Handlung“ aufgestellt. Im zweiten Teil werde ich frühere narratologische Definitionen reformulieren und auf den computerphilologischen Kontext anwenden.
Im dritten und letzten Teil werde ich die beispielhafte Analyse eines konkreten literarischen Textes durchführen. Aus zwei Gründen habe ich mich für Goethes „Unterhaltungen deutscher Ausgewanderten“ von 1795 entschieden. Dieser Novellenzyklus wurde als besonders interessant ausgemacht, gerade weil es so schwierig ist, die Rahmenhandlung und die Einzelhandlungen der verschiedenen Novellen in Kohärenz zu vereinen. Außerdem möchte ich anhand dieser detaillierten Analyse, die die in den ersten Teilen dieses Buches entwickelten Konzepte nutzt und testet, zeigen, dass die „Unterhaltungen“ nicht nur Handlungen beinhalten, sondern, dass es vielmehr um den Diskurs der Narrativität und die Fragen wie wir lesen und erzählen selbst geht. Um dies nachzuweisen, werde ich die computergenerierten Daten unter dem Gesichtspunkt von Goethes Idee der epistemologischen Unterscheidung der Wahrnehmung natürlicher auf der einen und sozialer und ästhetischer Phänomene auf der anderen Seite betrachten.
List of Tables |
vii |
List of Figures |
vii |
Foreword by Marie-Laure Ryan |
ix |
Acknowledgments |
xv |
Introduction |
xii |
Part 1 Concepts of Action 1 |
1 |
1.1 Action as Project and Construct |
3 |
1.2 Action: From Word to Concept |
29 |
|
29 |
|
31 |
|
40 |
|
42 |
|
45 |
|
45 |
1.3 Philosophical Definitions of Action |
48 |
|
48 |
|
49 |
|
57 |
|
74 |
|
80 |
|
84 |
1.4 The Elements of the Action Construct |
90 |
|
91 |
|
95 |
|
103 |
|
107 |
|
109 |
|
117 |
|
119 |
|
124 |
|
127 |
|
129 |
|
131 |
|
133 |
|
133 |
|
135 |
|
139 |
|
142 |
|
144 |
|
151 |
|
160 |
|
164 |
|
174 |
|
180 |
Part 2 The Computer-Aided Analysis of Narrated Action |
199 |
2.1 Narratology and Literary Computing |
201 |
|
207 |
|
209 |
2.2 The EventParser Program |
214 |
2.3 Constructing episodes and actions |
224 |
|
226 |
|
227 |
|
228 |
|
235 |
|
235 |
2.4 The EpiTest Program |
242 |
2.5 Action Potential and action Product |
248 |
2.6 Practical Analysis Using EpiTest |
253 |
Part 3 An Experiment in Action: Conversations of German Refugees |
257 |
3.1 Critical Approaches to the Conversations |
259 |
|
264 |
|
271 |
3.2 Describing the Conversations |
275 |
|
280 |
|
284 |
3.3 Explaining the Conversations |
287 |
|
288 |
|
300 |
3.4 Conclusion |
303 |
References |
307 |
Author Index |
329 |
Subject Index |
333 |