AntConc

Aus Literatur Rechnen - Neue Wege der Textanalyse
Wechseln zu: Navigation, Suche
Unser LitRe-Wiki ist seit 2012 nicht eingreifend überarbeitet worden. Es bildet also den damaligen Stand ab. Um Weiterentwicklungen der digitalen Textanalyse abzubilden, sollen nun die Artikel peu à peu überarbeitet werden, und weitere Artikel hinzukommen.

Interesse? Haben Sie Lust, einen Artikel zu überarbeiten oder neu zu verfassen? Schreiben Sie uns! Auch Kommentare, Kritik oder Fragen sind willkommen: mailto:bherrma1@gwdg.de


AntConc ist ein Korpusanalyseprogramm für Windows, Mac OS X und Linux Betriebssysteme und wurde von Laurence Anthony an der Waseda Universität in Tokio, Japan entwickelt. AntConc vereinigt eine Reihe von Einzeltools. Die wichtigsten sind ein Konkordanzprogramm, Häufigkeitsgeneratoren (Wortlisten; Keynesslisten zur direkten vergleichenden Analyse von Korpora), Tools für Kluster- und Kollokationsanalyse und ein “Wortdistributionsplot” (Konkordanzplot). Der aktuelle Stable Release befindet sich in der Version 3.2.4. Die Beta-Version 3.3.5 ist ebenfalls über die AntConc Homepage zu erreichen. Wegen einiger Probleme in der Beta-Version wird im vorliegenden Artikel die Version 3.2.4 besprochen.

Das Programm ist für quantitative Textanalysen gedacht, die sowohl automatische als auch manuelle Arbeitsschritte erfordern.

Allgemeine Voraussetzungen

AntConc v.3.2.4 ist aus dem Web ohne Registrierung kostenlos herunterladbar (Freeware) und muss nicht installiert werden, sondern wird direkt durch das Klicken des Icons gestartet. Es läuft durchweg im Offlinebetrieb und benötigt geringen Festplattenspeicher, da das Programm, je nach Betriebssystem, nur zwischen 4 KB und 7 MB groß ist.

Unterschiedliche Versionen für die drei größten Betriebssysteme sind auf der Homepage des Entwicklers vorhanden. Für Linux wurde das Programm nur auf Ubuntu 10 getestet, Mac-User benötigen mindestens 10.4.x sowie das Mac-Toolkit X11. Auf Windows läuft AntConc v.3.2.4 ab Win 98 aufwärts. Keine weiteren Programme müssen installiert werden. Für bestimmte Korpusuntersuchungen sollte vorsichtshalber ausreichend Arbeitsspeicher vorhanden sein. Die Daten- und Ergebnisspeicherung findet ausschließlich auf der Festplatte statt (es werden vom Entwickler keinerlei Garantien geleistet, sollte das Programm Schäden am PC des Users hervorrufen).

Detaillierte Beschreibung des Tools

AntConc v.3.2.4 arbeitet mit einem grafischen Interface (GUI) und erlaubt sowohl die Einzelanalyse von Texten von als auch den Vergleich zwischen mehreren Texten und Korpora.

Fig.1 - Leeres AntConc

Vorbereitende Arbeitsschritte

Bevor mit AntConc gearbeitet werden kann, müssen einige vorbereitende Arbeitsschritte durchlaufen werden. Zunächst müssen die zu untersuchenden Texte und Korpora vorbereitet (ggf. digitalisiert, mit OCR bearbeitet, und in einem unterstützten Format abgespeichert werden) und in das Programm eingespeist werden; das Programm stellt im Gegensatz etwa zu WMatrix, Scheherazade und insbesondere TextGrid keine Texte bzw. Korpora bereit. Bei der Durchführung einer Keyness-Analyse muss außerdem zusätzlich ein passendes Referenzkorpus gefunden und eingespeist werden [Der Keyness-Wert trifft statistische Aussagen darüber, inwieweit ein oder mehrere Begriffe in einem Text als quantitativ überrepräsente Schlüsselworte hervortreten. Keyness-Analysen funktionieren über ein Referenzkorpus, das mit dem zu untersuchenden Text in Beziehung gesetzt wird. Vgl. Abschnitt 2.2.7.]. In der Regel müssen für die Analysen die Global Settings, sowie eventuell auch bestimmte Tool Preferences angepasst werden – je nachdem, in welcher Sprache und welchem Format die Daten vorliegen. Außerdem können bei Untersuchungen mit dem Word List Tool selbst erstellte Lemmalisten in die Tool Preferences oder eigene Suchbegrifflisten in das Advanced Search Panel eingegeben werden.

AntConc v.3.2.4 zählt automatisch die Types und Tokens im eingespeisten Korpus und erstellt eine Wörterliste aller dort vorhandenen Wörter. Allerdings wird die Type-Token-Ratio (TTR) nicht automatisch errechnet [die TTR gibt Auskunft über die lexikalische Dichte eines Textes, indem die Anzahl der unterschiedlichen Worttypen durch die Anzahl der Wörter insgesamt geteilt wird]. Voyant hingegen bietet die Errechnung dieses Wertes an.

Alle Ergebnisse der Analysen müssen manuell über File > Save Output To Text File im txt-Format gespeichert oder über die Zwischenablage oder Bildschirmdruck auf andere Weise gespeichert werden. AntConc enthält keine eine automatische Speicherung.

Art der Analyse

AntConc v.3.2.4 ist ein erweitertes Konkordanzprogramm. Neben den interaktiven Konkordanz- und Wortlisten-Funktionen liegt seine besondere Leistung in der Keyness-Analyse (siehe Abschnitt 2.2.7 zum Keyword List Tool). Die momentane Version von AntConc erlaubt kein automatisches Parsing oder POS-Tagging, keine Lemmatisierung, Erfassung von syntaktischen Strukturen und es enthält auch keine Möglichkeit zum semantischen Tagging wie z.B. WMatrix oder zur händischen Annotation/Markup wie zum Beispiel CATMA.

Die sieben Karteireiter des Programms (vgl. Fig.1) zeigen die unterschiedlichen Möglichkeiten dieses Tools. Im engeren Sinne sind alle Analysen, die mit AntConc v.3.2.4 durchgeführt werden können, quantitativer Art, da sie auf dem Zählen von Wörtern, Phrasen und Kollokationen beruhen. Im weiteren Sinne kann AntConc aber gerade auch aber sowohl für sehr kleine Datenmengen (z.B. einzelne Werke) und innerhalb einer insgesamt qualitativ vorgehenden Textanalyse genutzt werden (zur qualitativen computerbasierten Textanalyse vgl. z.B. Kuckartz 2007).

Concordance Tool

Das Concordance Tool zeigt die Konkordanzen eines Suchbegriffes im eingespeisten Korpus im KWIC- [KeyWord In Context] Format an. Suchwörter und –phrasen können so mittels einer "Parallelstellenmethode" in ihrem direkten textuellen Umfeld betrachtet werden (vgl. Müller, 2013). Dabei kann eine sogenannte Wildcard, das Zeichen "*" eingesetzt werden, die es erlaubt, nach einem bestimmten String vor oder nach anderen Strings und Buchstaben zu suchen (vgl. Fig.2, wo das Ergebnis der Suche nach der Wort-Wildcard-Kombination êre* in einem mittelhochdeutschen Korpus dargestellt wird). Durch die Suchoption Case wird die Suche auf Groß- oder Kleinschreibung eingestellt. Wählt man Regex, werden mit Hilfe von Regular Expressions [1] komplexere Suchen möglich, zum Beispiel nach unterscheidlichen Flexionsformen eines Wortes (isst|aß) oder mit ähnlichen Morphemen gesucht werden kann (z.B. sucht die RegEx ".heit" alle Wörter, die den String "heit" beinhalten). Unter Tool Preferences können weitere Einstellungen des Concordance Tools vorgenommen werden, wie z.B. das Umschalten auf Buchstaben als kleinste Analyseeinheit (statt des Wortes) und Display-Möglichkeiten, wie z.b. das Ausblenden des Suchbegriffs aus der KWIC-Darstellung.

Fig.2 - Concordance Tool mit einer KWIC-Beispieldarstellung der gesuchten Wort-Wildcard-Kombination êre* in einem mittelhochdeutschen Korpus

Die Ergebnisse einer Concordance-Untersuchung sind tabellarische Rohdaten, die innerhalb des Programms im KWIC-Format nach ihrem Auftauchen im Korpus linear sortiert sind (vgl. Fig.2). Ebenfalls wird der Dateipfad angegeben. Über KWIC-Sort können diese Ergebnisse mit ihrem rechts oder links befindlichem Kontext farblich vom restlichen Text abgesetzt werden. Ebenfalls kann über Search Window Size der Kontext der Ergebnisse vergrößert werden.

Concordance Plot Tool

Das Concordance Plot Tool generiert dieselben Ergebnisse wie das Concordance Tool, visualisiert diese jedoch im Barcode-Format. Dies ermöglicht einen direkten Überblick über das Auftreten der Suchanfragen im Verlauf des jeweiligen Korpusteils, in dem sie vorkommen, ebenso wie einen ersten Blick über mögliche Search Term Cluster im Korpus. Auch hier gibt es die Möglichkeit, die Suchoptionen nach Case oder Regex einzustellen.

Fig.3 - Concordance Plot Tool mit der Suchanfrage Wort-Wildcard-Kombination êre* in einem mittelhochdeutschen Korpus

Die Ergebnisse einer Untersuchung mit dem Concordance Plot Tool (vgl. Fig.3) sind Barcode-Visualisierungen, die nach Belieben unter Zoom vergrößert werden können. Zusätzlich wird die Anzahl der Ergebnisse pro Datei des eingespeisten Korpus angegeben, sowie die jeweilige Dateigröße in Gesamt-Buchstabenanzahl. Werden mehrere Dateien gelichzeitig hochgeldaen, erlaubt dieses Tool den direkten visuellen Vergleich und kann so als Heuristik für weitere Analyseschritte dienen.

File View Tool

Das File View Tool zeigt die Anzahl eines Suchbegriffs im Volltext in einer bestimmten Datei des Korpus an. Hier ist es ebenfalls möglich, eine Suche wie bei den vorherigen Tools zu starten.

Fig.4 - File View Tool mit einer Beispielsuche der Wort-Wildcard-Kombination êre* innerhalb des blau markierten mittelhochdeutschen Korpusausschnitts

Die Ergebnisse im File View Tool (vgl. Fig.4) werden schwarz hervorgehoben in ihrem Volltext angezeigt. Über Hit Location kann von Ergebnis zu Ergebnis gesprungen werden.

Clusters Tool / N-Grams Tool

Das Clusters Tool zeigt je nach Sucheinstellung Wortgruppenlisten statt einzelner Wörter im eingespeisten Korpus auf. Diese Listen können nach der Frequenz ihres Auftretens im Korpus, nach Wortanfang oder auch nach dem Wortende geordnet werden. Es ist ebenfalls möglich, sie über Sort by Prob nach der Wahrscheinlichkeit des Auftauchens des ersten Wortes vor den restlichen im Ergebnis zu sortieren. Case und Regex sind auch hier wieder wählbare Suchoptionen, außerdem kann die zu suchende Clustergröße selbständig nach Bedarf eingestellt werden. Das Clusters Tool bietet auch die Einstellung einer minimalen Clusterfrequenz, sowie eine links- oder rechtsvariierbare Search Term Position.

Fig.5 - Clusters Tool mit einer Beispielanalyse der gesuchten Wort-Wildcard-Kombination êre* in einem mittelhochdeutschen Korpus

Die Ergebnisse einer Clustersuche (vgl. Fig.5) werden als tabellarische Rohdaten innerhalb des Programms ausgegeben, beispielsweise als Frequenzen oder Wahrscheinlichkeiten, und können von hohem Ergebniswert zu niedrigem Ergebniswert oder umgekehrt sortiert werden. AntConc v.3.2.4 berechnet bei Benutzung des Clusters Tools automatisch die Gesamtzahl an Cluster Tokens und Cluster Types.

Durch Anklicken des N-Grams-Kästchens kann mithilfe des Clusters Tools vom N-Grams Tool Gebrauch gemacht werden. AntConc sucht auf diese Weise innerhalb des eingespeisten Korpus Cluster der Größe n, sodass gebräuchliche Ausdrücke schnell zu erkennen sind. Für das N-Grams Tool gilt eine kürzere Menge an Suchoptionen als beim Clusters Tool, die restlichen nun nicht mehr geltenden Möglichkeiten werden grau unterlegt. Jedoch kann eine minimale und maximale N-Gram Size ausgewählt werden.

Fig.6 - N-Grams Tool mit Ergebnissen einer beispielhaften N-Grams-Analyse in einem mittelhochdeutschen Korpus

Die Ergebnisse einer N-Grams-Suche (vgl. Fig.6) werden als tabellarische N-Grams innerhalb des Programms ausgegeben, die nach Frequenz oder Wahrscheinlichkeit sortiert werden können. Auch hier errechnet AntConc die Gesamtzahl an N-Grams Tokens und N-Grams Types.

Collocates Tool

Das Collocates Tool zeigt die Kollokationen eines Suchbegriffs im eingespeisten Korpus an. Auf diese Weise ist es möglich, Wortmuster zu erkennen, die nicht durch die bloße Untersuchung von Wortabfolgen zu erkennen sind. Bei diesem Tool ist die Möglichkeit gegeben, nicht nur die direkten Nachbarwörter links und rechts vom Suchbegriff abzurufen. Stattdessen bietet die Funktion Window Span eine beliebige, selbst zu wählende Größe an Wortmengen, die rechts und links des Search Terms von AntConc heraus gefiltert werden sollen. Wie bereits beim Clusters und N-Grams Tool kann auch hier eine Mindestanzahl an Kollokationsfrequenzen gefordert werden. Unter Tool Preferences können für das Collocates Tool diverse Display Options angeklickt werden, um die Analyse einsträngig oder differenziert laufen zu lassen. Ebenfalls ist unter den Einstellungen die statistische Collocate Measure auswählbar: Die beiden Optionen sind hier MI (MI wird von AntConc automatisch auf default gestellt) oder T-Score [Mutual Information (Transinformation) gibt die Dichte des statistischen Zusammenhangs zweier Größen an und weist also darauf hin, wie stark zwei zu untersuchende Größen miteinander in Beziehung stehen. Wie sich Transinformation berechnen lässt, vgl. Scholarpedia. Wie der T-Score aufgebaut ist und wie man ihn berechnen kann, vgl. Kühnel / Krebs (2007), S. 215-219.]. Beide Collocate Measures untersuchen, wie weit der Suchbegriff mit einer Kollokation in Beziehung steht: Je höher der Ergebniswert, desto wahrscheinlicher ist das Auftreten der Kollokation im eingespeisten Korpus.

Fig.7 - Collocates Tool mit einer Beispielanalyse der gesuchten Wort-Wildcard-Kombination êre* in einem mittelhochdeutschen Korpus

Die Ergebnisse einer Kollokationsanalyse (vgl. Fig.7) werden als tabellarische Rohdaten innerhalb des Programms ausgegeben. Diese Kollokationen können, wie bei den anderen Tools auch, nun nach Belieben sortiert werden, so z.B. nach genereller Häufigkeit im Korpus, nach links- oder rechtsseitiger Frequenz des Suchbegriffs zur Kollokation oder nach dem statistischen Wert ihrer Beziehung zueinander. Das Collocates Tool generiert automatisch die Gesamtzahl von Collocate Tokens und Collocate Types.

Word List Tool

Das Word List Tool dient zur Zählung, Auflistung und Sortierung aller im eingespeisten Korpus vorkommenden Wörter. So ist beispielsweise schnell ersichtlich, welche Begriffe die häufigsten und welche die seltensten sind. Auch hier gibt es wieder die üblichen Suchoptionen. Allerdings ist es nun auch möglich, alle Ergebnisse als kleingeschrieben, als Lower Case, zu behandeln. Innerhalb der Wortliste kann zwischen den einzelnen Ergebnissen der Begriffssuche hin und her gesprungen werden. Das Word List Tool hat eine Reihe an zusätzlichen Einstellungen, die unter Tool Preferences vorgenommen werden können. So gibt es außer den bereits bekannten Display und Case Options hier die Option, eigene Lemmalisten oder Wortlisten einzuspeisen, bzw. die Möglichkeit, nach Bedarf Wortlisten selbst zu generieren.

Fig.8 - Word List Tool mit einer Darstellung aller in einem mittelhochdeutschen Beispielkorpus enthaltenen Wörter und ihrer auftretenden Häufigkeit

Die Ergebnisse im Word List Tool (vgl. Fig.8) werden als tabellarische Rohdaten innerhalb des Programms ausgegeben und können nach (umgekehrter) Häufigkeit, Wortanfang oder Wortende sortiert werden.

Keyword List Tool

Das Keyword List Tool wird mit einem zusätzlich einzuspeisenden Referenzkorpus verwendet und zeigt im statistischen Vergleich mit diesem, inwieweit bestimmte Begriffe des eigenen Korpus besonders häufig oder besonders selten vorkommen. Dieses Tool erlaubt daher die Herausarbeitung von Schlüsselbegriffen. Abgesehen von den bereits bekannten Suchoptionen gibt es wie beim Word List Tool unter den Tool Preferences (siehe Fig.9) einige zusätzliche Einstellungen.

Fig.9 - Keyword List Tool Preference Panel

Unter Keyword Generation Method kann zwischen den statistischen Maßen Log-Likelihood (AntConc stellt Log-Likelihood automatisch auf default) und Chi Squared [Zur Wahrscheinlichkeitstestung durch den Likelihood-Ratio-Test, vgl. Kühnel / Krebs (2007), S. 365f. Zur Berechnung der Standardnormalverteilung anhand der Chiquadratverteilung, vgl. Kühnel / Krebs (2007), S. 209-215.] ausgewählt werden, die für die Keyness-Analyse nötig sind. Unter Threshold Value kann eingestellt werden, ab wann ein Wort des eigenen Korpustextes als Schlüsselbegriff bezeichnet wird. Es ist daher z.B. auch möglich, nur die ersten und damit wichtigsten 100 Schlüsselbegriffe anzeigen zu lassen, auch wenn vielleicht noch weitere folgen. Unter Anklicken von Show Negative Keywords werden alle Wörter des Korpus gelistet, die eine ungewöhnlich niedrige Keyness aufzeigen. Unter Reference Corpus Options kann schließlich ein vorher ausgewählter Referenzkorpus oder eine Wortliste des Referenzkorpus eingespeist werden.

Fig.10 - Keyword List Tool mit einer Beispielanalyse von Laurence Anthony. Screenshot entstammt seinem YouTube Tutorial

Die Ergebnisse einer solchen Keywordliste (vgl. Fig.10) werden als tabellarische Rohdaten innerhalb des Programms ausgegeben. Das Tool sortiert by default zunächst nach Keyness, die Ergebnisse können allerdings auch anders sortiert werden, beispielsweise nach Häufigkeit, alphabetisch oder nach Wortende der Schlüsselbegriffe. Die Keyness-Ergebnisse werden je nach vorhergegangener Wahl als Log-Likelihood- oder Chi Square-Werte ausgegeben.

Zusätzliche Möglichkeiten des Programms

AntConc bietet abgesehen von den bereits genannten Eigenschaften noch weitere Optionen zur Analyse von Texten und Korpora. Alle einzelnen Tools haben zusätzlich eine Advanced Search Option, die angewählt werden kann (vgl. Fig.11).

Fig.11 - Advanced Search Panel

So ist es möglich, nicht nur einen Suchbegriff, sondern eine Liste von mehreren Begriffen in die Advanced Search einzuspeisen und dann zu verwenden. Über Context Words kann eine Kombinationssuche dieser Liste mit weiteren Begriffen gestartet werden, die mit den Wörtern aus der Liste in Beziehung stehen. Wie weit die Begriffe der Liste mit den Context Words in Verbindung stehen sollen, kann über den Context Horizon näher definiert werden.

Über die Global Settings (vgl. Fig.12) kann unter Tag Settings eingestellt werden, ob Tags, die bereits im eingespeisten Text oder Korpus enthalten sind, angezeigt werden sollen oder nicht.

Fig.12 - Tag Settings Panel

Es ist ebenfalls möglich, im Concordance Tool, Concordance Plot Tool und File View Tool eine Tag-Suche durchzuführen.

Alle Begriffssuchen in allen Tools können mit Wildcards durchgeführt werden. [Wildcards dienen als Platzhalter für vorher festgelegte oder selbstdefinierte Zeichen. So können auch ganze Gruppen von Suchbegriffen gleichzeitig gesucht werden. Beispielsweise sucht diese Kombination von Buchstaben und Wildcard die folgenden Möglichkeiten: ehre* --> Ehre, ehrenvoll, ehren, usw.] Unter Global Settings > Wildcard Settings können diese definiert werden. Unter Token (Word) Definition ist es dem User möglich, selbst zu definieren, was AntConc in seinen Analysen als Token anzeigen soll. Unter Language Encodings kann die richtige Spracheinstellung für die zu untersuchenden Texte gewählt werden. AntConc kann so Daten jeder Sprache bearbeiten.

Jedes Tool hat in seinem Hauptfenster eine Save Window-Option (vgl. Fig.1). Durch diese Option kann die gegenwärtige Untersuchung gespeichert und eine neue gestartet werden, ohne dass die ersten Ergebnisse verloren gehen. AntConc transferiert die Ergebnisse in tabellarische Form (vgl. Fig.13).

Fig.13 - Save Window Panel

Diese Fenster werden allerdings nicht automatisch als txt-Datei auf der Festplatte gespeichert, ein solcher Befehl muss manuell geschehen. Wird eine AntConc-Sitzung geschlossen, schließen auch die Ergebnisfenster.

AntConc bietet mehrere Tastenkombinationen als Shortcuts, um das Navigieren durch das Programm und das Ausführen von Befehlen zu erleichtern. Eine Liste dieser Shortcuts befindet sich in der passenden Read-me Datei, die der jeweiligen Betriebssystemsversion von Ant-Conc zugehört.

Falls bestimmte AntConc-Settings Schwierigkeiten bereiten sollten, kann das Programm über File > Restore Default Settings wieder zu seinen Anfangssettings zurück gestellt werden.

Daten-Einspeisung

Um mit AntConc v.3.2.4 zu arbeiten, müssen die zu analysierenden Texte oder Korpora im TXT, XML oder HTML-Format vorliegen; hierbei kann es sich um Einzeltexte handeln, wobei auch ganze Datensätze hochgeladen werden können. Es ist nicht nötig, dass das Analysematerial vorannotiert ist, vorhandenes Markup kann aber in der Analyse berücksichtigt werden. ausgeblendet werden. AntConc selbst lässt kein Markup zu. Im Vergleich zu anderen Tools kann AntConc mit relativ großen Datenmengen arbeiten (z.B. mit dem ca. 1,4 MB großen Referenzkorpus der Deutschsprachigen Literatur 1700-1900 von Zeno.org, das ca. 133 Mio. Wörter umfasst). Für Untersuchungen die ein Referenzkorpus benötigen, muss ein solches selbst hochgeladen werden, da das Programm selbst keines enthält. AntConc v.3.2.4 hat keine speziellen Funktionen zur Erstellung von Korpora.

Benutzerfreundlichkeit

AntConc richtet sich in erster Linie an Korpuslinguist_innen und Literaturwissenschaftler_innen mit keinen oder nur geringen Programmierkenntnissen, ist also definitiv für wissenschaftliche und weniger für rekreative Zwecke zu verwenden. [Im Hinblick auf die verlangten Vorkenntnisse ist es mit Scheherazade zu vergleichen, wobei jedoch Scheherazade durch den Story-Graph einen in Gegenüberstellung zu anderen Tools ungewöhnlichen Ansatz bietet, welcher sich selbstverständlich allein schon durch seine Visualisierungen vollkommen von AntConc unterscheidet.] Zweitens ist AntConc für den Gebrauch in Klassenzimmern und Kursräumen zum Spracherwerb und -training kreiert worden. So sagt Anthony:

[…] learners can use corpora to investigate for themselves the way that language is used in target contexts, in a so-called ‘data-driven’ approach to learning. This can be particularly effective in the technical writing classroom, as the learners are often from a variety of different fields each with its own set of characteristic language features. Anthony (2005), S. 729.

Anthony weist ebenfalls darauf hin, dass sich viele Konkordanz- und Korpusanalyseprogramme aufgrund von Interface und Unübersichtlichkeit für Neueinsteiger als zu schwierig erweisen und er kritisiert: „[…] they have tended to be aimed at researchers […].“ (Anthony 2004, S. 7). AntConc erweist sich im Kontrast dazu nun als äußerst benutzerfreundlich und sticht durch seine simple und leicht verständliche Handhabung hervor. Das Interface unterscheidet nicht zwischen Beginners- oder Advanced-Modus, hat allerdings bei allen Tools die o. g. Advanced Search-Möglichkeit. AntConc v.3.2.4 ist gut zugänglich, klar strukturiert und erfordert keine Programmierkenntnisse. Dies macht es auch für Neueinsteiger auf dem Gebiet der Korpuslinguistik nutzbar. Für Fortgeschrittene gibt es die Tastatur-Shortcuts zum effizienteren Bedienen. Allerdings müssen alle Arbeitsschritte in ihrem Ablauf innerhalb des Tools selbständig erdacht werden: Ungleich CATMA besitzt AntConc keine Möglichkeit, sich von einer Art Work Assistant chronologisch durch die einzelnen Analyseschritte hindurch leiten zu lassen. Das Programm hat keine aufrufbare installierte Hilfe inne, dafür existiert stattdessen eine ganze Reihe an Hilfsmitteln, die anderweitig bei der Verwendung von AntConc hinzugezogen werden können: Auf YouTube wurden von Laurence Anthony mehrere Tutorials zur Benutzung der einzelnen Tools hochgeladen. Diese Tutorials sind ebenfalls in schriftlicher Form in Englisch, Japanisch, Koreanisch, Chinesisch und Deutsch einsehbar. Dazu kommt ein ausführliches Read-me, das alle wichtigen Fähigkeiten von AntConc auflistet und in ihrer Verwendung beschreibt, sowie eine Help Section auf der AntConc-Homepage. Es gibt außerdem die Möglichkeit, einer AntConc Google Group beizutreten, in der Probleme und generelle Dinge diskutiert werden können. Ebenfalls gibt die Read-me Datei (Literatur-) Hinweise zum Nachschlagen von bestimmten Problemen, wie z.B. zur Verwendung der Regex-Funktion für Neueinsteiger. Leider existieren bei AntConc v.3.2.4 keine direkten Verknüpfungsmöglichkeiten zu weiterführenden analytischen Tools, sodass alle im Programm erarbeiteten Ergebnisse manuell auf die Restriktionen und Vorgaben anderer Tools zugeschnitten werden müssen (sei es in ihrem Dateiformat oder in komplexeren Dingen). Auch hier muss CATMA vergleichend angeführt werden, welches in diesem Punkt AntConc ein gutes Stück voraus und direkt mit Voyant verlinkt ist.

Transparenz

AntConc v.3.2.4 zeichnet sich durch eine hohe Transparenz aus. Die Read-me Datei benennt das Programm mit dem AntConc geschrieben wurde (in Pearl mithilfe von ActiveState’s PearlApp Compiler). Für das Collocates Tool wird angegeben, welche Literatur verwendet wurde, um die Gleichungen der statistischen Maße MI (Mutual Information) und T-Score in AntConc einzuprogrammieren. Alle vorhergegangenen Versionen von AntConc sind über die Homepage herunterladbar, dazu zeigt die Read-me Datei den genauen Entwicklungsverlauf (= Revision History) des Programms seit seiner Entstehung auf. Bugs oder bereits bekannte Probleme, die sich nicht beheben lassen, haben ebenfalls in der Read-me Datei eine eigene Unterkategorie. Alles in allem erweist sich AntConc v.3.2.4 jedoch als sehr stabil. Es ist zusätzlich möglich, vorhergegangene Suchanfragen, beispielsweise im Concordance oder Collocates Tool zurückzuverfolgen, da diese in AntConc aufgezeichnet werden. Zum Betrachten vorhergegangener Ereignisse kann im entsprechenden Analysefenster mit den Pfeiltasten entweder nach oben oder nach unten variiert werden.

Anthony weist ausdrücklich darauf hin, dass neue Vorschläge zur Gestaltung und Verbesserung seines Programms willkommen sind und auch bei auftretenden Bugs oder Fragen ist er sowohl durch Email, als auch durch den regulären Postweg zu erreichen. Eine Auflistung aller bald kommenden Änderungen ist über die Homepage ersichtlich. Zusätzlich zu allen Informationen gibt die Read-me Datei ausdrücklich Angaben zur rechtlichen Situation, wie mit der AntConc Software verfahren werden darf. Dazu kann ihr entnommen werden, woher das Support Funding für die Entwicklung von AntConc kommt. Über die Homepage bietet Laurence Anthony auch viele Informationen über sich selbst.

Fazit

AntConc v.3.2.4, als quantitatives Tool, ist in der Lage, kleine und auch größere Textmassen auf Frequenzen, Konkrodanzen zu untersuchen und mit statistischen Verfahren wie Mutual-Information (MI) und T-Score, die Aussagen darüber zulassen, ob Kollokationen signifikant häufig auftreten, sowie Log-Likelihood und Chi-Square Tests, die den Vergleich von "Keywords" in zwei Korpora erlauben [zu großen Teilen vergleichbar mit dem kostenpflichtigen WordSmith Tools WordSmith]. Das Tool lässt also Kookurenzanalysen, Frequenzanalysen, Keyness-Analysen und Kontingenzanalysen zu. Das bedeutet jedoch auch, dass komplexere und differenziertere Analysen, die z.B. syntaktische Strukturen oder Metadaten betreffen, mit AntConc nicht ohne Weiteres möglich sind. Handlungsanalysen, Intensitätsanalysen etc. – all das ist mit AntConc ohne den Einsatz von anderen Tools oder intensive Vorarbeit nicht möglich.

Im direkten Vergleich mit Tools wie CATMA oder WMatrix stellt sich das Programm als sehr gut zu handhaben und übersichtlich heraus. Von den von uns untersuchten Tools erfordert es wohl die kürzeste Einarbeitung. Dafür erweist sich AntConc als ausgesprochen transparent in der Programmierung und als sehr motivierend im Bereich User-Kritik und Verbesserungsvorschläge (im Gegensatz zu Di-Lemmata, Stand 3/2012). Durch die einfache Handhabung und die breit angelegten Hilfeoptionen bietet das Programm gute Arbeitsbedingungen für Neueinsteiger und durch Advanced Features und Tool Options auch gute Bedingungen für Fortgeschrittene. Ein großes Plus ist hier auch mit Sicherheit die Stabilität des Programms und die Tatsache, dass aufgrund des variablen Language Encodings Korpora jeder Sprache verarbeitet werden können: Das Tool ist also nicht nur auf englische oder deutsche Texte ausgerichtet. Ebenfalls ist es möglich, nicht nur Gegenwartssprache, sondern auch Texte früherer Sprachstufen (z.B. Althochdeutsch, Mittelhochdeutsch, Old English, Altwestnordisch etc.) analysieren zu lassen. Auf diese Weise bietet AntConc auch für historiografisch-linguistische Untersuchungen eine geeignete Basis und öffnet sich so auch der Mediävistik, bzw. Älteren Literatur- und Kulturwissenschaften. Ungleich CATMA jedoch fragt AntConc zu Beginn einer Textanalyse nicht nach der Einstellung des richtigen Sprachformates. Dieses muss selbständig vom fähigen User aus einem breit gefächerten Drop-Down Menü ausgewählt werden. Ein Nachteil von AntConc ist, dass es für die errechneten Ergebnisse nur wenige Arten der Visualisierung gibt (ganz im Gegensatz zu einem Tool wie Voyant, das eine Fülle von unterschiedlichsten Darstellungsformen für Ergebnisse bietet).

Der Zeitaufwand spricht bei AntConc definitiv für das Tool. Solange mit bereits vorgefertigten Korpora gearbeitet werden kann, erledigt das Programm die frequenz- oder konkordanzanalytische Erfassung auch größerer Korpora in kurzer Zeit; ebensolches gilt für die Anwendung der statistischen Verfahren. Für einfache Analysen ist das Tool bestens geeignet, wobei neben der Konkordanz- und Häufigkeitsanalyse insbesondere die Möglichkeiten der statistischen Kollokations- und Keyness-Analyse herausgehoben werden müssen. Begrenzt ist das Tool z.B. durch wenig Visualisierung, keine Distributionsanalyse, kein Markup, keine Korpus-Building-Tools. Um an komplexeren Fragestellungen zu arbeiten, ist die Wahrscheinlichkeit hoch, dass mindestens ein weiteres Tool hinzugezogen werden muss.

Aus literaturwissenschaftlicher Sicht bieten die Untersuchungsergebnisse viel Interpretationsspielraum, denn die kühl errechneten Werte müssen erst in Interpretationen und philogischer Arbeit fruchtbar gemacht werden. Weil die Art der Analysen kein Markup erfordert, also normalerweise ausschliesslich auf der Sprachoberfläche gearbeitet wird, sind typische Problemsituationen wie sie z.B. durch subjektives semantisches Tagging entstehen können bei AntConc nicht existent.

Es gibt bereits mehrere Pläne zur Weiterentwicklung von AntConc. So soll z.B. in naher Zukunft das Fassungsvermögen des gesamten Tools auf Massenkorpora ausgelegt werden, damit ein noch umfangreicheres Arbeiten ermöglicht wird. Außerdem soll die Verarbeitung von bereits getaggten Texten vorangetrieben und optimiert, sowie die Bandbreite einspeisbarer Dokumentformate erweitert werden (PDF etc.). All diese Erweiterungen würden meines Erachtens die Benutzung von AntConc weitaus verbessern, allerdings darf natürlich nicht vergessen werden, dass das Programm nur so gut wie die Arbeitsspeichergröße des Computers ist, auf dem es läuft. Vor allem komplexere Anfragen, wie z.B. eine N-Grams-Analyse, können bei einem größeren Korpusvolumen eventuell nicht mehr durchgeführt werden. Es sollten daher, bei aller Begeisterung für AntConc-Updates, immer nur die Analysen operationalisiert werden, die sich im Rahmen der eigenen Speicherkapazitäten befinden. Nach eigenem Ermessen liegt eine optimale Nutzung von AntConc v.3.2.4 für den privaten Gebrauch bei einer Kapazität von mindestens 8 GB RAM, ideal wären sicherlich 16 GB RAM. Denkbar ist natürlich auch die Verwendung eines i5 oder höher.

Oberflächenstrukturelle Fragen sind sicherlich besser für quantitativ arbeitende Tools wie AntConc geeignet, da so vor allen Dingen bei großen Textkorpora eine raschere Einschätzung des zu untersuchenden Phänomens durchgeführt werden kann. Die Indikatoren sind hier messbarer, objektiver, die Ergebnisse zuverlässiger und der Umfang an bearbeitbaren Texten in einer bestimmten Zeitspanne ist im Vergleich zu qualitativ arbeitenden Tools enorm. Komplexere Untersuchungsfelder wie Spannung oder Erzählperspektive erfordern mehr Vorarbeit und einen größeren händischen Aufwand, da zur Analyse vielschichtiger Phänomene eine genaue Annotation der Texte erfolgen muss, während bei einfachen Konkordanz- oder Frequenzanalysen (wie bei AntConc) bereits der Input an sich nicht sonderlich komplex ist. Tools, die differenziert und ambivalent zu betrachtende Phänomene untersuchen, geraten meines Erachtens schnell in die Gefahr, bereits bei der Programmierung subjektiven Einfluss oder Fehler erfahren zu haben. Tools, die „nur“ statistische Werte etc. berechnen, basieren auf objektiveren statistischen Algorithmen. Ebenfalls muss bei der Bearbeitung komplexer Analysen beachtet werden, dass die zu bearbeitenden Texte von den Forschenden ein umfangreicheres Close Reading verlangen, um beispielsweise Ironie immer korrekt zu erkennen. Simplere Untersuchungen, wie z.B. Keyness-Analysen, können ohne Close Reading schneller Textmassen richtig erfassen und bewerten.

Auf jeden Fall zwingt die Konzeptualisierung und Operationalisierung die Forschenden zu größerer konzeptueller Schärfe und Konsistenz. Je diffiziler eine zu operationalisierende Aufgabe ist, desto mehr muss sie in ihrem gesamten Kontext gesehen werden. Sie erfordert einen höheren Zeitaufwand und eine genauere Überlegung dessen, was Ziel und Durchführungsart sein soll – allein schon aufgrund der Tatsache, dass, sollte sie in ihrem Konzept nicht genau durchdacht sein und sich im Verlaufe etwas als fehlerhaft oder falsch erweisen, die ganze Arbeit verworfen und neu begonnen werden muss. Vor allem bei umfangreichen, detailreichen und differenzierten Untersuchungen (ein meines Erachtens herausragendes und faszinierendes Beispiel für eine umfangreiche Analyse ist die Quantitative Analysis of Culture, durchgeführt von Michel et.al., 2011) kann es schnell geschehen, dass sich die Forschenden ohne eine exakte Konzeptualisierung der Vorgehensweise irgendwann mit der Analyse im Kreis drehen, sich in Nichtigkeiten verstricken und das Ziel schließlich verfehlt wird. Das wichtigste Ziel der computergestützten Analyse nicht unbedingt die Hervorbringung bahnbrechender Ergebnisse in der Analysierung von z.B. Fontanes Werken, sondern eine praktikable Methode und Vorgehensweise zu finden die sich als sinnvoll anwendbar erweist, um einen literarischen Text zu untersuchen. So kann ich auf jeden Fall Tognini-Bonelli zustimmen, wenn sie sagt:

Linguistic data is now available in such large quantities that patterns emerge that could not be seen before; […]. Linguistic evidence of this type has to be reckoned with and observations about instances of language use, if not dismissed as secondary with respect to insights derived from intuition, are bound to affect statements about the language system in general. The problem for the linguist, therefore, is to elaborate a methodology that can allow him/her to describe and take into account this type of unprecedented evidence. Tognini-Bonelli (2001), S. 49.

Auch Rommel konstatiert die methodologische Vorgehensweise als ausschlaggebend: „[…] the question of ‚method‘ remains at the heart of most electronic analysis of literature.“ (Rommel 2004, S. 1).

Die Arbeit mit AntConc scheint weniger konzeptuelle Schärfe zu verlangen, als möglicherweise andere, komplexere Tools. Es wird keine bis kaum Vorarbeit verlangt und die Ergebnisse, weil einfach nur statistische Daten, bergen keinen Anreiz, durch mögliche offensichtliche Fehler das eigene Konzept zu hinterfragen. Tools, die z.B. ein automatisches semantisches Tagset innehaben und in ihrer Ausführung Fehler offenbaren, weisen automatisch in ihrer Fehlerhaftigkeit darauf hin, dass der Fehler auch beim eigenen Konzept liegen könnte. Wenn die Ergebnisse allerdings nur aus einem Berg an Zahlen bestehen, ist die Chance möglicherweise geringer, Fehler zu vermuten. Andererseits sollte jedoch genau diese Gleichgültigkeit erst als Warnung und dann als Motivation gesehen werden, sich zu größerer konzeptueller Schärfe zu zwingen.

Die Nützlichkeit und Wichtigkeit eines solchen Tools wie AntConc kann und sollte meines Erachtens nach der oben genannten Darstellung seiner Features nicht mehr infrage gestellt werden. Die computergestützte quantitative (und qualitative) Analyse von Texten bietet, und da stimme ich Rommel (vgl. 2004, S. 5) in jeder Hinsicht zu, einen unmäßigen Pool an neuen Möglichkeiten, Texte zu verarbeiten – vor allem in einer technologisch rasant voranschreitenden Zeit wie der unseren, in der der Zugriff auf riesige Textkorpora vereinfacht ist, Computer immer größere Arbeitskapazitäten vorweisen und simple und gute Software wie AntConc auch für Laien verständlich geworden ist.

Beispielanwendung

Hypothese

Italienische Migrationsliteratur in Deutschland unterscheidet sich in ihren Hauptbegriffen von der türkischen Migrationsliteratur in Deutschland. Beide Bereiche umkreisen zwar in etwa die gleichen Themengebiete wie Fremdheit, Heimatlosigkeit etc. So sagt Weigel:

Die Situation der Migration wird in sehr vielen Texten in topologischen Vorstellungen gefaßt und mit Raum-Metaphern in Verbindung gebracht: als eine Existenz im ‚Dazwischen‘, der Migrant als ‚Pendler zwischen zwei Ländern, zwei Kulturen‘. […] Im Hinblick auf die Identität wird dieses Dazwischen mit dem Gefühl der Zerrissenheit in Verbindung gebracht […]. Eine andere Bildkette, die an diese anschließt, arbeitet mit dem Begriff der Heimat. Das Gefühl der Heimatlosigkeit, in beiden Ländern nur Gast, aber nicht zu Hause zu sein, bezeichnet wiederum einen Ort im ‚Dazwischen‘, hier aber als Verlust gekennzeichnet auf der Folie eines positiv besetzten Begriffs. In der Wortkombination mit fremd oder Fremde geht es dann wieder um Fragen der ‚Identität‘, um den Ausdruck von Fremdheits- und Entfremdungsgefühlen, für die der Begriff der Entwurzelung und daraus abgeleitete Wurzel- und Baum-Metaphern gebräuchlich sind. Weigel (1992), S. 216ff.

Die Thematik der Fremdheit und des Aufeinanderprallens von Kulturen diskutiert auch Chiellino:

Da Vergangenheit und Zukunft unterschiedlichen Kulturräumen zugeordnet werden, geraten Raum und Zeit aus dem Gleichgewicht und erhalten unterschiedliche Stellenwerte. Während die Aufnahmegesellschaft die Priorität des Ortes hervorhebt, negiert sie die mitgebrachte Vergangenheit der Ankommenden. Dem gegenüber setzen die Ankommenden die Kontinuität ihrer Vorgeschichte, d.h. die Priorität der Zeit. Chiellino (2000), S. 52f.

Beide zu untersuchende Literaturen erreichen dieses aber auf unterschiedliche Art und Weise: Italien und die Türkei unterscheiden sich voneinander durch gewisse Merkmale, z.B. durch ihre unterschiedliche geographische Nähe zu Deutschland, ihre unterschiedliche historische Nähe zu Deutschland (z.B. die Rolle Italiens während des 2. Weltkrieges), durch ihre unterschiedlichen wirtschaftlichen Hintergründe, ihre unterschiedlichen kulturellen Hintergründe (Italien war eher zur „europäischen“ Kultur ausgerichtet, während sich die Türkei jahrhundertelang eher zum Orient ausgerichtet hatte), sowie außerdem durch ihren unterschiedlichen religiösen Hintergrund (Katholizismus vs. Islam). Aus diesen Punkten wird geschlossen, dass sich auch die Ausprägung beider Kulturen in der Migrationsliteratur in Deutschland unterschiedlich verdeutlicht.

Aufgabenbeschreibung

Eine Untersuchung hätte nun mithilfe von AntConc die Aufgabe, Hilfestellung zur Belegung oder Widerlegung der genannten Hypothese zu leisten. Dafür soll zunächst mit AntConc untersucht werden, welche Begriffe in der türkischen Migrationsliteratur und, im anschließenden zweiten Durchlauf, welche in der italienischen Migrationsliteratur besonders häufig vorkommen. Die wichtigsten Schlüsselbegriffe sollen dann verwendet werden, um zunächst die eine, dann die andere Literatur näher zu untersuchen: Es sollen die kontextuellen Nachbarbegriffe der Schlüsselwörter analysiert werden um herauszufinden, ob vielleicht Heimat (ein potenzielles Schlüsselwort) in türkischer Literatur anders konnotiert wird als in italienischer Literatur in Deutschland.

Vorgehensweise

Als Erstes werden zwei unabhängige "Migrationsliteraturkorpora" mit Prosaliteratur zusammengestellt. Das "türkische" Korpus kann z.B. Texte von Feridun Zaimoğlu, Aras Ören, Kemal Kurt, Emine Sevgi Özdamar, enthalten, das "italienische" beispielsweise Texte von Franco Biondi, Marisa Fenoglio, Carmine Chiellino, Giuseppe Giambusso. Im zweiten Schritt sollen das italienische und das türkische Migrationskorpus getrennt zusammengestellt und in einem von AntConc unterstützten Dateiformat gespeichert. Dieses geschieht entweder über bereits vorhandene Korpora oder über manuelle Digitalisierung. Annotationen werden nicht gemacht. Ein angemessenes Referenzkorpus deutscher Literatur des 20. Jahrhunderts wird ebenfalls in digitaler Form zusammengestellt und in einem von AntConc unterstützten Dateiformat gespeichert.

Es wird beispielsweise zuerst mit der Untersuchung des türkischen Migrationsliteraturkorpus begonnen. Dafür wird das Korpus über File > Open File(s) in AntConc eingespeist. Über Tool Preferences > Keyword List (vgl. Fig.9) wird die Einspeisung eines Referenzkorpus vorgenommen. Unter Keyword Generation Method muss sich für eine der beiden Möglichkeiten (Log-Likelihood oder Chi Squared) entschieden werden. Der Threshold Value wird auf All Values eingestellt, damit der größtmögliche Überblick zustande kommt. Über Reference Corpus Options wird das Korpus nun eingeladen. Es muss entschieden werden, ob das Korpus als Ganzes oder eine bereits vorher zusammengestellte Wörterliste verwendet wird – dementsprechendes wird angeklickt. Über Choose Files wird nun der Referenztext eingespeist und über Apply bestätigt. Die Untersuchung wird nun mit Klicken auf Start begonnen. AntConc springt zunächst automatisch zum Word List Tool (vgl. Fig.8) und generiert eine Wörterliste, um dann wieder zum Keyword List Tool zurückzuspringen. Es werden direkt die ersten Ergebnisse der Migrationsliteraturanalyse angezeigt: AntConc erbringt die Schlüsselwörter des Korpus türkischer Migrationsliteratur im statistischen Vergleich zum Referenzkorpus und zeigt deren Keyness und Frequenz an. Mit diesen Schlüsselwörtern kann nun weitergearbeitet werden. Die Ergebnisse sind im Keyword List Tool automatisch nach Keyness sortiert. Durch Klicken auf Save Window oder über File > Save Output To Text File können diese ersten Ergebnisse gespeichert werden.

Die nun darauf folgende Untersuchung des italienischen Migrationsliteraturkorpus verfährt auf die gleiche Weise, die daraus sich ergebenden Schlüsselwörter werden ebenfalls über File > Save Output To Text File gespeichert.

Es wird nun manuell eine Liste aller in beiden zu untersuchenden Literaturkorpora relativ gleich ungewöhnlich hohen Schlüsselbegriffe zusammengestellt. Dieses sind beispielsweise fremd, Fremde, Heimat, deutsch und wir.

Als zweites soll nun eine Clusteranalyse durchgeführt werden, um diese Begriffe jeweils im Kontext ihres jeweiligen Korpus näher zu betrachten. Es wird z.B. nun zunächst mit diesen Begriffen im Kontext der türkischen Migrationsliteratur begonnen. Hierfür wird dieses Korpus als Ausgangskorpus wie o. g. eingespeist. Das Clusters Tool (vgl. Fig.5) wird aufgerufen. In die Suchleiste wird das erste Schlüsselwort eingegeben, z.B. Heimat. Über Cluster Size werden die zu suchenden Clustergrößen festgelegt, z.B. Min. Size 2 und Max. Size 5. Die Analyse wird gestartet. AntConc erbringt nun eine Reihe an häufigen Clustern, die Heimat als Mittelpunkt haben und die dem Wort diverse Attribute zuschreiben, z.B. alte H., verlorene H., zurück in die H. etc. Die Ergebnisse werden wie o. g. gespeichert.

Eine solche Clusteranalyse kann nun für alle Schlüsselwörter durchgeführt werden, sowohl mit dem türkischen, als auch mit dem italienischen Migrationsliteraturkorpus. Auf diese Weise werden also die hervorstechendsten Begriffe beider Korpora hervorgebracht und können durch Clusteranalysen mit ihren Nachbarwörtern in Beziehung gesetzt und dann schließlich außerhalb von AntConc manuell interpretativ im Verhältnis türkischer zu italienischer Migrationsliteratur bewertet werden. So kann AntConc dabei helfen, Unterschiede und Ähnlichkeiten beider Literaturen gegeneinander abzusetzen.

Kritische Diskussion

AntConc soll natürlich bei einer derartigen Untersuchung nur Hilfestellung leisten und keine absoluten Ergebnisse liefern. Zwar können statistische Werte, die mathematisch korrekt sind, problemlos und in kürzester Zeit errechnet werden; wie diese allerdings in einer anschließenden Interpretation behandelt werden, unterliegt immer noch den subjektiven Überlegungen der forschenden Person. Problematisch wird die Analyse, wenn in Betracht gezogen wird, dass hier nur nach explizit genannten Schlüsselbegriffen und deren kontextueller Umgebung gesucht wird. Wenn nun allerdings Wörter wie Heimat oder deutsch umschrieben oder gar metaphorisiert werden, findet AntConc sie auf diese Weise nicht und kann sie dementsprechend auch nicht in statistische Berechnungen mit einbeziehen. In solchen Situationen müssen alle Texte der Korpora nach der Keyness-Analyse manuell auf Metaphern und Umschreibungen annotiert werden. Hier wäre es sinnvoll, mit einem anderen Tool, beispielsweise CATMA, weiterzuarbeiten.

Der reale Zeitaufwand einer solchen wie oben beschriebenen Untersuchung von Migrationsliteratur würde sich immens gestalten, da allein die Erstellung der benötigten Korpora ein großes Unterfangen ist. In diesem oben durchgeführten Fall ist der manuelle Arbeitsfaktor ein weitaus größerer, als der von AntConc automatisch geleistete. Es müsste bei einem ernsthaften Analyseverfahren in Kombination mit einem Tool gearbeitet werden, das die Erstellung großer Textmassen erleichtert oder bestimmte zeitaufwendige Aufgaben abnehmen kann. Denkbar wäre bei einer solchen Analyse außerdem die Einbeziehung eines Tools wie WMatrix, da die dort vorhandene Möglichkeit einer Emotionsanalyse sicherlich bei so einer stark emotional aufgeladenen Thematik wie Migration überaus aufschlussreich wäre.

Es wäre sicherlich auch denkbar, eine solche Frequenz- und Keyness-Analyse in beispielsweise türkischer Migrationsliteratur nur im Vergleich zwischen den unterschiedlichen Schlüsselbegriffen der ersten und zweiten Generation [Zur Diskussion über die Begriffe ‚Erste‘ und ‚Zweite‘ Generation vgl. Chiellino (2000), S. 1-49, sowie Rösch (1992) und (2004).] durchzuführen, um mögliche Unterschiede in der Betrachtungsweise von älteren türkischen Autor_innen in Deutschland und den jungen, in Deutschland geborenen türkisch-kulturellen Autor_innen herauszuarbeiten.

Literatur

Weblinks

  1. AntConc Homepage
  2. AntConc Read-me Datei (PDF)
  3. Homepage von Laurence Anthony

Literatur

  1. Anthony, Laurence: „AntConc. A Learner and Classroom Friendly, Multi-Platform Corpus Analysis Toolkit”, in: Proceedings of IWLeL 2004: An Interactive Workshop on Language e-Learning, Tokio 2004, S. 7-13.
  2. Anthony, Laurence: „AntConc. Design and Development of a Freeware Corpus Analysis Toolkit for the Technical Writing Classroom”, in: International Professional Communication Conference Proceedings, Limerick 2005, S. 729-737.
  3. Anthony, Laurence: „Concordancing with AntConc - An Introduction to Tools and Techniques in Corpus Linguistics", in: Proceedings of the JACET 45th Annual Convention, Osaka 2006, S. 218-219.
  4. Anthony, Laurence: „Concordancing with AntConc: An Introduction to Tools and Techniques in Corpus Linguistics" [Summary of JACET 2006 workshop], in: JACET Newsletter 155 (2006), S. 208.
  5. Anthony, Laurence: „From Language Analysis to Language Simplification with AntConc and AntWordProfiler" [Summary of JAECS 2008 workshop], in: JACET Newsletter 63 (2008), S. 2.
  6. Chiellino, Carmine (Hg.): Interkulturelle Literatur in Deutschland. Ein Handbuch, Stuttgart/Weimar 2000.
  7. Kühnel, Steffen M./Krebs, Dagmar: Statistik für die Sozialwissenschaften. Grundlagen, Methoden, Anwendungen, Hamburg 42007.
  8. Kuckartz, Udo: Einführung in die computergestützte Analyse qualitativer Daten. Wiesbaden 2007.
  9. Michel, Jean-Baptiste et al.: „Quantitative Analysis of Culture Using Millions of Digitized Books”, in: Science 331 (2011), S. 176-182.
  10. Ralph Müller: "Parallelstellenmethode – digital. Philologische Erfahrung, Empirisierung, Texte und Korpora", in: Philip Ajouri, Katja Mellmann, Christoph Rauen (Hg.), Empirie in der Literaturwissenschaft. Paderborn 2013. S. 181–200.
  11. Rommel, Thomas: „Literary Studies“, in: Susan Schreibman et. al. (Hgg.): A Companion to Digital Humanities, Oxford 2004.
  12. Tognini-Bonelli, Elena: Corpus linguistics at work [Studies in Corpus Linguistics 6], Amsterdam 2001.
  13. Weigel, Sigrid: „Literatur der Fremde – Literatur in der Fremde“, in: Hans Briegleb und Sigrid Weigel (Hgg.): Gegenwartsliteratur seit 1968 [Hansers Sozialgeschichte der deutschen Literatur vom 16. Jahrhundert bis zur Gegenwart 12], München/Wien 1992, S. 182-229.

[Autorin der ersten Version [15.3.2012]: Katrin Droste; geringfügig überarbeitet [7.6.2013] von Berenike Herrmann ]