Struktur Wikieintrag

Aus Literatur Rechnen - Neue Wege der Textanalyse
Wechseln zu: Navigation, Suche

Kurzbeschreibung des Tools

Bitte leistet hier eine ganz kurze und prägnante Einführung. Berücksichtigt dabei:
  • Name und Version des Tools, Entwickler, Ort (ggf. Selbstbeschreibung in Form eines Zitats)
  • Externer Link zum Tool
  • Funktionen, methodologische Einordnung (korpuslinguistisch / NLP (Computational Linguistics)/ anderes)
  • Arbeits- und Analyseschritte (qualitativ / quantitativ / beides; automatisch / händisch / beides)

Allgemeine Voraussetzungen

Bitte beschreibt hier die technischen und formalen Voraussetzungen unter Berücksichtigung der folgenden Stichpunkte. Ergänzt die Stichpunkte bitte, wo es notwendig ist.
  • technische Voraussetzungen: Version Betriebssystem, Arbeitsspeicher, Flash Player, Java etc.
  • browserbasiert / Installationssoftware / ...
  • Registrierung notwendig? ...
  • Daten- und Ergebnis-Speicherung: Speicherung online/ Festplatte / Export /...
  • freeware, kostenpflichtig, Probeversion ...
  • Ergänzungen?


Detaillierte Beschreibung des Tools

Bitte hier eine detaillierte und anschauliche Beschreibung des Tools unter Zuhilfenahme von Screenshots und Anwendungsbeispielen leisten.
(Nota Bene diese können aus der Beispielanwendung unten stammen, aber auch aus dem Manual des Tools und anderen Arbeiten, die das Tool benutzt haben (z.B. Schüch für CATMA) etc.)
Wie wird gearbeitet: 

-> Programmoberfläche: Interface / Java / R etc. (Screenshots, Beispiele) -> Referenzkorpora

  • Automatische oder händische Arbeitsschritte

automatisch: Parsing, Lemmatisierung, POS-Tagging, Erfassung der syntaktischen Struktur (Tree Tagger), semantisches Tagging … händisch: Vorbereitung der Daten, Dateneinspeisung, Annotation (was darunter zu verstehen ist, bitte genau beschreiben), Zuweisung von Kategorien/ semantischen Labels, Auswahl von Eigenschaften etc. etc.

  • Art der Analyse:

(einordnen: qualitativ / quantitativ / beides / Mischformen) Frequenzanalyse, Kookurenzanalyse, Keyness-Analyse, Kohärenzanalyse, Valenzanalyse, Intensitätsanalyse, Kontingenzanalyse, Sentiment-Analysis, Autorschaftsidentifikation und Textähnlichkeitsmessung, Genre- und Textsortenvergleich, Handlungsanalyse, Analyse der Erzählperspektive etc. etc.

  • Ausgabedaten:

rohe Daten (Frequenzen, n-Gramme, Konkordanzen etc.); statistische Ergebnisse (z-score / log-likelihood Wert / chi-square Wert etc.)- Visualisierungen (Frequenzen, time line, story plot etc.)- Dateiformate (pdf, xml, txt etc.) ...

Daten-Einspeisung

  • Welches Format(siehe Dateiendung) müssen die Eingabetexte haben? Können Datensätze hochgeladen werden?
  • Wird ein Metadaten-Markup verwendet? Wenn ja, welches? (z.B. Dublin Core, simple (DC), Text Encoding Initiative (TEI))
  • Leistet das Tool Hilfestellung bei der Erstellung von eigenen Korpora nach bestimmten Kriterien? Wenn ja, welche?
  • Sind vor-annotierte Texte nötig? Wenn ja, welche Art der Annotation?
  • Dürfen die Texte eine gewisse Größe (MB/GB) nicht überschreiten?
  • Urheberrechte der Texte?
  • Können Einzeltexte eingespeist/hochgeladen werden oder größere Datensätze?


Benutzerfreundlichkeit

  • Wer ist die Benutzer-Zielgruppe?
  • Ist das Tool für Neueinsteiger auf dem Gebiet nutzbar?
  • Interface: Welche Art? Verschiedene Versionen?
  • Programmierkenntnisse erforderlich? Wenn Interface: sind kreative Anfragen etc. möglich?
  • Gibt es einen ausführlichen Glossar, ein Manual, eine (interaktive) Hilfe, Tutorials etc.?


Transparenz

Erörtert hier die wissenschaftliche Transparenz des Tools:
  • Wird das „Innenleben“ des Tools offengelegt?
  • Programm-Details, Quellcode, Algorithmen
  • Gibt es eine Evaluation/Selbsteinschätzung in Bezug auf Validität, Zuverlässigkeit, etc.
  • Wird auf Probleme hingewiesen?
  • Ist Feedback erwünscht?


Fazit

Bitte schließt hier Eure Beschreibungen mit einem Fazit ab, in dem Ihr das bisherige zusammenfasst und bewertet, aber auch die folgenden Punkte berücksichtigt:
  • Zusammenfassung
  • Bezug auf unsere Literaturliste, insbesondere Rommels Text
  • Zeitaufwand (Vorbereitung und tatsächliche Bearbeitung automatisch vs. händisch)
  • Interpretationsspielraum von möglichen /typischen Ergebnisse (wenn meherere Funktionen des Tools, deutlich machen für welche dies gilt)
  • Zuverlässigkeit von möglichen /typischen Ergebnissen (dito)
  • Hypothesengenerirtes Arbeiten / Exploratives (Corpus-driven, siehe Tognini-Bonelli) Arbeiten -> Man kann mit unterschiedlichen Tools unterschiedliche Hypothesen testen / Analysen durchführen (manche also auch nicht)...
  • Erörtert bitte: Sind oberflächenstrukturelle Fragen besser für quantitativ arbeitende Tools geeignet, da solche Phänomene leichter zu operationalisieren und durch Indikatoren messbar sind? Erfordern komplexere Phänomene (Spannung, Erzählperspektive, Ironie etc.)tendenziell mehr Vorarbeit und einen größeren händischen Aufwand?
  • Erörtert bitte: Zwingt die Konzeptualisierung und Operationalisierung die Forschenden zu größerer konzeptueller Schärfe und Konsistenz?


Beispielanwendung

Hier sollt Ihr zeigen, wie Ihr das Tool selbst an die Analyse von literarischen Texten ansetzt. 
Die Schilderung kann eine durch Screenshots und Ergebnisse belegte Testanalyse oder ein "konkretes Gedankenspiel" sein. 
Unter letzterem verstehe ich ein alle Arbeitsschitte durchlaufende, beschreibende, und problematisierende Beispielanwendung (ggf. teilweise konkret vorgeführt, teilweise Simulation) 
Welche Form Ihr wählt, hängt von der Art des Tools (und der Fragestellung) ab und bleibt Euch also selbst überlassen. 
Jedoch sollte die Beispielanwendung in jedem Fall:
  • klare Ziele (d.h. Forschungsfrage/Hypothese) formulieren
  • das Ziel, die (fiktive) Analyse, das (fiktive) Ergebnis kritisch diskutieren und u.U. auch prolematisieren (z.B. kam in Katrin Drostes AntConc Beispiel am Ende die Frage auf, wie genau die höfischen Ideale in den Texten kommuniziert werden - ihre Analyse hatte explorativ erst einmal die Begriffe selbst gesucht)

Literatur