Archiv der Kategorie: CRETA

Reflektierte algorithmische Textanalyse

Buchcover "Reflektierte Algorithmischen Textanalyse" Im Juli erscheint der open-access-Sammelband „Reflektierte algorithmische Textanalyse“, der mit einer Reihe von Aufsätzen Einblick in die interdisziplinären Arbeiten des Center for Reflected Text Analytics (CRETA) gibt. Die in CRETA entstandenen und hier veröffentlichen Arbeiten reichen von theoretischen Auseinandersetzungen mit allgemeinen komputationellen Arbeitspraktiken über die Entwicklung textanalytischer algorithmischer Methoden hin zu Anwendungen auf geisteswissenschaftliche Untersuchungsgegenstände. Dabei legen sie ein besonderes Augenmerk auf die Nachvollziehbarkeit der Methoden und ihren reflektierten Einsatz auf die Analysegegenstände. Die Beiträge zeugen von den ertragreichen Synergieeffekten, die aus der interdisziplinären Ausrichtung des Projekts hervorgehen und nicht nur zu innovativen Arbeitspraktiken und Methoden führen, sondern auch in die jeweiligen beteiligten Disziplinen zurückwirken.
Insgesamt bietet der Sammelband eine theorie- wie praxisbezogene Einführung in die reflektierte algorithmische Textanalyse und kann damit anderen DH-Projekten mit ähnlicher Zielsetzung als Orientierung dienen.

Update vom 28.07.: Jetzt ist es verfügbar

Nils Reiter, Axel Pichler, Jonas Kuhn (Hrsg.): Reflektierte Algorithmische Textanalyse. Interdisziplinäre(s) Arbeiten in der CRETA-Werkstatt. De Gruyter. Erscheinungsdatum: 20.07.2020. URL https://www.degruyter.com/view/title/575959

Maschinelles Lernen als Interpretationsgrundlage!? – Ein Erfahrungsbericht zur DHd 2020

ursprünglich erschienen auf dem DHd-Blog.

Vom 03. bis 06. März 2020 habe ich an der DHd 2020 in Paderborn teilgenommen. Im Folgenden möchte ich einen thematischen Schwerpunkt näher beleuchten, der mich als Teilnehmer besonders interessiert hat.

Das Thema, an dem ich auch persönlich forsche und das ich daher auf der diesjährigen DHd besonders gesucht und verfolgt habe, ist die Frage, wie und inwieweit Maschinelles Lernen (ML) genutzt werden kann, um geisteswissenschaftliche (und insbesondere literaturwissenschaftliche) Fragestellungen zu beantworten (oder zumindest neue Einsichten zu erzeugen).

Maschinelles Lernen bezeichnet eine Methode, bei der mittels statistischer Algorithmen und Daten Modelle erzeugt werden, die aus den gesehenen Daten (statistische) Verallgemeinerungen ziehen und somit auf neue und vorher ungesehene Daten angewendet werden können. Die Fülle an vorhandenen Algorithmen und Verfahren ist groß; eine ML-Familie ist unter dem Namen “Deep Learning” bekannt geworden und bedient sich vor allem Künstlicher Neuronaler Netze. Diese Netze waren, auch unter Verwendung von immer stärker werdenden Rechnerresourcen, in bestimmten Gebieten wie Automatische Bilderkennung oder Automatische Spracherkennung, so erfolgreich, dass sie bald zugleich für andere Gebiete im großen Stil eingesetzt wurden; darunter für Textverarbeitung.

Maschinelles Lernen und Deep Learning (DL) nehmen in den DH eine interessante Rolle ein, da sie für einige Bereiche sehr gewinnbringend eingesetzt werden können (siehe OCR etc.) und für andere Bereiche auf eher größere Hürden stoßen. Einer dieser Bereiche, die Nutzbarmachung von ML für die Interpretation von literaturwissenschaftlichen Fragestellungen, fand sich auch auf der diesjährigen DHd. Ein kurzer Blick zurück: Die DHd 2019 in Mainz/Frankfurt am Main beherbergte ein Panel mit dem Titel “Deep Learning als Herausforderung für die digitale Literaturwissenschaft”. Auf der diesjährigen DHd konnte ein Panel mit dem Titel “Maschinelles Lernen in den Geisteswissenschaften” besucht werden (Donnerstag, 05.03.2020, 9:00-10:30, Tobias Hodel, Nasrin Saef, Christof Schöch, Ulrike Henny-Krahmer). Das Auftreten dieser Themen in aufeinanderfolgenden Jahren legt den Schluss nahe, dass das Thema Maschinelles Lernen in den deutschsprachigen Digital Humanities immer mehr an Fahrt aufnimmt.

Das diesjährige Panel bestand aus verschiedenen Aspekten, die, neben einem allgemeinen Einblick dazu, was ML eigentlich ist, zusammengefasst werden können mit: 1. Vorhandene Verwendung von ML in den DH, 2. Nutzen von ML und 3. epistemologische Herausforderungen bei der Anwendung von ML. Insbesondere wurde dafür plädiert, sich zu trauen, Maschinelles Lernen produktiv in die eigene Forschung einzubauen.

Zu der Frage danach, was ML epistemologisch bedeutet, passt die Einführung einer Arbeitsgruppe auf der diesjährigen DHd mit dem Ziel, Theorien in den DH zu beleuchten und der Frage nachzugehen, welche Theoriebegriffe die DH überhaupt bereitstellen (Link zum Blog der AG). Auch der Einsatz von ML in den DH kann meiner Ansicht nach von solchen Bestrebungen profitieren, da klarer wird, was für Erkenntnisgewinne durch die Anwendung von ML überhaupt grundsätzlich möglich sind.

Ein weiterer wichtiger Aspekt, der durch Wortmeldung aus dem Publikum eingebracht wurde, war die Frage danach, inwieweit die DH dazu beitragen können, Biases, also Verzerrungen, im Maschinellen Lernen und insbesondere in Word Embeddings, also numerischen Darstellungen von Wörtern, zu untersuchen. Das Thema “Bias in ML und DL” ist ein großes Thema, das momentan von vielen verschiedenen Forschungsfeldern bespielt wird. Es scheint mir offensichtlich, dass die DH mit ihrem inbegriffenen geisteswissenschaftlichen Bezug hier wichtige Beiträge leisten können. Der andere Aspekt, der eher inwendig gerichtet ist und für den ich hier gerne werben möchte, ist der bereits angesprochene Aspekt der Nutzbarmachung von ML-Methoden, um Erkenntnisse zu geisteswissenschaftlichen Fragestellungen zu gewinnen.

Ein wichtiger Teil davon ist die Frage nach der Operationalisierung von literaturwissenschaftlichen Phänomenen, d.h. komplexe Phänomene in Teilphänomene herunterzubrechen um sie z.B. mit Computerprogrammen modellieren und untersuchen zu können. Hierzu gab es verschiedene Workshops, an denen ich teilweise mitgewirkt habe: Zum einen ein “Hackatorial”, das der Frage nachging, wie die Ergebnisse Maschinellen Lernens genutzt werden können, um neue Fragestellungen zu entwickeln und neue Einsichten zu gewinnen, z.B. über gezielte Fehleranalyse und Auswahl von geeigneten Features. Hierbei lag der Fokus auf dem Erkennen von Personen-, Organisations- und Ortsreferenzen (Workshop “Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse”, Dienstag, 03.03.2020, 9:00-12:30, Gerhard Kremer, Kerstin Jung). Ein weiterer Workshop behandelte die gezielte Operationalisierung von komplexen literaturwissenschaftlichen Phänomenen. Hierbei wurden Texte annotiert, was zugleich erlaubte, interessante Einzelfälle ausfindig zu machen, etwa bei der Frage von Textklassifizierung oder Erzählebenenerkennung. Maschinelles Lernen kann anschließend auf die erstellten Daten angewendet werden, um zu ermitteln, wo Modelle unvorhergesehene Entscheidungen treffen. Diese Entscheidungen können ein Auslöser dafür sein, sich die entsprechenden Textstellen genauer anzuschauen und eventuell Aspekte in den Texten zu entdecken, die sonst übersehen worden wären (Workshop “Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH”, Dienstag, 03.03.2020, 13:30-17:00, Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter).

Die finale Keynote am Freitag von Alan Liu beschäftigte sich ebenfalls ganz konkret mit dem Thema und trug den Titel “Humans in the Loop: Humanities Hermeneutics and Machine Learning”. Liu schlägt ein festgelegtes Protokoll vor, nach dem verschiedene Ebenen des Lernens von ML durchlaufen werden können und macht dies am Beispiel von Topic Modeling deutlich. Geisteswissenschaftliche Herangehensweisen und Erkenntnisse aus den speziellen Gegebenheiten des ML beeinflussen sich hier gegenseitig.

Was also bleibt nach dieser DHd an neuen Eindrücken zum Thema “ML in den DH”? Ich denke, es lässt sich auf zwei wesentliche Aspekte zusammen fassen: das Interesse an der Nutzbarmachung von ML zum besseren und neuen Verständnis der geisteswissenschaftlichen Gegenstände wächst immer weiter und gleichzeitig ist der Weg noch lang zu einer routinierten Integration von ML in die DH-Alltagspraxis.

Beiträge auf der DHd 2020

Wir freuen uns auf die kommende DHd 2020 in Paderborn, auf der die folgenden Beiträge aus Stuttgart zu hören sein werden:

Vorträge:

Marcus Willand, Benjamin Krautter, Janis Pagel, Nils Reiter:
Passive Präsenz tragischer Hauptfiguren im Drama
Mittwoch, 04.03., 14:00 Uhr (Session: V9 Dramenanalyse)

Benjamin Krautter:
Distinktive Eigenschaften im deutschsprachigen Drama
Mittwoch, 04.03., 14:30 Uhr (Session: V9 Dramenanalyse)

Nathalie Wiedmer, Janis Pagel, Nils Reiter:
Romeo, Freund des Mercutio: Semi-Automatische Extraktion von Beziehungen zwischen dramatischen Figuren

Jonas Kuhn, Axel Pichler, Nils Reiter, Gabriel Viehhauser:
Textanalyse mit kombinierten Methoden – ein konzeptioneller Rahmen für reflektierte Arbeitspraktiken
Donnerstag, 05.03., 09:00 Uhr (Session: V12: Theorien der Textanalyse)

Rostislav Tumanov, Gabriel Viehhauser, Alina Feldmann und Barbara Koller:
Spielräume modellieren. Eine digitale Edition von Giovanni Domenico Tiepolos Bildzyklus Divertimento per li Regazzi auf der Grundlage von CIDOC CRM.
Donnerstag, 05.03., 10:00 Uhr (Session: V11 Innovationen in der Digitalen Edition)

Toni Bernhart:
As a Hobby at First. Künstlerische Produktion als Modellierung
Donnerstag, 05.03., 11:30 Uhr (Session: V13: Text / Theorie in Vergangenheit und Zukunft)

Workshops:

Gerhard Kremer, Kerstin Jung:
Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse
Dienstag, 03.03., 09:00-12:30 Uhr

Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter:
Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH
Dienstag, 03.03., 13:30-17:00 Uhr

Poster:

Mona Ulrich, Jan Hess, Roland Kamzelak, Heinz Werner Kramski, Kerstin Jung, Jonas Kuhn, Claus-Michael Schlesinger, Gabriel Viehhauser, Björn Schembera, Thomas Bönisch, Andreas Kaminski:
Science Data Center SDC4Lit

Panel:

Julia Nantke, Manuel Burghardt, Nils Reiter, Regula Hohl Trillini, Ben Sulzbacher, Johannes Molz, Axel Pichler:
Intertextualität in literarischen Texten und darüber hinaus
Freitag, 06.03., 11 Uhr (Panel 6)

CRETA-Coaching: Reflektierte Textanalyse und Operationalisierung

Das Zentrum für Reflektierte Textanalyse (CRETA) bietet 2019 erstmals ein spezielles Coaching an, das sich an Nachwuchswissenschaftlerinnen und -wissenschaftler aus den Geistes- und Sozialwissenschaften richtet. Ziel des Coachings ist es einerseits, Grundlagen der maschinellen Textanalyse zu vermitteln, andererseits sollen konkrete Operationalisierungsmöglichkeiten für die vorliegenden Forschungsfragen gemeinsam erarbeitet werden, insbesondere im Hinblick auf die Kombination maschineller und manueller Textanalyse.
Zum Coaching gehört die Teilnahme an mehreren Veranstaltungen, die zwischen dem 9. und 17. September 2019 in Stuttgart stattfinden, sowie eine Beihilfe zu den Reisekosten.

Bewerbungen werden bis zum 15. Juni01. Juli erbeten.

Weitere Informationen finden sich auf der Webseite https://www.creta.uni-stuttgart.de/coaching/, Rückfragen können auch gerne direkt an nils.reiter@ims.uni-stuttgart.de gerichtet werden.

Update, 22.11.2019

Das CRETA-Coaching hat erfolgreich stattgefunden, zwei Berichte von Teilnehmerinnen können hier nachgelesen werden:
Svenja Guhr: Erfahrungsbericht über ein Schlaraffenland für NachwuchswissenschaftlerInnen, 30.09.19
Anna Schmidt: Das Creta-Coaching an der Universität Stuttgart, 22.11.19

Der Fontane-Code

Ein CRETA-Team nimmt am kommenden Wochenende am Fontane-Hackathon „Der Fontane-Code“ teil. Das Team besteht aus Sandra Murr, Sarah Schulz, Tim Strohmeyer und Nils Reiter und arbeitet an den Besonderheiten Fontanes im Vergleich mit seinen Zeitgenossen:

Als wiederkehrende Charakteristika werden in den Werken Theodor Fontanes gerne die historischen Referenzräume, die vertikalen Handlungsentwicklungen, der auktoriale Erzählgestus, die Charakterisierung der Figuren im Dialog sowie die Ironie und Humor als Stilmittel herausgestellt.
In unserem Projekt möchten wir uns mithilfe von computergestützten Analysen der Auffindung von diesen und weiteren Aspekten des Erzählstils Fontanes auf Textebene annähern. Wir fokussieren dabei Sprachstrukturen, linguistische Eigenschaften sowie sprach-strukturelle und semantisch-inhaltliche Merkmalen. Um die Besonderheit dieser Aspekte für die Werke Fontanes herauszuarbeiten, ziehen wir Texte zeitgenössischer Autoren wie Wilhelm Raabe und Gottfried Keller zum Vergleich heran und erwirken so eine quantitative und kontrastive Charakterisierung fontanespezifischer Stilmittel.

Werkstatt-Treffen: Netzwerkanalyse

Im Rahmen des CRETA-Projekts findet ein öffentliches Werkstatt-Treffen statt, zu dem externe Gastvortragende eingeladen sind (Vortrags- und Diskussionssprache ist Englisch).

Das Programm  für Mittwoch, den 14. März 2018:

• 09:00 Nils Reiter, CRETA
Welcome & Introduction

• 09:15 Nora Ketschik, Evgeny Kim & Florian Barth, CRETA
Extracting Character Networks from Arthurian Romances and Werther
Adaptations

• 10:30 Coffee break

• 11:00 Yannick Rochat, Université de Lausanne
Character Network Analysis: A Review

• 12:30 Lunch break

• 14:00 Andreas Kuczera, Akademie der Wissenschaften und der Literatur, Mainz
Regesta Imperii as a Network of Entities

• 15:30 Coffee break

• 16:00 Frederik Elwert, Ruhr-Universität Bochum
Adding Meaning to Literary Networks. A Networked Topic Model of
the Mahābhārata

• 17:30 Closing discussion

• 18:00 End (ca.)

Das Programm zum Download als PDF: Agenda-WS5.PDF

Stuttgart auf der DHd 2018

Logo DHd 2018

Auf der in knapp zwei Wochen stattfindenden DHd-Konferenz 2018 kommen erfreulicherweise eine ganze Reihe Beiträge aus Stuttgart, viele davon sind CRETA-Beiträge:

  • Mo., 26.02., 14-17:30, Workshop: Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse (Nils Reiter, Nora Ketschik, Gerhard Kremer, Sarah Schulz)
  • Mi, 28.02., 9:00-10:30, Vortrag: A Reporting Tool for Relational Visualization and Analysis of Character Mentions in Literature (Florian Barth, Evgeny Kim, Sandra Murr, Roman Klinger)
  • Mi., 28.02., 11:00-12:30, Vortrag: Was Lesende denken: Assoziationen zu Büchern in Sozialen Medien (Jens Beck, Marcus Willand, Nils Reiter)
  • Do., 01.03., 9:00-10:30, Vortrag: Quantitatives „close reading“? Vier mikroanalytische Methoden der digitalen Dramenanalyse im Vergleich (Benjamin Krautter)
  • Do., 01.03., 11:00-12:30, Vortrag: Digitale Modellierung von Figurenkomplexität am Beispiel des Parzival von Wolfram von Eschenbach (Manuel Braun, Roman Klinger, Sebastian Padó, Gabriel Viehhauser)
  • Do., 01.03., ab 17:45, Poster: SustainLife – Erhalt lebender, digitaler Systeme für die Geisteswissenschaften (Johanna Barzen, Jonathan Blumtritt, Uwe Breitenbücher, Simone Kronenwett, Frank Leymann, Brigitte Mathiak)
  • Do., 01.03., ab 17:45, Poster: Entitäten im Fokus am Beispiel von Captivity Narratives (Linda Kessler, Tamara Braun, Tanja Preuß)
  • Do., 01.03., ab 17:45, Poster: NLP meets RegNLP meets Regesta Imperii (Andre Blessing, Andreas Kuczera)
  • Do., 01.03., ab 17:45, Poster: Verhaltensmuster in Massendiskursen: Ein Opinion Dynamics – Modell (Malte Heckelen)
  • Do., 01.03., ab 17:45, Poster: Die Max-Bense-Collection. Digitale Re-Publikation von Erstausgaben mit erweiterten Plattformfunktionen (Claus-Michael Schlesinger)
  • Fr., 02.03., 11:00-12:30, Vortrag: SANTA: Systematische Analyse Narrativer Texte durch Annotation (Evelyn Gius, Nils Reiter, Jannik Strötgen, Marcus Willand)

CRETA bei der DH 2017

CRETA beteiligte sich bei der DH 2017, der diesjährigen Internationalen Konferenz der Digital Humanities in Montréal, mit folgenden Beiträgen.

  • From Text to Networks: Combining Entity and Segment Annotations in the Analysis of Large Text Corpora
    (Nils Reiter, Maximilian Overbeck, Sandra Murr)

    Dieser Halbtages-Workshop bot Praxiserfahrung beim Erproben eines vollständig erarbeiteten und getesteten Arbeitsablaufs, der im Centrum für reflektierte TextAnalyse entwickelt worden war. Der Schwerpunkt lag auf der validen und zuverlässigen Erkennung verschiedener Arten von Entitäten und Segmenten in nicht vorverarbeiteten und nicht annotierten Texten und der Gewinnung von Informationen über charakteristische Beziehungen anhand von Netzwerk-Visualisierungen. Das Interesse an Netzwerken für die Datenrepräsentation und -visualisierung ist seit Kurzem sehr hoch, und wir glauben, dass unser dreistufiger Arbeitsablaufplan auf viele Forschungsfragen in den Sozial- und Geisteswissenschaften übertragbar ist.

Wissenschaftliche Artikel:

  • Interactive Visual Exploration of the Regesta Imperii
    (Markus John, Christian Richter, Steffen Koch, Andreas Kuczera, Thomas Ertl)
  • Prototypical Emotion Developments in Adventures, Romances, and Mystery Stories
    (Evgeny Kim, Sebastian Pado, Roman Klinger)
  • Digital Analysis Of The Literary Reception Of J.W. V. Goethe’s Die Leiden Des Jungen Werthers
    (Sandra Murr, Florian Barth)
  • A Shared Task for a Shared Goal: Systematic Annotation of Literary Texts
    (Nils Reiter, Evelyn Gius, Jannik Strötgen, Marcus Willand)
  • Towards a Digital Narratology of Space
    (Gabriel Viehhauser-Mery, Florian Barth)