Archiv der Kategorie: Tutorial

Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse

Wir freuen uns, dass Kerstin Jung und Gerhard Kremer unser Hackatorial am 26. März auf der DHd 2019 (9:00-12:30 im Philosophicum in Mainz) vorstellen können und laden herzlich dazu ein, mitzumachen!

Die Online-Anmeldung ist über das Konferenz-Verwaltungstool für die diesjährige DHd Konferenz möglich.

Kurzbeschreibung

Das Ziel dieses Tutorials ist es, den Teilnehmerinnen und Teilnehmern konkrete und praktische Einblicke in einen Standardfall automatischer Textanalyse zu geben. Am Beispiel der automatischen Erkennung von Entitätenreferenzen gehen wir auf allgemeine Annahmen, Verfahrensweisen und methodische Standards bei maschinellen Lernverfahren ein. Die Teilnehmerinnen und Teilnehmer können beim Bearbeiten von lauffähigem Programmiercode den Entscheidungsraum solcher Verfahren ausleuchten und austesten. Es werden dabei keinerlei Vorkenntnisse zu maschinellem Lernen oder Programmierkenntnisse vorausgesetzt.

Es gibt keinen Grund, den Ergebnissen von maschinellen Lernverfahren im Allgemeinen und NLP-Tools im Besonderen blind zu vertrauen. Durch die konkreten Einblicke in den „Maschinenraum“ von maschinellen Lernverfahren wird den Teilnehmenden ermöglicht, das Potenzial und die Grenzen statistischer Textanalysewerkzeuge realistischer einzuschätzen. Mittelfristig hoffen wir dadurch, den immer wieder auftretenden Frustrationen beim Einsatz automatischer Verfahren für die Textanalyse und deren teilweise wenig zufriedenstellender Ergebnis-Daten zu begegnen, aber auch die Nutzung und Interpretation der Ergebnisse von maschinellen Lernverfahren (d.h. in erster Linie von automatisch erzeugten Annotationen) zu fördern. Zu deren adäquater Nutzung, etwa in hermeneutischen Interpretationsschritten, ist der Einblick in die Funktionsweise der maschinellen Methoden unerlässlich. Insbesondere ist die Art und Herkunft der Trainingsdaten für die Qualität der maschinell produzierten Daten von Bedeutung, wie wir im Tutorial deutlich machen werden.

Neben einem Python-Programm für die automatische Annotierung von Entitätenreferenzen, mit und an dem während des Tutorials gearbeitet werden wird, stellen wir ein heterogenes, manuell annotiertes Korpus sowie die Routinen zur Evaluation und zum Vergleich von Annotationen zu Verfügung. Das Korpus enthält Entitätenreferenzen, die im „Center for Reflected Text Analytics“ (CRETA) in den letzten drei Jahren annotiert wurden, und deckt Texte verschiedener Disziplinen und Sprachstufen ab.

Downloads

Kurs: Reflektierte Textanalyse in den Digital Humanities

Im Rahmen der European Summer University in Digital Humanities geben Sarah Schulz und Nils Reiter einen Kurs zur reflektierten Textanalyse:

Der Workshop gibt einen Einblick in die reflektierte Textanalyse und deckt verschiedene, dafür relevante Themen ab. Kernidee dabei ist, den “Vorhang zu Lüften”: Die Teilnehmerinnen und Teilnehmer lernen dabei, wie reflektierte Textanalyse praktisch funktioniert, so dass sie im Anschluss an den Workshop auch angewendet werden kann. Themen des Workshops werden sein: Annotation und Konzeptentwicklung durch Annotation, Programmieren mit Python, Maschinelles Lernen in Theorie und Praxis. Die Teilnehmerinnen und Teilnehmer werden an ihren eigenen Programmen und Daten arbeiten können, und selbst programmieren und statistische Modelle trainieren. Vorkenntnisse sind nicht erforderlich, aber ein Laptop und eine Internetverbindung.

Maschinelles Lernen lernen: Ein CRETA- Hackatorial zur reflektierten automatischen Textanalyse

Logo DHd 2018

Wir freuen uns, dass unser Hackatorial im Rahmen der DHd 2018 stattfinden kann, und laden herzlich dazu ein mitzumachen! Die Veranstaltung findet statt am Montag, 26.02.2018, von 14 bis 17:30 Uhr. Anmeldungen sind im Zuge der allgemeinen Konferenzanmeldung möglich.

Ziel unseres Hackatorials ist es, den Teilnehmerinnen und Teilnehmern konkrete und praktische Einblicke in einen Standardfall automatischer Textanalyse zu geben. Am Beispiel der automatischen Erkennung von Entitätenreferenzen gehen wir auf allgemeine Annahmen, Verfahrensweisen und methodische Standards bei maschinellen Lernverfahren ein. Die Teilnehmerinnen und Teilnehmer können beim Bearbeiten von lauffähigem Programmiercode den Entscheidungsraum solcher Verfahren ausleuchten und austesten. Es werden keinerlei Vorkenntnisse zu maschinellem Lernen oder Programmierkenntnisse vorausgesetzt.

Es gibt keinen Grund, den Ergebnissen von maschinellen Lernverfahren im Allgemeinen und NLP-Tools im Besonderen blind zu vertrauen. Durch die konkreten Einblicke in den „Maschinenraum“ von maschinellen Lernverfahren wird den Teilnehmenden ermöglicht, das Potenzial und die Grenzen statistischer Textanalysewerkzeuge realistischer einzuschätzen. Mittelfristig hoffen wir dadurch, den immer wieder auftretenden Frustrationen beim Einsatz automatischer Verfahren für die Textanalyse und deren teilweise wenig zufriedenstellender Ergebnis-Daten zu begegnen, aber auch die Nutzung und Interpretation der Ergebnisse von maschinellen Lernverfahren (d.h. in erster Linie von automatisch erzeugten Annotationen) zu fördern. Zu deren adäquater Nutzung, etwa in hermeneutischen Interpretationsschritten, ist der Einblick in die Funktionsweise der maschinellen Methoden unerlässlich. Insbesondere ist die Art und Herkunft der Trainingsdaten für die Qualität der maschinell produzierten Daten von Bedeutung, wie wir im Tutorial deutlich machen werden.

Neben einem Python-Programm für die automatische Annotierung von Entitätenreferenzen, mit und an dem während des Tutorials gearbeitet werden wird, stellen wir ein heterogenes, manuell annotiertes Korpus sowie die Routinen zur Evaluation und zum Vergleich von Annotationen zu Verfügung. Das Korpus enthält Entitätenreferenzen, die im „Center for Reflected Text Analytics“ (CRETA) in den letzten zwei Jahren annotiert wurden, und deckt Texte verschiedener Disziplinen und Sprachstufen ab.