ORT: ITZ SR 004
ZEIT: DIENSTAG 09:00 — 17:30
Alexander Czmiel2, Stefan Dumont2, Franz Fischer3, Christopher Pollin1, Patrick Sahle4, Torsten Schaßan5, Martina Scholger1, Georg Vogeler1, Torsten Roeder6, Christiane Fritze7, Ulrike Henny-Krahmer8
Organisation(en): 1: Zentrum für Informationsmodellierung, Universität Graz, Österreich; 2: Berlin-Brandenburgische Akademie der Wissenschaften; 3: Venice Centre for Digital and Public Humanities, Ca‘ Foscari Università Venezia; 4: Lehrstuhl für Digital Humanities, Bergische Universität Wuppertal; 5: Herzog August Bibliothek Wolfenbüttel; 6: Zentrum für Philologie und Digitalität, Universität Würzburg; 7: Wienbibliothek; 8: Institut für Germanistik, Universität Rostock
Dieser Workshop konzentriert sich auf die Erforschung der Anwendungsmöglichkeiten und Herausforderungen von KI-basierten Anwendungen wie GPT und Large Language Models (LLMs) im Kontext digitaler Editionen. GPT-4, mindestens bis Juli 2023 das führende Modell, bietet erhebliche Potenziale, z.B. für die Umwandlung von unstrukturiertem Text in strukturierte Daten und die Erkennung von benannten Entitäten. Dennoch liefert es bislang noch unbefriedigende Ergebnisse, weshalb sorgfältige Überwachung und Feedbacksysteme unerlässlich sind. Die Integration von LLMs in Arbeitsabläufe und Webentwicklungsprojekte ist vielversprechend, erfordert jedoch noch konzeptionelle und dann auch technische Vorstudien. In Anbetracht der rasanten KI- und LLM-Entwicklungen lädt der Workshop dazu ein, zu experimentieren und Strategien für den effektiven Einsatz dieser Modelle in digitalen Editionsprojekten zu diskutieren.