Bisherige Expertenkolloquien im Einzelnen

Dublin City University,

14.-15. Dezember 2015

Am 14. und 15. Dezember 2015 fand an der Dublin City University ein Expertenworkshop zum Einsatz von Topic Models und korpusanalytischen Ansätzen im Rahmen geistes- und kulturwissenschaftlicher Forschung, insbesondere der Literaturwissenschaften, statt. Vor dem Hintergrund zunehmend digital verfügbarer Textressourcen und der Verfügbarkeit quantitativer Verfahren, die zunehmend in der Lage sind, qualitative Analysemethoden zu ergänzen oder neu auszurichten, haben solche - meist computerlinguistischen - Verfahren in einer Vielzahl geisteswissenschaftlicher Disziplinen Einzug gehalten. Besonders hervorzuheben sind hierbei Ansätze zur Erstellung von Topic Models und Word Embeddings, die in jüngster Vergangenheit erfolgreich in diversen Kontexten eingesetzt wurden. Der Workshop richtete sich an erfahrene Anwender und Entwickler korpusgestützer Analyseverfahren im Allgemeinen, mit einem Schwerpunkt auf die semantische Erschließung von Textbeständen. Zusätzlich zur öffentlichen Ausschreibung wurde eine Gruppe ausgewiesener Experten aus dem Umfeld der DARIAH-EU Arbeitsgruppe Text & Data Analytics eingeladen.

Im Lauf des zweitägigen Workshop Programmes wurde eine Reihe von state-of-the-art Ansätzen zur semantischen Erschließung digitaler Textbestände präsentiert und diskutiert. Als Keynote zu Beginn des ersten Tages berichtete Sharon O'Brien von der Adoption computergestützter Verfahren in den Translationswissenschaften - einer Disziplin, die besonders früh mit technischen Verfahren zur Analyse sprachlicher Bedeutung in Kontakt gekommen ist und anhand der die Entwicklung einer integrierten, kognitiven Perspektive auf computergestützte Übersetzungsleistungen aufgezeigt wurde. Im Anschluss folgten die inhaltlich stärker korpusanalytisch ausgerichteten Beiträge – beispielsweise zur Analyse von Weblog Genres, zur automatischen Erkennung von Gender Bias in Tageszeitungen, oder zur Analyse von Übersetzungen als Text Reuse. Darüber hinaus gab es eine Reihe von Beiträgen, die sich speziell mit Topic Models beschäftigen – so zum Beispiel mit der extrinsischen Evaluation unbekannter Korpora, dem Einsatz zur Aufbereitung digitaler Archive, oder aber ein historischer Überblick zur Adoption von Topic Models im Rahmen der Digital Humanities und den damit verbundene methodologischen Fragen. Zusätzlich zur Keynote wurde das inhaltliche Programm durch eine Podiumsdiskussion zum Thema "Relating the Qualitative and the Quantitative" am Ende des ersten Tages ergänzt. Zum Abschluss des Workshops wurde am Ende des zweiten Tages Zeit zur Planung der DARIAH-EU Arbeitsgruppe vorgesehen und zukünftige – physische wie virtuelle – Treffen und Aktivitäten diskutiert.

Lehrstuhl für Computerphilologie der Universität Würzburg,

07.-08. Dezember 2015

Was macht einen Roman "komplex"? Kann man die "Komplexität" eines literarischen Textes messen, und ist Komplexität ein Merkmal, das bestimmte Autoren oder bestimmte Literaturgattungen von anderen unterscheidet? Um diesen und ähnlichen Fragen nachzugehen fand am 07. und 08. Dezember 2015 am Lehrstuhl für Computerphilologie der Universität Würzburg der DARIAH-DE Expertenworkshop "Complexity Measures in Stylometry" statt. Ziel der Veranstaltung war es, innerhalb der quantitativ arbeitenden Literaturwissenschaft eine Diskussion über das Thema "Textkomplexität" anzuregen und in gemeinsamen Gesprächen auszuloten, welche Rolle Indikatoren der Textkomplexität in der Stilometrie spielen könnten. Dabei sollte zudem demonstriert werden, wie der in DARIAH-DE entwickelte DARIAH-DKPro-Wrapper dazu beitragen kann, die Berechnung solcher Indikatoren wesentlich zu vereinfachen. Geladen waren Maciej Eder ( Institute of Polish Studies, Pedagogical University of Krakow ), Jeremi Ochab ( Department of Theory of Complex Systems, Jagiellonian University, Krakow), Allan Riddell ( Leslie Center for the Humanities, Dartmouth College ) und Nils Reiter ( Institut für Maschinelle Sprachverarbeitung, Universität Stuttgart ).

Ziel und Kern der Veranstaltung war, die wissenschaftliche Diskussion unter den Teilnehmern anzuregen. Das Gerüst hierfür bildete eine Reihe von kurzen Vorträgen, die Denkanstöße zu verschiedenen Aspekten des Themas liefern sollten. In einem ersten Beitrag stellte Stefan Pernes die sogenannten "Readability Measures" und ihre historische Entwicklung vor. Wie solche Readability Measures und andere Komplexitätsindikatoren mit Hilfe des DARIAH-DKPro-Wrappers implementiert und als Stilmerkmale in einer Autorenschaftsanalyse genutzt werden können demonstrierte Steffen Pielström in seinem Vortrag "Complexity Measures as Style Markers". Jeremi Ochab demonstrierte des Weiteren wie sich das Repertoire zur linguistischen Beschreibung sprachlicher Komplexität noch zusätzlich um die Zeitreihenanalyse erweitern lässt. Wie Fotis Jannidis jedoch seinem Beitrag mit dem Titel "Formalizing the concept of complexity in literary language" darlegen konnte, lässt sich das Thema "Komplexität" kaum auf jene Aspekte reduzieren, die durch linguistische Metriken erfasst werden. Readability measures versuchen vor allem, den cognitive load beim Lesen und Verstehen einzelner Sätze abzubilden, wohingegen aus literaturwissenschaftlicher Sicht noch ganz andere Faktoren dazu beitragen, dass ein Text als komplex empfunden wird. Christof Schöch näherte sich im darauf folgenden Vortrag der Frage nach inhaltlicher Komplexität über das Verfahren des Topic Modeling. Den Abschluss schließlich bildete Allen Riddells Abendvortrag "Beyond Micro and Macro: Reassembling the History of the Novel", der zeigte, wie historische textexterne und materielle Faktoren zu einer genaueren statistischen Modellierung der Romangeschichte des 19. Jahrhunderts beitragen können. Als Fazit ist festzuhalten, dass im Rahmen des Workshops ein Überblick zu bisherigen Ansätze der Textkomplexität erlangt sowie weitere zu verfolgende Forschungsdesiderata - allen voran die Erhe-bung von Daten zur Leserwahrnehmung - definiert werden konnten.

Institut für Sprach- und Literaturwissenschaft an der Technischen Universität Darmstadt,

23.-24. Juli 2015

Am 23. und 24. Juli 2015 haben sich Mitarbeiterinnen und Mitarbeiter aus DARIAH-DE mit ihren Kollegen und Kolleginnen aus verschiedenen kooperierenden Projekten am Institut für Sprach- und Literaturwissenschaft an der Technischen Universität Darmstadt zu einer Diskussionsrunde zusammengefunden, um sich über Methodiken und Annotationsverfahren auszutauschen.

Hierbei stellten Projekte aus dem DARIAH-DE-Kontext (ePoetics, Natur & Staat, Relationen im Raum, eCodicology, SemToNotes) ihre Annotationspraxis vor.

Universität zu Köln, HKI, 28.-29. Mai 2015

During the last years, significant effort has been spent on an attempt to connect standardization efforts in the area of embedded markup as the TEI, with semantic categorization as expressed by, e.g., the CIDOC CRM.

This workshop looked at the abstract concepts behind this concrete attempts and tried to generalize it, looking at the relationships between all types of annotations reflecting object properties and the conceptual constructions behind ontological knowledge. We explored, how far such "ontological annotations" – which so far seem to have been conceptualized mainly on the linguistics level and, surprisingly, in the hard sciences – can be extended to other classes of Humanities' information.

TU Darmstadt, 23.-24. März 2015

Der von DARIAH-DE organisierte Expertenworkshop Annotation of Digital Media: Infrastructural Needs (Round Table II), der am 23. und 24. März 2015 an der Technischen Universität Darmstadt stattfand, beschäftigte sich mit der Etablierung von Standards für Annotationen in Kopplung an vorhandene Forschunginfrastrukturen.

Den Grundstein für die konstruktive Diskussionsrunde bildeten die Ergebnisse eines ersten Round Table, der im Juni 2014 von der HRA Heidelberg ausgerichtet wurde. Neben der definitorischen Abgrenzung, also der Frage, was Annotationen denn nun eigentlich sind, standen schon in diesem ersten Workshop Differenzierungen zwischen manuell und maschinell generierten Annotationen, verschiedenen Öffentlichkeitsgraden sowie zwischen Flüchtigkeit und Persistenz von Annotationen zur Diskussion. Daran anknüpfend wurde nun im Rahmen des zweiten Workshops versucht, zu konkretisieren, welche Kriterien und Ansatzpunkte für die Entwicklung von technisch-infrastrukturellen Lösungen relevant sind, um letztlich dem großen Ziel ein wenig näher zu kommen, Analyse- und Annotationsprozesse zusammenzuführen und hierdurch Zusammenhänge sichtbar zu machen  so wie es einst Niklas Luhmann mit seinem Zettelkasten vorgeführt hat.

Leibniz-Institut für Europäische Geschichte, 12.-13.Juni 2014

Das IEG Mainz als Partner in DARIAH-DE richtete einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und lud dazu HistorikerInnen ein, die selbst über Forschungsdaten verfügen, diese zu veröffentlichen planen und nach einer geeigneten Lizenz für ihre Daten suchen.

"Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, für zehn Jahre aufbewahrt werden." Diese Empfehlung findet sich in den "Vorschlägen für gute wissenschaftliche Praxis" der Deutschen Forschungsgemeinschaft. Doch allein mit der Archivierung von Daten ist die Nachvollziehbarkeit wissenschaftlicher Ergebnisse nicht gegeben. Daneben ist die Bereitstellung von Daten eine mindestens genauso wichtige wie berechtigte Forderung. Ein möglichst freier, überregionaler und langfristiger Zugriff auf Daten wirft aber eine Reihe von rechtlichen Fragen auf, die mit Hilfe von Lizenzen geregelt werden können. Sie geben u. a. Antworten darauf, was Forschende mit Forschungsdaten anderer tun dürfen und was nicht.

Im ersten Themenblock beschäftigten sich die ExpertInnen mit den rechtlichen Grundlagen der Forschungsdatenlizenzierung und gingen hierbei auf die Themenkomplexe Urheberrechte, Nutzungsrechte und Datenschutz ein. Dabei wurden auch die praktischen Erfahrungen einzelner Projekte und Einrichtungen mit Lizenzlösungen für den nationalen und internationalen Datenaustausch diskutiert. Im Rahmen der zweiten Einheit bekamen die TeilnehmerInnen die Möglichkeit, Tools zu testen, die sie bei der Lizenzentscheidung und -erstellung unterstützen sollen. Zwischen diesen beiden Themenblöcken hatten die TeilnehmerInnen Gelegenheit dazu, von ihren Erfahrungen und Anforderungen zur Bereitstellung von Daten zu berichten. Die Ergebnisse des NutzerInnenfeedbacks aus den Workshops werden in die Weiterentwicklung dieser Tools einfließen.

  • Kurzbericht Wibke Kolbmann (DAI), Anna Aurast (IEG Mainz) „Forschungsdaten fu?r Andere. Lizenzen und Werkzeuge fu?r Historiker".

Cologne Center for e-Humanities, 18. Februar 2014

Thema des Workshops war die Anwendung des W3C­-Standards SKOS in den Digitalen Geisteswissenschaften. Dabei ging es um die Verfügbarkeit, Entwicklung und Benutzung von Werkzeugen zur Verwaltung, gemeinsamen Arbeit an und Publikation von digitalen kontrollierten Vokabularen, denen der SKOS­-Standard zugrunde liegt.

Darüber hinaus standen aber auch Aspekte der Informationsmodellierung bei der Erstellung solcher Vokabulare sowie Nutzungsszenarien für die Vokabulare selbst und die mit ihnen verknüpften Ressourcen im Fokus. Nicht zuletzt wurde auch die Frage nach dem Bedarf einer gemeinsamen organisatorischen und technischen Infrastruktur diskutiert, durch die die Auffindbarkeit, Sichtbarkeit und Verfügbarkeit erhöht und die Nachnutzung von partiellen oder ganzen Vokabularen ermöglicht würde. Eine solche Infrastruktur sollte auch als Informationsquelle für Forschungsprojekte dienen, die kontrollierte Vokabulare aufbauen, digitalisieren oder austauschen möchten und entsprechende Materialien zur Verfügung stellen. Der Workshop wollte GeisteswissenschaftlerInnen und EntwicklerInnen, die sich mit SKOS beschäftigen, zusammenbringen, ihnen die Möglichkeit zum Dialog geben und zur Entwicklung gemeinsamer Vorgehensweisen und Perspektiven beitragen.

TU Darmstadt, 17.-18. Februar 2014

In the course of its work towards a report on central procedures and methods in the Digital Humanities (R 2.2.3) and a taxonomy of DH activities (see "Capture and creation" in said report), DARIAH has identified workflows from the (retro-) digitisation to the transformation to TEI XML as a cross-disciplinary basis and prerequisite for further processing steps. The workflow from the retro-digitisation of printed works via the subsequent enhancement of digitised data with complex mark-up and towards standard-conformant formats such as TEI XML can be implemented in many different ways. These different paths necessitate the definition of requirements in terms of design and technology decisions which should ideally be taken early on in projects and written down in process and annotation guidelines. The potential steps and processes as well as criteria for decisions pro and contra certain types of mark-up, technologies and processes are currently little documented.

An important desiderate is a reflexion on and documentation of the complete path from the digitisation to formats for publication or further processing including relevant intermediary steps and decisions. In this expert workshop such workflow decisions and technological processes were critically discussed and tested on the basis of authentic examples of processing printed text data from the digitisation to an output into TEI XML and other potential data formats for further processing. The exemplary workflow in the workshop is one in which digitised data in a structured text format that is related to the TUSTEP-Format is to be transformed into TEI XML (P5) and taking into consideration other potential processing and annotation steps members of the community (and the workshop) might need to include in their specific workflow.

Department for Literary Computing, University of Würzburg, 13.-15. Januar 2014

For several decades now, stylometry has successfully been used for questions of authorship attribution in various contexts and languages. The body of experience with various stylometric procedures (preprocessing, distance measures, dimensionality reduction strategies) has steadily been growing.

A trend that has been emerging in more recent time is to use the methods developed for authorship attribution for other stylistic concerns and to develop new methods for them. Among these new stylistic concerns is the question of how categories other than authorship enter into the stylometric equation: categories like specific literary periods, literary genres and sub-genres, author gender, questions of form (narrative perspective or verse/prose), and theme.

Taking into account these new categories in stylometric research, whether it aims to control such additional style signals or to analyse them directly is concerned with at least two issues: one issue is how the "signal" of any one such category can be isolated from the other signals, with which it is usually deeply intertwined due to the highly complex and connected nature of language; another issue is how results from stylometric analyses of such categories can be validated in the absence of undisputed and/or a-historical reference categories. What is more, the categories from literary theory like genre or period are highly synthetic, complex concepts which would most likely need to be decomposed before they can be usefully related to stylistic trends and patterns.

This expert workshop explored such issues, discussed relevant recent findings from various languages and literary traditions and developed strategies to tackle the validation issue, both on a technical level (how can correlations be established, measured and compared between unsupervised groupings and existing categories) and on a humanistic level (how can the dynamic relationship between synthetic literary categories and empirical clusters be modeled usefully?).

Europäische Geschichte Mainz, 10.-11. November 2013

Places (and spaces) play an important role in many areas of humanities themes. The so-called spatial turn has further raised the importance of topographical information in the humanities. By categorizing places into types one can abstract from concrete places and address certain types of places collectively. In order to automatically sort, retrieve, display, and generally process places on the basis of their types, and in order to exchange information on places, a controlled vocabulary of place types is required.

A controlled vocabulary supports comparisons by abstracting from peculiarities and by providing language-independent terms. This is particularly beneficial to comparative historical research, as all comparisons depend on abstract categories to identify commonalities of individual historical phenomena. A controlled vocabulary of spatial categories and places allows for the systematic allocation of common attributes to these phenomena. On a computational level, it enables interoperability, reuse, and sustainability of the collected data.

Defining a controlled vocabulary of historical place types is an inherently interdisciplinary task, because a useful vocabulary must meet both scholarly and computational requirements. In order to be accepted by the scholarly community, it must be based on a broad consensus. The main challenge is to find a suitable level of abstraction; this challenge can only be resolved by close collaboration between experts from the humanities and from the computing sciences, as in the proposed expert workshop. It must also be informed by current and potential historical research questions.

The goal of the expert workshop was to create guidelines for the development of a controlled vocabulary of place types for historical research and a first version of a core vocabulary. The initial focus was on the medieval and early modern periods in Europe. The vocabulary will take relevant standards into account. Its structure will aim for interoperability with complementary vocabularies, such as GeoNames and TGN. The guidelines and the vocabulary will be published as a report in the DARIAH Working Papers series and will serve as the basis for further work on the vocabulary and its adoption in historically oriented research. The guidelines and the core vocabulary will also be usable the basis for a prototypical implementation in the DARIAH-DE GeoBrowser.

Berlin-Brandenburgische Akademie der Wissenschaften, 17.-18. Juni 2013

Identify the state of the art and further problems in making annotations an interoperable, web based resource which could be processed within a digital research environment. Developing an understanding about which role annotations may play in digitally supported research between e-Science and traditional humanities research practices. Are there common annotations practices in the humanities disciplines? How are interoperable annotations related to native digital research methods in the humanities?

The aims of the workshop were, among others:

  • Building common approaches;
  • fostering interoperability of annotations leading into a document of best practices;
  • defining strategies for the leverage of annotations from closed software or from proprietary standards;
  • and an articulated vision of the importance and roles annotations can play for humanities research in a digital environment to promote the topic of annotation.

 

Lehrstuhl für Computerphilologie, Universität Würzburg, 22.-23. November 2012

The workshop focused on methods and tools in the domain of quantitative analysis of large text collections in the context of literary history. The aim of this workshop was to consider recent developments and issues in quantitative text analysis and their relevance to the way we understand and practice literary history. Such developments in quantitative text analysis include the refinement of authorship attribution studies, of clustering techniques for literary genre analysis, and of other stylometric or computational approaches to literature. One of the issues was on what level of analysis computational approaches to text analysis can usefully focus, i.e. low-level surface features of texts or higher-level semantic or structural features, and how to mediate between these two poles. Another issue was how to make use of text which either contains structural encoding, is enriched with linguistic information, or provides bibliographical metadata to be taken into account in the analysis. The workshop focused on the relevance of this type of issues for the analysis of literary genres, the evolution of stylistic or narrative features, and related topics, with a focus on their bearing on literary history.

Bisherige Methodenworkshops im Einzelnen

Universität Leipzig, 14-16 Dezember 2015

The methodological workshop covered topics including building a corpus, creating training data, topic modeling, text reuse, georeferencing, mapping, social network analysis, and semantic analysis.

The workshop was designed for humanists working with corpora of texts too large to read in their entirety. With the availability of automatically transcribed books, newspapers, and other sources from Dariah, TextGrid, the German state libraries, other national collections, Google, the Internet Archive, and Europeana, many humanists currently working with textual sources could now benefit from the methods discussed here. Most participants had some prior experience using software for classification and clustering of texts, including popular packages for topic modeling, sentiment analysis, and stylometrics. A VM with the tools used in the workshop was also made available for the participants.

The workshop was broken down into several mini-tutorials concerning specific methods and, often, their related tools. These consisted of a short, 30-minute introduction to the theory behind the method, a 15-minute specific introduction to the tools to be used in the hands-on session, and then 45 minutes for the participants to test out the methodology and tools on their own texts or on texts provided by the instructor.

After an introduction to the workshop given by Prof. Gregory Crane, Humboldt Professor for Digital Humanities at the University of Leipzig , the first tutorial, given by Thibault Clérice from the Humboldt Chair, dealt with the Canonical Text Service, the tools being developed in the Open Philology Project upon this standard, and the creation of CTS-compliant textual repositories. Thereafter followed two shorter, 45-minute introductions: one concerning the creation and use of training data (Tariq Yousef, Humboldt Chair) and one about the OCR of ancient languages and the correction of that OCR (Uwe Springmann, LMU). Following lunch, the next tutorial was given by Thomas Köntges from the DH Chair about using the open-source statistical package R for topic modelling large text corpora, including a demonstration of these methods on an Arabic corpus. The first day was capped off with a tutorial in using the open-source text reuse engine Passim by its creator, David Smith from Northeastern University in the US.

The second day of the workshop started with an introduction to georeferencing and mapping, with examples taken from the world of classical Arabic, by Maxim Romanov of the DH Chair. This was followed by a hands-on session from Ryan Cordell from Northeastern University about social network analysis with Gephi, focusing especially on his Viral Texts project, which looks at reprinted articles from 19th-century news-papers. After the lunch break, Martin Reckziegel and Jochen Tiepmar from the University of Leipzig gave a demonstration of the tools they have built upon the CTS standard: Martin showed off his CTS viewer while Jochen demonstrated his suite of tools for the digital analysis of CTS-compliant texts. The final hands-on tutorial from the second day was give by Matthew Munson from the DH Chair in Leipzig and focused on his research in the automatic extraction of semantic information from ancient texts and allowed the participants to use the Python tools he has developed for this project.

The third day started with a demonstration by Till Grallert from the Orient Institute in Beirut of how to work with Arabic texts and XML encoding. This was then followed by two hours of practical sessions in which the participants were able to discuss the methods and tools with the presenters and get more in-depth information.

This workshop builds upon results from several complementary and collaborating projects: the Proteus Project, led by University of Massachusetts Amherst ; the Viral Texts Project at Northeastern; the Kitab Project; the Open Philology Project including a Dariah-DE exploratory effort at Leipzig University; and the Perseids Project at Tufts University.

 

Otto-Friedrich-Universität Bamberg, 19. und 20. November 2015

Unter dem Thema „Quantitative Vorauswahl und Validierung für ein qualitatives Arbeiten in den Geisteswissenschaften: Ein iterativer Prozess?" fand am 19. und 20. November 2015 ein DARIAH-DE Methodenworkshop an der Otto-Friedrich-Universität Bamberg statt. Ausgerichtet war die Veranstaltung primär auf fortgeschrittene Studierende und Promovierende mit Interesse an den Möglichkeiten der Unterstützung qualitativer Forschung in den Geisteswissenschaften durch informatische Methoden und Werkzeuge. Lebhafte Diskussionen zu verschiedenen Themen der Forschung – aber auch zu curricularen Überlegungen rund um das Thema Digital Humanities – entstanden auch aufgrund der bunten Mischung partizipierender Forschungsfelder und des interessierten Teilnehmerfeldes aus unterschiedlichsten wissenschaftlichen und nicht-wissenschaftlichen Bereichen (Bibliothek, Rechenzentrum, Verwaltung).

Den Auftakt des Workshops übernahm Prof. Dr. Andreas Henrich (Medieninformatik, Universität Bamberg) mit einem Überblick über das Unterstützungspotenzial der DARIAH-DE Infrastruktur für das qualitativ-geisteswissenschaftliche Arbeiten. Einen direkten Forschungsbezug konnte Dr. Sarah Panter (Leibniz-Institut für Europäische Geschichte Mainz) mit einer Betrachtung digitaler Impulse auf die Untersuchung transnationaler Biographien herstellen. Anna Aurast (Leibniz-Institut für Europäische Geschichte Mainz) verdeutlichte dann die Problematik der für die Anwendung in technischen Systemen notwendigen Formalisierung von Lebensstufen (Kindheit, Jugend etc.) – einem Knotenpunkt, an dem sich zwei verschiedene und oft konträre wissenschaftliche Richtungen und Fragestellungen kreuzen. Es folgte eine Vorstellung der Föderationsarchitektur von DARIAH-DE durch Tobias Gradl (Medieninformatik, Universität Bamberg). Mit Hilfe generischer Infrastrukturwerkzeuge wird hier eine forschungs- und fallorientierte Unterstützung der Datenintegration erreicht, wodurch die Arbeit mit unterschiedlichen Quellen erleichtert werden soll. Prof. Dr. Thomas Saalfeld und Lucas Geese (Vergleichende Politikwissenschaft, Universität Bamberg) erläuterten anschließend, wie auf der Basis einer Anwendung quantitativer Verfahren der Sprachverarbeitung und des Topic Modeling politische Indizien erkannt und als Impulse für eine anschließende qualitative Auseinandersetzung verwertet werden können. Die lebhafte Abenddiskussion zum Thema „Wieviel DH brauchen wir im Studium und in der Doktoranden-Ausbildung?" motivierte Prof. Dr. Andreas Henrich unter anderem auf Basis des in der DARIAH-DE Arbeitsgruppe "Curriculare Entwicklungen" erarbeiteten Referenzmodells.

Den zweiten Tag des Workshops eröffnete Prof. Dr. Manfred Krug (Engl. Sprachwissenschaft einschl. Sprachgeschichte, Universität Bamberg) mit einem Einblick in die Unterstützung quantitativer Verfahren in der englischen Sprachwissenschaft, die von einfachen arithmetischen zu komplexen statistischen Verfahren reichen und auf unterschiedlichen Ebenen der sprachwissenschaftlichen Beschreibung Anwendung finden. Mit den Projekten MUSICI und MusMig zeigte Dr. Berthold Over (Institut für Kunstgeschichte und Musikwissenschaft, Universität Mainz) weitere konkrete Anwendungsfälle, bei denen Methoden und Werkzeuge der Informatik – im konkreten Fall das an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) entwickelte Personendatenrepositorium – als Hilfsmittel bei der Speicherung und Analyse dienen können. In sprachtechnologische Grundlagen führte Dr. Michael Piotrowski (Leibniz-Institut für Europäische Geschichte Mainz) die Teilnehmer des Workshops ein und erklärte anhand plakativer Beispiele unterschiedliche Ebenen des Natural Language Processings (NLP), deren Nutzen aber auch Grenzen insbesondere bei der Betrachtung historischer Texte. Mit dem Thema des Opinion Minings – also der Erkennung von Stimmungsbildern in Texten – schloss Dirk Reinel (Institut für Informationssysteme, Hochschule Hof) das thematische Programm des Workshops ab.

Der Workshop war mit ca. 25 Teilnehmerinnen und Teilnehmern gut besucht. Dabei wurden neben den Vorträgen und Diskussionen auch die Pausen zum intensiven Austausch genutzt. Viele Teilnehmer äußerten den Wunsch, derartige Veranstaltungen öfter durchzuführen. Einen Rahmen dazu kann auch das an der Universität Bamberg neu gegründete Zentrum für innovative Anwendungen der Informatik bieten. An der Stelle wurde deutlich, wie Infrastrukturprojekte und lokale Aktivitäten ineinander greifen können.

Alle Informationen zum Programm und den Referenten, sowie deren Präsentationen finden Sie unter hier

 

Universität Würzburg, 15.-16. September 2015

Am 15. und 16. September 2015 fand in Würzburg ein praxisorientierter Workshop zum Einsatz computerlinguistischer Methoden in den Literaturwissenschaften statt.

Mit der zunehmenden Verfu?gbarkeit digitaler Quellen in den Geistes¬ und Kulturwissenschaften und den sich sprunghaft entwickelnden technischen Mo?glichkeiten zur Analyse großer Datenbesta?nde, ergeben sich fu?r Literaturwissenschaft und Computerlinguistik (auch: Natural Language Processing) eine zunehmende Bandbreite an Forschungsfragen, die nun erstmals oder in einem bisher nicht da gewesenen Umfang bearbeitet werden ko?nnen.

Im zweita?gigen Workshop¬-Programm fanden sich einerseits Pra?sentationen, die zeigen, was im Bereich der Digital Humanities ¬ und im Spezielleren in den klassischen Textwissenschaften -mit computerlinguistischen Methoden mo?glich ist, und andererseits praxisorientierte Sessions, die den TeilnehmerInnen einzelne Arbeitsschritte und Verfahren na?her brachten.

Nils Reiter vom Institut für Maschinelle Sprachverarbeitung der Universität Stuttgart , Thomas Proisl – Professor für Korpuslinguistik an der Universität Erlangen , Nils Reimer – Ubiquitous Knowledge Processing Lab der TU Darmstadt und Steffen Pielström, sowie Stefan Pernes vom Lehrstuhl für Computerphilologie der Universität Würzburg waren die Referenten der Veranstaltung.

 

Herzog August Bibliothek, 24. September 2015

Eine besondere Herausforderung beim Umgang mit Forschungsdaten spielt die Frage, wie das Wissen über deren (digitale) Existenz und somit ihrer Nachnutzbarkeit verbreitet werden kann. Im Projekt DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) werden darum Empfehlungen, Beratungsangebote und Werkzeuge für Geistes- und KulturwissenschaftlerInnen entwickelt. Diese Tools und Services ermöglichen es den WissenschaftlerInnen, eine digitale Veröffentlichung und damit eine Vernetzung von Forschungsdaten umzusetzen. Im Rahmen des Workshops werden die Tools und Services vorgestellt und den TeilnehmerInnen die Gelegenheit geboten, die Werkzeuge unter Anleitung selbst zu testen.

Die geisteswissenschaftliche Fachgemeinschaft ist eingeladen, eigene Anforderungen an die Veröffentlichung und Vernetzung ihrer Forschungsdaten an DARIAH-DE heranzutragen, damit die Angebote kontinuierlich am Bedarf orientiert weiterentwickelt werden können. Stellvertretend für die Fachgemeinschaft werden Dr. Felix Schäfer und Maurice Henrich aus dem Projekt IANUS - Forschungsdatenzentrum Archäologie & Altertumswissenschaften mit einem Impulsreferat aus der Sicht eines fachspezifischen Forschungsdatenzentrums skizzieren, wie die Aufgabenteilung und Zusammenarbeit mit der generisch angelegten Forschungsinfrastruktur von DARIAH-DE realisiert werden kann, um Forschungsdaten zu speichern, auf längere Dauer zu archivieren und zugleich einen persistenten Zugriff zu ermöglichen. Ebenfalls wird Johanna Puhl vom Institut für Historisch-Kulturwissenschaftliche Informationsverarbeitung der Universität zu Köln unterschiedliche Stationen eines Forschungsdaten-Lifecycles vorstellen und die damit verbundenen spezifischen aber auch generischen Anforderungen thematisieren. Des Weiteren wird Harald Lordick vom Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen das Vernetzungspotential durch Nutzung von Normdaten thematisieren, was durch orts- und raumbezogenen Forschungsdatenauswertungen kontextualisiert werden soll. Ebenfalls wird Tobias Gradl vom Lehrstuhl für Medieninformatik der Otto-Friedrich-Universität Bamberg die Tools und Werkzeuge DARIAH-DE Data Federation Architecture vorestellen.

Der Workshop richtete sich an interessierte EinzelwissenschaftlerInnen und Forschungsprojekte aus den Geisteswissenschaften, die auf der Suche nach geeigneten Methoden und Plattformen zur Veröffentlichung ihrer Forschungsdaten sind. Zusätzlich waren FachreferentInnen für geisteswissenschaftliche Disziplinen in Universitätsbibliotheken herzlich eingeladen die DARIAH-DE Infrastruktur intensiv kennenzulernen und so in den Heimateinrichtungen darüber informieren zu können, wo digitale Forschungsdatensammlungen zu finden sind und wie Sammlungen in die DARIAH-DE-Infrastruktur integriert werden können.

Niedersächsische Staats- und Universitätsbibliothek Göttingen , 28.-29. September 2015

 

Die Deutsche Initiative für Netzwerkinformation e.V. (DINI) hat in Kooperation mit DARIAH-DE einen Workshop mit dem Thema "Digitales Arbeiten in den Geisteswissenschaften ermöglichen!" angeboten.

Welche Forschungsinfrastrukturen werden von DARIAH-DE aufgebaut und zur Verfügung gestellt? Welche Dienste und Werkzeuge werden dabei entwickelt oder sind bereits für die Nachnutzung verfügbar? Welche Projekte sind an DARIAH-DE und TextGrid beteiligt? Wie stellen sich digitale Formen des wissenschaftlichen Arbeitens in den Geistes-, Kultur- und Kunstwissenschaften dar, welches Potential, aber auch, welche Herausforderungen sind mit ihnen verbunden? Mit dem von DINI – Deutsche Initiative für Netzwerkinformationen e.V. und DARIAH-DE an der SUB Göttingen veranstalteten Workshop sollen diese und weitere Fragen aufgegriffen und anhand von konkreten Beispielen laufender Vorhaben beantwortet werden. Der Workshop richtet sich an die Leitungsebenen in Bibliotheken, Medien- und Rechenzentren und zeigt die Chancen und die Möglichkeiten auf, die Infrastrukturen und Services in DARIAH-DE für digitales Arbeiten bieten.

Tagungszentrum an der Sternwarte Göttingen, 11.-12. Mai 2015

Store it, share it, use it. Lizenzierung digitaler Forschungsdaten in den Sprach- und Literaturwissenschaften

Sprach- und LiteraturwissenschaftlerInnen sehen sich bei der Veröffentlichung ihrer digitalen Forschungsdaten – Texten und Bildern – und der Verknüpfung ihrer Daten mit anderen digitalen Archiven und Editionen mit juristisch häufig komplexen Fragen des Datenschutzes, des Nutzungs- und Urheberrechts konfrontiert. Der Workshop stellte Herausforderungen und Lösungsmodelle zu den Themen Rechtliche Grundlagen, Urheberrecht, Nutzungsrecht und Datenschutz vor und bot Hands-On-Sessions zu ausgewählten digitalen Tools der Lizenzerstellung.

Programm

7. TextGrid Nutzertreffen: Archivieren und Publizieren mit TextGrid

TextGrid bietet neben der langfristigen Archivierung geisteswissenschaftlicher Forschungsdaten im TextGrid Repository weitere Wege, im TextGridLab generierte Forschungsdaten zu publizieren – digital wie analog: Zum einen die „Skalierbare Architektur für Digitale Editionen" (SADE), die es ermöglicht, XML-/ TEI-Daten aus dem Lab in einem eigenen Online-Portal zu veröffentlichen, zum anderen „XML- Print", ein ergonomisches Satzsystem für kritische Editionen auf XML-/TEI-Basis. Das Nutzertreffen stellte Einsteigern und Fortgeschrittenen verschiedene Lösungswege vor, geisteswissenschaftliche Forschungsdaten via TextGrid langfristig und nachnutzbar online verfügbar zu machen.

Programm

Ausführlicher Tagungsbericht auf dem DHdBlog

Technische Universität Darmstadt, Institut für Sprach- und Literaturwissenschaft, 24. April 2015

Der eintägige Workshop hatte zum Ziel, ein Spektrum verschiedener Herangehensweisen zur Entwicklung mobiler Applikationen aufzuzeigen. Dabei wurden grundlegende Fragen danach aufgeworfen, was eine App zur App macht und warum mobile Applikationen in den Digital Humanities überhaupt gebraucht werden. Der Workshop gruppierte sich hierbei um drei Apps aus den Bereichen Jüdische Geschichte, Medienkunst und Literatur herum, um den Prozess der Entwicklung einer App – von der ersten Idee bis hin zur konkreten Umsetzung – zu beleuchten. Darüber hinaus wurde genug Raum geboten, um Fragen zu stellen oder über eigene Erfahrungen zu berichten.

STI - Zentrum für Hochschul- und Qualitätsentwicklung, Universität Duisburg-Essen, 07. Oktober 2014

 

Ohne digitale Strategie wird eine Projektförderung im akademischen Bereich kaum noch zu erlangen sein. Entscheidender aber ist, dass die Kenntnis digitaler Verfahren wissenschaftlichen Mehrwert bringt.

Im Workshop, der im Rahmen der Herbstakademie 2014 des ScienceCareerNet Ruhr mit Beteiligung der Universitäten Bochum und Dortmund stattfand, wurden Standards für digitale Editionen und Publikationen vorgestellt, die Vorteile der systematischen Verwendung von Normdaten (z.B. für Orts- und Personennamen) erläutert sowie digitale Werkzeuge zur Analyse, Visualisierung und Annotation von Forschungsdaten präsentiert. Wie an mehreren Beispielen vorgeführt wurde, ermöglichen Standards zudem ein (mittlerweile unverzichtbares) vernetztes Arbeiten und Interoperabilität in der Wissenschaft. Das Programm wurde von einer Diskussion eigener Projekte der Teilnehmenden aus der Perspektive des Workshop-Themas abgerundet. Zielgruppe waren DoktorandInnen in der Abschlussphase und Postdocs.

Lehrstuhl für Computerphilologie der Universität Würzburg, 06.-07. Februar 2014

Welche methodischen Möglichkeiten der digitalen Geisteswissenschaften konkret zur Verfügung stehen, hängt nicht nur von den verfügbaren Daten und Tools ab, sondern auch davon, wie vertraut ForscherInnen im Umgang mit vorhandenen Tools sind. Das Ziel dieses Workshops war es, den "Werkzeugkasten" der (digitalen) GeisteswissenschaftlerInnen um ein wertvolles Tool zu erweitern: des TXM-Tools. TXM ist eine kostenlose und als open source veröffentlichte Software mit einer vollwertigen graphischen Oberfläche und einer umfassenden Bandbreite von Funktionen zur linguistischen und statistischen Analyse von Texten, die u.a. auf die leistungsfähige CQP Volltext-Suchengine und die Integration der Statistikumgebung R zurückgreift.

Neben der Vorstellung von TXM war es das Ziel des Workshops, die TeilnehmerInnen mit der Methodik der digitalen Textanalyse vertraut zu machen, indem sie TXM auf ihren eigenen Computern anzuwenden lernten. Am Ende des Workshops sollten die TeilnehmerInnen in der Lage sein, ihre eigenen Textsammlungen (sei es als "plain text" oder als XML/TEI vorliegender Text) in TXM zu importieren und sie mit den diversen Analysemöglichkeiten der Software auszuwerten.

Leibniz-Institut für Europäische Geschichte (IEG Mainz), 29.-30. Januar 2014

Der Methodenworkshop nahm thematisch die Forderung nach dem Ausbau forschungstauglicher Digitalisierungen in Form von digitalen Editionen auf. Digitale Editionen sollen dabei das klassische Editionskonzept nicht verwerfen, sondern ergänzen, denn auch dort besteht das Ergebnis der Arbeit darin, mehrere Schichten von Informationen (z.B. in Form von Erläuterungen, inhaltlichen Anmerkungen, Angaben von Textvarianten, bibliographischen Angaben usw.) zu einem Text zu sammeln, zu systematisieren und dem/der NutzerIn in Form eines abgeschlossenen Werks zur Verfügung zu stellen. Beim klassischen Editionsmodell handelt es sich demnach bereits um einen Hypertext. Die Schichtenstruktur klassischer Editionen lässt sich digital leichter – und konsequenter – abbilden. Dabei können viele Beschränkungen des konventionellen Buchdrucks überwunden werden, insbesondere diejenigen, die die materielle Überlieferung betreffen (visuelle Wiedergabe des Textes, Informationsumfang). Gleichzeitig kommen neue Möglichkeiten wie Mehrdimensionalität und Modifizierbarkeit hinzu.

Der Workshop hatte zum Ziel, Grundlagen, Methoden und Techniken von digitalen Editionen für die historisch arbeitenden Textwissenschaften zu vermitteln und bereits vorhandene Lösungsansätze und -szenarien mit den TeilnehmerInnen (insbesondere) auf Grundlage der Text Encoding Initiative (TEI) zu diskutieren. Der Workshop bot daher die folgenden Inhalte an:

  • Einführung in die theoretischen Grundlagen der digitaler Edition;
  • Umsetzung der Theorie an ausgewählten Beispielen von Online-Editionen: grundlegende Prinzipien, struktureller Aufbau, Vor- und Nachteile von XML bei digitalen Editionen;
  • Vermittlung von Grundkenntnissen im Bereich der Textkodierung mit XML/TEI, der Weiterverarbeitung XML-kodierter Daten sowie ihrer Aufbereitung, die als Grundlage für die Erstellung von digitalen Editionen dienen;
  • Anleitung zum selbstständigen Umgang mit den TEI-Guidelines, um den TeilnehmerInnen ein Werkzeug in die Hand zu geben, mit dem sie später im Rahmen ihrer Projekte arbeiten können.

DAI Berlin in Kooperation mit IANUS Berlin, 02.-03. September 2013

To allow for automatic and networked data reuse it is necessary to have human-readable and machine-processable licences. This is not a technical problem, as many different data licenses already exist, but has more to do with a general lack of awareness of issues and possible solutions when it comes to data licenses. The research questions are: What are discipline-specific licensing needs? How aware are data owners currently of their needs for licences regarding their data? What is the actual practice, under which conditions do data owners share their data at the moment and how do they estimate will new technological environments change their current practise? How helpful are the already existing tools in supporting those people that are in the position of assigning a license to their (or their institutions') data?

The aims of the workshop were to obtain deeper knowledge about:

  • available licences;
  • existing problems with licensing data in archaeology;
  • existing tools to support licence-related decisions;
  • methods and a workflow to evaluate a user needs for a DARIAH-DE service for licensing decision support;
  • and the development of a questionnaire structure for evaluating discipline-specific licensing needs that can be used for further workshops about licensing needs in other disciplines than Ancient Studies.

Lehrstuhl für Computerphilologie, Universität Würzburg, in Kooperation mit dem Kolleg ?"Mittelalter und Frühe Neuzeit", 09.-11. Oktober 2012

Ziel des Workshops war es, zum einen editionswissenschaftliche Grundlagen insbesondere im Bereich des frühneuzeitlichen Drucks zu vermitteln und zum anderen Einblick in die Möglichkeiten und Verfahren der digitalen Textedition zu geben. Am Ende des Workshops sollten die TeilnehmerInnen in der Lage sein, frühneuzeitliche Drucke in ihren für die Edition entscheidenden Merkmalen zu analysieren und einige grundlegende Verfahren der digitalen Textedition eigenständig umzusetzen.

Themenschwerpunkte waren:

  • Prozessmodell „Digitale Textedition": Analyse, Modellierung, Transkription, Kodierung, Visualisierung und Darstellung von TEI-kodierten Texten mit XSLT und CSS;
  • Einstieg in die digitale Textedition;
  • Unterschiedliche methodische Konzepte des Edierens;
  • Kodierung von Varianz in frühneuzeitlichen Drucken mit Hilfe der TEI.

IEG Mainz und Lehrstuhl für Computerphilologie der Universität Würzburg, 24.-25. September 2012

Der Umgang mit Quellen und (Sekundär-)Literatur ist von zentraler Bedeutung für den Forschungs- und Erkenntnisprozess von HistorikerInnen und aller historisch arbeitender GeisteswissenschaftlerInnen. In der Erfassung und Erschließung des Quellenmaterials liegen wesentliche Voraussetzungen, um dieses Material in Bezug auf eine bestimmte Fragestellung analysieren zu können. Diese Erschließung mittels beschreibender "Meta"-Daten ist ein zentraler und komplexer Schritt im geisteswissenschaftlichen Forschungsprozess. Zwar liefern Bibliotheken für moderne Forschungsliteratur und historische Drucke oftmals standardisierte und qualifizierte Beschreibungen, möchte ein/e ForscherIn aber ein breiteres Spektrum an (ggf. bisher unveröffentlichten) Quellen und Forschungsprimärdaten untersuchen, so kann oftmals nicht auf bereits vorliegende Metadaten zurückgegriffen werden. Zugleich eröffnen die digitale Erfassung, Speicherung und Nutzung von (neuen oder vorhandenen) Metadaten neue Herausforderungen und Möglichkeiten für die historisch arbeitenden Geisteswissenschaften.  

Der Workshop vermittelte und erörterte Grundlagen zum Umgang mit Metadaten und deren Verwendung in historisch arbeitenden Geisteswissenschaften. Es wurden bereits vorhandene Lösungsansätze und -szenarien mit den TeilnehmerInnen diskutiert, die sich in ihrem Forschungsalltag mit der Erfassung und Analyse von Metadaten sowie mit Konzepten der Interoperabilität und Nachnutzung von Forschungsdaten auseinandersetzen bzw. diese Fragen bei zukünftigen Forschungsprojekten stärker als bisher berücksichtigen möchten.

Thematische Schwerpunkte waren: 

  • Einsatz von Daten- und Metadatenstandards in disziplinärer und interdisziplinärer Perspektive;
  • Abbildung von Forschungsfragen/Forschungskontexten durch Metadatenstandards;
  • reichen Standards aus, um diese Abbildung zu ermöglichen?
  • Verwendung von Metadatenstandards in staatlichen und kommunalen Archiven: Stand und Perspektiven;
  • Mapping und Crosswalks, Dienste, Schnittstellen, technische/IT Aspekte, Metadatenstandards.

Bisherige Summer Schools im Einzelnen

Heinz-Nixdorf-Institut der Universität Paderborn und Hochschule für Musik Detmold, 7.–11. September 2015

Auch in diesem Jahr veranstaltete der Virtuelle Forschungsverbund Edirom (Universität Paderborn und Hochschule für Musik Detmold) gemeinsam mit DARIAH-DEvom 7.-11. September 2015 wieder die Edirom-Summer-School (ESS2015) im Heinz-Nixdorf-Institut der Universität Paderborn.

Das Kursangebot reichte von Einführungen in die Text Encoding Initiative (TEI) und die Music Encoding Initiative (MEI) bis hin zu praxisorientierten Kursen u.a. zur Arbeit mit und Verarbeitung von XML-Daten oder zum Einsatz digitaler Editionswerkzeuge wie den Edirom Tools oder dem MEI Metadaten Editor MerMEId .

Einen besonderen Schwerpunkt bildete in diesem Jahr das Thema Anwendungsentwicklung: Im Workshop MEI Tool Development wurden aktuelle MEI-Softwarebibliotheken vorgestellt und mögliche Einsatzmöglichkeiten diskutiert, die potentielle Toolentwickler dabei unterstützen, die in MEI codierten Daten in Ihren Anwendungen zu bearbeiten, zu verarbeiten und zu rendern. Wer sich für die Entwicklung von Webanwendungen auf Basis der in den Geisteswissenschaften oft verwendeten XML Datenbank eXist-db interessiert, erhielt im Workshop Anwendungsentwicklung mit eXist-db eine grundlegende Einführung und weiterführende Hinweise.

In Kooperation mit der Akademie der Wissenschaften und der Literatur Mainz wird die Reihe der DARIAH-DE-Lizenzierungsworkshops auf der ESS2015 fortgeführt. Auf diesem Expertenkolloquium unter dem Titel Forschungsdaten für Andere – Rahmenbedingungen, Lizenzen und Werkzeuge in der Musikwissenschaft werden rechtliche Fragestellungen im Kontext von Musikeditionsprojekten aus unterschiedlicher institutioneller Sicht beleuchtet und diskutiert. Hier sollen auch erstmals die in DARIAH-DE ausgearbeiteten Juristischen Handreichungen für die Geisteswissenschaften der Öffentlichkeit vorgestellt werden.

Heinz-Nixdorf-Institut der Universität Paderborn, 08.-12. September 2014

Der Virtuelle Forschungsverbund Edirom (Universität Paderborn und Hochschule für Musik Detmold) veranstaltete gemeinsam mit DARIAH-DE die Edirom-Summer-School (ESS). Am Kursangebot, das einführende und fortgeschrittene Kurse rund um das Themenfeld „Digitale Text- und Musikedition" enthielt, beteiligten sich die Technische Universität Darmstadt, das Max-Reger-Institut/Elsa-Reger-Stiftung, Karlsruhe sowie das Répertoire International des Sources Musicales (RISM).

Die Palette reichte von allgemeinen Überblicksveranstaltungen zur DARIAH-DE Infrastruktur und zur Konzeption Digitaler Musikausgaben über Einführungen in die Text Encoding Initiative (TEI) und die Music Encoding Initiative (MEI) bis hin zu praxisorientierten Kursen u.a. zur Verwendung digitaler Editionswerkzeuge (Edirom Tools) oder zum Rendering von MEI Daten. Das Edirom User Forum bot Möglichkeiten zum Einblick in und zum Erfahrungsaustausch mit digital arbeitenden Editionsprojekten. Im Rahmen des EADH Small Grants Programms wurde in diesem Jahr ein StudentInnenstipendium für die Teilnahme an der Edirom-Summer-School vergeben.

Bisherige Fachkonferenzen im Einzelnen

Harnack-Haus, Berlin, 03.-04. März 2015

Die Projektverbünde TextGrid und DARIAH-DE veranstalteten einen DH-Summit 2015 vom 3. bis 4. März 2015 in Berlin (Harnack-Haus).

Das Event richtete sich in erster Linie an die DH-Projekte, Zentren und Nachwuchsgruppen aus den letzten beiden BMBF-Calls sowie weitere assoziierte Projektpartner von TextGrid und DARIAH-DE.

Für das Veranstaltungsprogramm konnten hochkarätige Vertreter aus den Digital Humanities gewonnen werden, so präsentierten die Keynotesprecher Prof. M. Thaller, Universität zu Köln und Dr. K. Fendt, Massachusetts Institute of Technology bespielsweise eine Bestandsaufnahme bzw. Notwendigkeiten und Bedingungen der Digital Humanities. Daneben gab es ein Panel über die Zukunft der Digital Humanities aus Sicht der Wissenschaft, Infrastruktureinrichtungen und Förderinstitutionen sowie eine Kontroversdiskussion zum Thema "Quantitative Verfahren in den historisch-hermeneutischen Geisteswissenschaften".

Ecole Polytechnique Fédérale de Lausanne (EPFL), 08. Juli 2014

DARIAH-DE und DARIAH-EU waren bei der DH 2014 mit einem gemeinsamen Workshop zum Thema "Sharing digital arts and humanities knowledge: DARIAH as an open space for dialogue" vertreten und luden dazu interessierte FachwissenschaftlerInnen ein.

Die Forschungsinfrastruktur DARIAH will ein breites Spektrum an Komponenten für die Digital Humanities anbieten. Im Zentrum stehen dabei die FachwissenschaftlerInnen und ihre Bedürfnisse. Angebote und Services werden von Forschenden für Forschende entwickelt. Ziel des Workshops war es, eine Plattform für offenen Austausch zwischen an Digital Humanities Methoden und Tools interessierten GeisteswissenschaftlerInnen, InformatikerInnen, EntwicklerInnen und InformationswissenschaftlerInnen zu bieten. Die Anbieter von Forschungsinfrastrukturen müssen die Arbeitsweise und Anforderungen der geisteswissenschaftlichen Forschercommunity an Tools und Services kennen, um sie mit entsprechenden Angeboten der Digital Humanities unterstützen zu können. Genauso wichtig ist jedoch umgekehrt, dass GeisteswissenschaftlerInnen eine Vorstellung von den technischen Möglichkeiten der Forschungsinfrastrukturen entwickeln, um Anpassungen und spezielle Bedürfnisse - am besten noch während der Planungsphase - mit Infrastrukturanbietern zu besprechen.

Während des Workshops kamen kollaborative Werkzeuge wie Twitter (Hashtag: #DARIAHdialogue), Etherpad und ein Wiki zum Einsatz, um die Ergebnisse festzuhalten, die nach der Veranstaltung in einer Open Access-Veröffentlichung zur Verfügung stehen. Das Programmkomitee setzte sich aus folgenden Personen zusammen:

  • Aurélien Berra (Université Paris-Ouest Nanterre La Défense), Arianna Betti (University of Amsterdam),
  • Mirjam Blümm (SUB Göttingen),
  • Franz Fischer (CCeH Köln),
  • Emiliano Degl'Innocenti (SISMEL),
  • Franco Niccolucci (ARIADNE),
  • Ruth Reiche (TU Darmstadt),
  • Eveline Wandl-Vogt (Österreichische Akademie der Wissenschaften) und
  • Lars Wieneke (Centre virtuel de la connaissance sur l'Europe (CVCE)).

 

Universität Passau, 25.-26.März 2014

Im Rahmen der ersten Jahrestagung „Digital Humanities – methodischer Brückenschlag oder 'feindliche Übernahme'? Chancen und Risiken der Begegnung zwischen Geisteswissenschaften und Informatik" der Digital Humanities im deutschsprachigen Raum (Dhd), die vom 25.-28.03.2014 an der Universität Passau stattfand, lud DARIAH-DE zur Pre-Conference. In vier Workshop-Sessions wurden verschiedene Aspekte der DARIAH-DE Forschungsinfrastruktur erörtert. Im Mittelpunkt standen dabei Fragen nach den methodischen, thematischen und technologischen Anforderungen der Geistes- und  Kulturwissenschaften an eine digitale Forschungsinfrastruktur und die Auswirkungen dieser Anforderungen auf die Lehre. Außerdem ging es auch um die Frage, wie digitale Forschungsinfrastrukturen nachhaltig etabliert werden können – und zwar unabhängig von befristeten Projektförderzeiträumen. Zusätzlich wurde der Umgang mit Daten, die Objekte beschreiben, diskutiert.

Als Abschluss des ersten Tages referierte Dr. Karl-Heinz Mörth, Institute for Corpus Linguistics and Text Technology, Austrian Academy of Science, über die derzeitigen Entwicklungen beim Aufbau von digitalen Forschungsinfrastrukturen für die Geistes- und Kulturwissenschaften in Österreich und deren Verbindung und Kooperationen zu den gemeinsamen Entwicklungen innerhalb des europäischen Forschungsraums.

Während der zweitägigen Pre-Conference fand zusätzlich das DARIAH-Café statt, in denen Teilnehmende ihre Forschungsprojekte präsentierten. Diese mit DARIAH-DE assoziierten Projekte zeigten, wie vielseitig die DARIAH-DE Forschungsinfrastruktur nutzbar ist. Das DARIAH-Café fördert den Dialog zwischen EntwicklerInnen, WissenschaftlerInnen und VertreterInnen von Forschungsinfrastrukturen. DARIAH-DE-VertreterInnen präsentieren die im Projekt entwickelten fachwissenschaftlichen Dienste, wie z.B. den Geo-Browser und die Collection Registry. Weitere Komponenten der technischen Infrastruktur, curriculare Themen, in Planung befindliche DH-Studiengänge und forschungsbezogene Ergebnisse wurden ebenfalls vorgestellt.

Jewish Museum Berlin, 09.Juli 2013

This event was organised by DARIAH (Digital Research Infrastructure for the Arts and Humanities), TextGrid and EHRI (European Holocaust Research Infrastructure), and funded by the German Federal Ministry of Education and Research (BMBF).

The digital age presents challenges as well as opportunities for historians and historical collection holders. History thrives through the Internet but is also unsettled by it. As more and more citizens not only have access to data, but can also handle and present facts, data and interpretations in a way they see fit, the need for historians to engage with this new digital public becomes obvious. The field of history is becoming more and more democratized as citizens engage in documenting and analyzing the past. At the same time, new digital techniques and methodologies offer new perspectives on cooperation within the humanities and on integration of data. Research infrastructures for history can address needs both from researchers and a more general audience. They support quality representation of the past and citizen engagement in historical work.

These developments are especially relevant for the history of the Holocaust, which has never been an exclusively academic undertaking. Today the field of Holocaust Studies continues to have a manifest public dimension. The Internet has created a new public space where experts and a general audience can converge to write and analyse history together and history truly becomes public history. The international conference in Berlin for researchers and policymakers covered the challenges for historical research on the Holocaust in the age of the Internet and the possibilities of meeting these challenges through new forms of digital research infrastructures.