Menü Symbol
Suche einblenden

Digitale Hermeneutik: Maschinen, Verfahren, Sinn

Veranstalter: Prof. Dr. Thomas Bedorf, Prof. Dr. Peter Risthaus

29. Juni bis 1. Juli 2022 an der FernUniversität in Hagen

Foto: Grafiken und Animationen basieren auf der Fotografie: „Portrait multiple de Marcel Duchamp“, 21 June 1917, New York City, Unidentified photographer. Siehe: National Portrait Gallery. Die Quelldatei ist gemeinfrei.

Anfänglich enträtselt Hermeneutik als eher praktische Kunst die Sprache der Götter. Jene sprach sich durch Musen und in Orakeln indirekt und verästelt aus, bevor sie in heiligen Schriften fixiert vorliegt, die hermeneutisch sachgerecht gedeutet und ausgelegt werden müssen, um überhaupt erst ihren eigentlichen Sinn zu verstehen. Dem Problem, dass Zeichen und Texte, sprachliche Kommunikation überhaupt, prinzipiell missverstanden werden können, stellt Hermeneutik methodisch abgesicherte Verfahren entgegen, die durch Auslegung und Interpretationen jenen Sinn hütet und hervorbringt, den sie Worten und Büchern, den Erlebnissen und der Geschichte, unterstellt, – bei eigenwilliger Vernachlässigung der Zahlen. Daraus wird in der Moderne nicht nur die Geisteswissenschaft entstehen, sondern die Idee abgeleitet, dass wir als sprachliche wesentlich verstehende, d.h. hermeneutisch bedürftige Wesen sind.

Heute ist Hermeneutik vielfältig herausgefordert, denn die Lage hat sich fundamental geändert. Traute man anfänglich nur den Göttern zu, das Wetter vorherzusagen, erledigen das jetzt beachtlich zielgenau Computer. Um es mit den Worten von Hannes Bajohr zu sagen: »Das Unding ist das Digitale. [...] Bereits das Wort ›Wort‹ ist eine Ebene tiefer, hexadezimal, als 576F7274 codiert und wieder darunter, binär, als 01010111 01101111 01110010 01110100«. Von einem Zeitalter der Digitalisierung ist die Rede und nicht allein Dichter schulen auf Programmierer um. Auch die Geistes- und Kulturwissenschaften siedeln längst nicht mehr allein im Raum von Bibliotheken, sondern sie gebrauchen und entwickeln selbst Algorithmen, verdaten jenen Sinn, über den sie nicht mehr allein die Deutungshoheit beanspruchen können.

Die Jahrestagung des Forschungsschwerpunkts digitale_kultur fragte transdisziplinär nach jenen Herausforderungen, die sich dem Verstehen, dem Sinn, kurzum der Hermeneutik stellen, wenn Algorithmen, Programme, Maschinen und andere technische Verfahren an ihm mitarbeiten.

Panels

  • Veranstalter*innen: Prof. Dr. Thomas Bedorf, Sarah Kissler, Dr. Thorben Mämecke

    Hermeneutiken als Deutungspraktiken sind nie machtfrei gewesen. Schon immer wurde ihnen ein Verfehlen des eigenen Wahrheitsanspruchs nachgewiesen. Unter Bedingungen der Digitalität verschieben sich die Weisen, das Verhältnis von Macht, Deutung und Wirklichkeit zu befragen. Wo sich Bilder, Texte und ihre Produzent*innen in Hinsicht auf Verfügbarkeit, Kommunizierbarkeit und technische Manipulierbarkeit vervielfältigt haben und volatiler geworden sind, werden Deutungsprozesse zunehmend technologisch opak und unreflektiert. Eine Analyse der digitalen Deutungsmacht, die selbst an der Erzeugung von Wirklichkeiten beteiligt ist, soll in diesem Panel erprobt und diskutiert werden.

    Session 1:

    Mi 29. 6. 2022 13:00 - 15:00 Uhr Gebäude 2, Raum 1–3
    Macht und Ohnmacht in der automatisierten Öffentlichkeit

    Ingo Dachwitz (netzpolitik.org)

    Uploadfilter, Real-Time-Bidding, Such- und Newsfeed-Algorithmen: Die digitalen Öffentlichkeiten sind geprägt von maschinellen Prozessen. Wer verstehen will, wie sich die zunehmende Automatisierung auf gesellschaftliche Deutungsprozesse und Machtverhältnisse auswirkt, muss auf den größeren Strukturwandel schauen, der damit verbunden ist. Noch nie konnten so viele Menschen wie heute an Wissen, Kultur und Diskursen teilhaben. Gleichzeitig scheint die politische Öffentlichkeit so fragil wie lange nicht mehr. Die Ursache liegt in der Funktionsweise der neuen Diskursarenen, denn die Plattformkonzerne haben Manipulation, Polarisierung und Eskalation in ihrem Quellcode eingeschrieben. Doch es geht auch anders…

    Ingo Dachwitz ist Kommunikationswissenschaftler und seit 2016 Redakteur bei netzpolitik.org. Er schreibt und spricht über Datenpolitik, Überwachungskapitalismus und den digitalen Strukturwandel der Öffentlichkeit. Er moderiert Diskussionen, gibt Workshops für junge und ältere Menschen in digitaler Selbstverteidigung und lehrt gelegentlich an Universitäten zur politischen Ökonomie digitaler Medien.

    Session 2:

    Do 30. 6. 2022 10:15 - 12:15 Uhr Gebäude 2, Raum 4+5
    Digital (anti-)hermeneutics of the self

    Dr. Alberto Romele (Universität Tübingen)

    It is well known that, in the last part of his thought, Foucault thought no longer about systems of coercion and control (epistemic and technical/technological systems) but about the way in which subjects, through multiple practices, come to subjectify themselves. It is precisely in this context that Foucault speaks of “hermeneutics of the self“. The thesis we want to propose in this presentation is that digital technologies are formidable tools of „habituation of the self“. The term „habituation“ refers to the fact that subjectivations of the self by means of the digital are always „hetero-subjectivations“ rather than „self-subjectivations“. In this way, the force of interpretation is shifted from the subject to the external powers that determine it. More than interpreting, the digital subject is constantly being interpreted. Indeed, to be precise, the digital subject is neither subject nor object of interpretation: the force of interpretation is in fact made inoperative. In a certain sense, the digital hermeneutics of the self is then an anti-hermeneutics of the self, because the subject is deprived of any possibility of expressing its own selfhood. Indeed, repeated contact with the digital leads subjects to flatten out on their sameness. In the presentation, we will propose a comparison between the way in which, for Foucault, the hermeneutics of the self passes through a series of bodily exercises, on the one hand, and the way in which today we witness a diffusion of wearable technologies for wellbeing. We will rely on the analysis of an empirical project in which we are currently involved as ethical and philosophical consultants.

    Dr. Alberto Romele ist derzeit wissenschaftlicher Mitarbeiter am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen und derzeit am LOUISA-Projekt beteiligt. Bevor er zum IZEW kam, hat er an verschiedenen europäischen Instituten und Universitäten gearbeitet: dem Fonds Ricoeur in Paris, der Universität Porto, der Universität Burgund und der Katholischen Universität Lille. Seine Forschungsschwerpunkte sind Digitale Hermeneutik, Technologische Vorstellungen und der Ethik und Epistemologie der KI.

    Das Spiel der Hermeneutiken von Stimme und Schrift in und mit dem digitalen Text. Überlegungen zu Stimmsynthesen und sinnlichen Wahrnehmungskonfigurationen.

    Vertr. Prof. Dr. phil. Miklas Schulz (Universität Duisburg/Essen)

    Als blind arbeitender Wissenschaftler bin ich es seit vielen Jahren gewohnt meine Texte mit einer Sprachausgabe abzufassen, ebenso wie mir ein auditives Lesen mithilfe besagter Screenreadersoftware vertraut geworden ist. Im Sinne der Disability Studies können Behinderungserfahrungen (wie die der Blindheit) nun als Befremdung von Normalitätsannahmen in der Mehrheitsgesellschaft und damit als erkenntnisgenerierendes Moment eingesetzt werden. Neuerlich und machtkritisch befragt werden kann so der alte Diskurs zu den Medien Stimme und Schrift. Vor dem existierenden soziokulturellen Hintergrund lässt sich fragen, warum es alternative, den Hörsinn einbeziehende Aneignungsweisen, so schwer haben als gleichwertige (hermeneutische) Lektürepraktiken zu gelten. Meine These ist, dass in der Medienkritik und ihren Problematisierungen unterschiedlicher Hermeneutiken, die Frage nach der Erkenntnis- und Wahrheitsfähigkeit unserer Fernsinne mitschwingt.

    Vertr. Prof. Dr. phil. Miklas Schulz ist Soziologe und Medien-/Kommunikationswissenschaftler. Er vertritt seit April 2019 die Professur Inklusive Pädagogik und Diversität am Institut für Erziehungswissenschaft an der Universität Duisburg-Essen und ist Postdoc am Institut für Sonderpädagogik, Leibniz Universität Hannover (beurlaubt) bei der Abteilung Allgemeine Behindertenpädagogik / Soziologie der Behinderung. Seine Forschungsschwerpunkte sind Critical Blindness/Disability Studies, Diversitäts- und Intersektionalitätsforschung, Körper-/Kultur-/Mediensoziologie, Qualitative Methoden, Dispositivanalyse und (Auto-)Ethnografie.

    Die Grammatisierung sozialer Praktiken. Handlungsgrammatiken als hermeneutisches Apriori der Produktion und Verarbeitung von „Verhaltensdaten“

    Dipl.-Ing. Mag. Dr Andreas Beinsteiner (LFU Innsbruck/Universität Wien)

    Voraussetzung jeglicher sinnhaften Interaktion zwischen Menschen und Computersystemen ist es, menschliches Verhalten zunächst in eine Form zu bringen, die für den Computer lesbar ist: Handeln muss auf eine Sequenz diskret abgegrenzter und eindeutig bestimmter Elemente heruntergebrochen bzw. grammatisiert (B. Stiegler) werden. Dies geschieht im Softwaredesign über Handlungsgrammatiken (grammars of action, Ph. Agre), welche die Brücke schlagen zwischen den selbst formalsprachlich verfassten Operationssequenzen des Computers und der diffusen Welt menschlicher Praxis, indem letzterer nun ebenfalls eine formalsprachliche Struktur auferlegt wird. Eine Handlungsgrammatik artikuliert hierbei auf zweierlei Weise Deutungsmacht: Einerseits beruht sie selbst auf einer antizipativen/präskriptiven Deutung der durch die Software zu ermöglichenden Praktiken; andererseits schafft sie die Voraussetzung jener automatisierten Deutung von Interaktionssequenzen, in der die algorithmische Produktion von Verhaltensdaten besteht.

    Andreas Beinsteiner ist Philosoph und Ingenieur und derzeit als Lehrbeauftragter an der Universität Wien am Institut für Theater-, Film und Medienwissenschaft sowie an der LFU Innsbruck tätig. Dort war er auch Teil eines Forschungsprojekts zu „Medienanalysen im Werk Martin Heideggers“. Seine Forschungschwerpunkte liegen in der Philosophie der Medien und Technologie, (Post-)Phänomenologie und (Post-)Hermeneutik, Sprache nach dem affective/material turn, und der Sozialen und Politischen Theorie/Philosophie.

    Session 3:

    Do 30. 6. 2022 15:45 - 17:45 Uhr Gebäude 3, Raum D005 + D006
    Vom Museum zum kuratorischen Apparat – Zur (Re-)Konfiguration musealer Deutungsmacht unter digitalen Bedingungen

    Jun. Prof. Dr. Jennifer Eickelmann (FU Hagen)

    Vor dem Hintergrund der zunehmenden ‚Plattformisierung‘ von Museen bzw. Museumsöffentlichkeiten verkomplizieren sich Aushandlungsprozesse musealer Deutungsmacht insofern, als plattformspezifische Ästhetiken und Praktiken – samt entsprechender algorithmisierter Aufmerksamkeitsmärkte – an Relevanz zunehmen und dabei historische Grenzziehungen herausfordern. Der Vortrag fokussiert das Verhältnis zwischen Museen und der Kurzvideo-Plattform TikTok seit den coronabedingten Museumsschließungen. Zentrale Fragen lauten: Welche Kämpfe um Deutungsmacht lassen sich anhand dieses spannungsreichen Verhältnisses ablesen? Und welche performativen Praktiken fordern historische Grenzziehungen des Musealen inwiefern heraus? Auf dieser Grundlage und in Anlehnung an das Konzept des Situierten Wissens (Haraway) sowie den Agentiellen Realismus (Barad) macht der Beitrag einen Vorschlag zur Reformulierung des Museums als kuratorischem Apparat.

    Jennifer Eickelmann ist seit April Juniorprofessorin für Digitale Transformation in Kultur und Gesellschaft an der Fakultät für Kultur- und Sozialwissenschaften sowie am FSP digitale_kultur der FernUniversität in Hagen. Zuvor war sie wiss. Mitarbeiterin am Lehrgebiet Soziologie mit dem Schwerpunkt Soziale Ungleichheiten an der Fakultät Sozialwissenschaft der TU Dortmund. 2017 wurde sie am Institut für Medienwissenschaft an der Ruhr-Universität Bochum mit einer Arbeit zur Materialität mediatisierter Missachtung promoviert. Ihre Forschungsschwerpunkte liegen an der Schnittstelle von Medientheorie, Ungleichheits-/Kultursoziologie, Gender/Queer Media Studies und beschäftigen sich mit der digitalen Transformation von Subjektivierungsprozessen und affektiven Öffentlichkeiten sowie dem digitalen Wandel des Kuratorischen im Kontext von Museen.

    „Broadcast Yourself“. Die Täuschung einer Demokratisierung von Deutungsmacht

    Dr. des. Sergio Genovesi (Universität Bonn), Dr. Julia Mönig (Universität Bonn)

    Die Ermöglichung der Massenproduktion von digitalen Inhalten wird auf vielen digitalen Plattformen als eine Form der Demokratisierung von Prozessen der Wahrheitsproduktion dargestellt. Die Vielzahl und die Heterogenität der online verfügbaren Inhalte erfordert allerdings die Automatisierung der Content-Auswahl durch recommender systems. Wir zeigen, dass der Einsatz solcher Systeme die Gatekeepers-Rolle von Redakteur*innen nicht abschafft, sondern nur verschiebt – und zwar im Moment der maschinellen Content-Verbreitung. Außerdem argumentieren wir, dass die Täuschung der Demokratisierung mit der Täuschung der Unentgeltlichkeit der Nutzung von Plattformen und mit dem Problem des unbezahlten „digital labor“ eng verbunden ist. Abschließend werden alternative, community-basierte Formen der Deutungsmachtverteilung in digitalen Umgebungen ausgewertet.

    Dr. des. Sergio Genovesi ist Projektmitarbeiter im KI.NRW-Flagship-Projekt „Zertifizierte KI“ am Center for Science and Thought der Universität Bonn;

    Dr. Julia Maria Mönig ist Leiterin des philosophischen Teilprojekts im KI.NRW-Flagship-Projekt „Zertifizierte KI“ am Center for Science and Thought der Universität Bonn

  • Veranstalter*innen: Prof. Dr. Claudia de Witt, Dr. Christian Leineweber, Vanessa Meiners

    Eine Hermeneutik, die sich als digital begreifen und profilieren möchte, verweist ganz wesentlich auf die Methode, sprachlich kommunizierten und maschinell berechneten Sinn zu verstehen. Mensch und Maschine treten so in ein Netzwerk von kommunizierten und kommunizierbaren Verständnissen. Dies setzt nicht mehr nur ein Verstehen der Welt, sondern darüber hinaus auch verstehende Algorithmen und ein Verstehen der Algorithmen voraus. Unser Panel widmet sich diesem ›Doppelspiel‹ mit dem Ziel, die Beziehung zwischen menschlichem und maschinellem Verstehen in unterschiedlichen Facetten zu (de-) konstruieren.

    Session 1:

    Mi 29. 6. 2022 13:00 - 15:00 Uhr Gebäude 2, Raum 4+5
    Gibt es bleibende Unterschiede zwischen Informationsverarbeitung und Sinnverstehen?

    Prof. Dr. Matthias Kettner (Universität Witten/Herdecke)

    Wie können wir das Verhältnis von Informationsverarbeitung und Sinnverstehen verstehen, wie theoretisch aufschlüsseln? Ich wähle als Bezugsproblem die Funktion(en) von Welterschließung und erprobe folgende Kontrasthypothese: während die primäre Funktion von Welterschließung durch Maschinenlesbarkeit die algorithmisierbare Informationsverarbeitung ist, ist die primäre Funktion von Welterschließung durch Sinnverstehen diekommunizierbare Situationsorientierung. Wenn es im Rahmen steil naturalistischer Positionen von Computer- und Kognitionswissenschaft so erscheint, als sei menschliches Sinnverstehen letztlich „auch nur eine Form von Informationsverarbeitung“, erscheint dies von der Warte einer Hermeneutik-Theorie, die Sinnverstehen als Zugänglichwerden fremden mentalen Lebens unter Lebewesen mit mentalem Eigenleben und gemeinsamer Sprache (d.h. unter Personen, nicht Maschinen) begreift, absurd reduktionistisch. Beides ist zu einfach. Lässt sich diskurspragmatisch differenzierter über Unterschiede von Information und Sinn nachdenken?

    Matthias Kettner ist Professor für Philosophie und Diplompsychologe. Er hat bei bei Karl-Otto Apel und Jürgen Habermas mit einer Schrift zu Hegel in Frankfurt promoviert und sich mit einer Schrift über Perspektiven der Diskursethik habilitiert. Seit 2002 hat er den Lehrstuhl für Praktische Philosophie an der Universität Witten/Herdecke inne und seit 2021 ist er Seniorprofessor in der Fakultät für Wirtschaft und Gesellschaft.

    Analog/digital – (wie) spricht der Zettelkasten Niklas Luhmanns?

    Dipl.-Soz. Johannes Schmidt (Universität Bielefeld)

    Niklas Luhmann (1927–1998) war einer der letzten Großtheoretiker der Soziologie. Er hat über 30 Jahre lang kontinuierlich an einer universalen Theorie der modernen Gesellschaft gearbeitet. Letztlich kann man nahezu alle Publikationen Luhmanns – und das waren bereits zu Lebzeiten mehr als 50 Bücher und 500 Aufsätze – als Beiträge zu diesem Werk verstehen. Die Grundlage seiner wissenschaftlichen Arbeit war eine schließlich ca. 90.000 Zettel umfassende Notizensammlung, die Luhmann zwischen 1952 und 1997 anlegte und in der er seine Lektüreergebnisse und Theoriefortschritte dokumentierte. Diese Sammlung war aber nicht nur eine Gedächtnisstütze über Gelesenes, sondern zugleich ein Denkapparat und eine Publikationsmaschine. Der Zettelkasten wird nun im Rahmen eines Nachlasseditionsprojekts transkribiert und digitalisiert (niklas-luhmann-archiv.de).

    Luhmann bezeichnete die heterarchisch organisierte Sammlung als ein „kybernetisches System“; seine Selbstauskunft war, dass nicht er, sondern der Zettelkasten seine vielen Texte schreiben würde. Dieses (Under)Statement war für den analogen Kasten wenig überzeugend: der Kasten benötigte, um als Textgenerator zu funktionieren, ganz offenkundig einen Operateur, der eine Einstiegsfrage formulierte, die Zettel heraussuchte und die darauf zu findenden Argumente schließlich in eine sinnvolle und lineare, textkompatible Ordnung bringen musste. Ändert sich etwas an dieser Abhängigkeit von einem sinnverstehenden Außenhalt, wenn der Kasten nun digitalisiert wird? Führt die Edition also über eine (nur) digitale Rekonstruktion des analogen Vorbilds hinaus, indem sie die Sammlung auf eine andere Weise mit sich selbst ins Gespräch bringt? Wird der Kasten also erst jetzt zu einem kybernetischen System, das neue Formen des Sinnverstehens ermöglicht?

    Seit 2015 ist Dipl.-Soz. Johannes Schmidt wissenschaftlicher Koordinator des Akademieprojekts „Niklas Luhmann – Theorie als Passion. Wissenschaftliche Erschließung und Edition des Nachlasses“ (https://niklas-luhmann-archiv.de) an der Universität Bielefeld.

    Der Rückschlag der Apparate auf das Bewusstsein: Vilém Flusser, Don Ihde und eine erweiterte Hermeneutik

    Dr. Daniel Irrgang (Weizenbaum Institut/Universität der Künste, Berlin)

    Flusser stand mit seinen Thesen zu den Funktionen von Apparaten nicht nur neueren medientheoretischen Positionen (u.a. Galloway, Morozov) nahe, sondern auch den Science Studies, die in den letzten rund 30 Jahren die Rolle von Instrumenten und Materialitäten für Verstehen und Erkenntnis von einer funktionalistischen Peripherie ins Zentrum der Debatten verschoben haben. In diesem Vortrag soll Flussers Apparat-Begriff mit Theorien aus den Science Studies aufgeschlossen werden, insbesondere mit den postphänomenologischen Schriften Don Ihdes. In seinem instrumental realism geht dieser davon aus, dass (wissenschaftliche) Erkenntnis in einem doppelten Sinne verkörpert ist: einerseits durch den Körper des Instruments, welches das epistemische Objekt phänomenotechnisch (Rheinberger/Bachelard) ermöglicht, andererseits durch den Körper der/des Forschenden selbst, der räumlich/sozial/kulturell verortet ist. Beide „Körper“ bestimmen also maßgeblich die Darstellung und Interpretation gesammelter Daten. Um diese doppelte Körperlichkeit als Bedingung von Verstehen anzuerkennen und kritisch diskutieren zu können, schlägt Ihde eine expanded hermeneutics vor. Eine Hermeneutik, die einerseits von Sprache und Text auf Instrumente und ihre Darstellungen erweitert wird und die andererseits, angereichert mit phänomenologischen Perspektiven, der Körperlichkeit des Verstehens Rechnung trägt. Um es mit Ihde zu formulieren: „It is at this very point, in the analogization of human embodiment with artifactual embodiment, that an expanded hermeneutics is called for.“

    Dr. Daniel Irrgangist Medienwissenschaftler und stellvertretender Leiter der Forschungsgruppe „Ungleichheit und digitale Souveränität“ am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin, die der Universität der Künste (UdK) Berlin zugeordnet ist. Er hat über Diagrammatik und Expanded-Mind-Theorien promoviert und war zwischen 2016 und 2019 wissenschaftlicher Mitarbeiter und Assistent des Rektors an der Staatlichen Hochschule für Gestaltung (HfG) Karlsruhe und zwischen 2013 und 2016 wissenschaftlicher Leiter des Vilém Flusser Archivs an der UdK Berlin. Daniel Irrgang ist Affiliated Researcher am Center Art as Forum an der Universität Kopenhagen (Marie Skłodowska-Curie Fellowship).

    Session 2:

    Do 30. 6. 2022 10:15 - 12:15 Uhr Gebäude 2, Raum 1–3
    Modelle erklären, Modelle verstehen

    Prof. Dr. Andreas Kaminski (RWTH Aachen/Universität Stuttgart)

    Avancierte Formen des maschinellen Lernens führen zu Modellen, die weitgehend opak sind. Als Reaktion darauf ist die Forschungsrichtung zur Erklärbarkeit von KI-Modellen entstanden (Explainable AI). Es ist jedoch bei weitem nicht klar, ob erklärbare KI auch zu transparenten Modellen führt. Der Vortrag wird dieser Frage nachgehen, indem er den Begriff der Verstehbarkeit von Modellen ihrer Erklärbarkeit gegenüberstellt. Die These lautet: Selbst wenn wir einzelne Modellentscheidungen erklären können, heißt es nicht, dass wir die Modelle auch verstehen.

    Dr. habil. Andreas Kaminski ist Gastprofessor für Technik- und Wissenschaftsphilosophie an der RWTH Aachen und Leiter der Abteilung für die Philosophie der computerintensiven Wissenschaften am Bundeshöchstleistungsrechenzentrum der Universität Stuttgart. In seiner Forschung beschäftigt er sich derzeit vor allem mit Fragen der Opazität und Reproduzierbarkeit von Computermodellen sowie mit Vertrauen in Informationen.

    Digitale Mimesis

    Prof. Dr. Jan Söffner (Zeppelin Universität Friedrichshafen)

    Das mimetische Vermögen ist, wie Platon, Giambattista Vico, Walter Benjamin und Michael Taussig je verschieden beschreiben, nicht nur auf Darstellung ausgerichtet, sondern auch auf Anverwandlung: Sie schafft nicht nur mimetische Objekte, sondern eröffnet auch einen Moment der Teilhabe. Auf Grundlage dieser Prämisse entwickelt der Vortrag ein Schema des mimetischen Feldes, das die Bestimmung unterschiedlicher Formen der Mimesis sowohl von ihrer Konstruktion als auch von ihrer Hermeneutik ermöglicht. Dieses Schema wird in einem zweiten Schritt auf die Interaktion des Menschen mit digitaler Technologie angewendet, d. h. auf Schnittstellen, hinter denen Algorithmen ihrerseits „mimetische“ Prozesse vollziehen.

    Prof. Dr. Jan Söffner ist Romanist und Kulturtheoretiker. Er bekleidet den Lehrstuhl für Kulturtheorie und Kulturanalyse an der Zeppelin Universität Friedrichshafen. Nach einem Studium der Germanistik und Italianistik in Köln waren seine Stationen das dortige Romanische Seminar, das Zentrum für Literatur- und Kulturforschung in Berlin, das Internationale Kolleg Morphomata in Köln, das Romanische Seminar der Universität Tübingen und die Programmleitung beim Wissenschaftsverlag Wilhelm Fink. Zu seinen Forschungsschwerpunkten gehören Literaturtheorie, Metaphern und Mimesis, Mythologie und Enaktivismus.

    Session 3:

    Do 30. 6. 2022 15:45 - 17:45 Uhr Gebäude 3, Raum F009
    Workshop: Die Bibliothek von Babel – Algorithmen der Textgenerierung

    Prof. Dr. Georg Trogemann (Kunsthochschule für Medien Köln)

    „Die Bibliothek von Babel“ ist eine Erzählung des argentinischen Schriftstellers Jorge Luis Borges aus dem Jahr 1941. Die endlose Bibliothek, ein Universum von sechseckigen Galerien, enthält alle kombinatorisch möglichen Bücher mit 410 Seiten. Borges beschreibt, wie die Bibliothekare diese Bücherwelt erforschen und versuchen, Sinn in den Büchern zu finden. Auch nur einzelne, zusammenhängende Sätze in den Texten zu entdecken, bedeutet bereits ein großes Glück. Diesem Universum gedruckter Bücher wird im Workshop die Welt der algorithmisch erzeugten und analysierten Texte gegenübergestellt. Was verändert sich, wenn Bibliotheken nicht nur von Menschen, sondern auch von Algorithmen – die selbst wieder nur Text und damit immer schon Teil der Bibliothek von Babel sind – gelesen, durchsucht, interpretiert und auch geschrieben werden? Anhand konkreter Programmbeispiele wird kursorisch das neue chiastische Wechselspiel von Texten und Quelltexten (Operanden und Operatoren) gezeigt. Fragen zu Autorschaft, Bias, Textverstehen u.v.a. stellen sich durch die KI-Algorithmen neu. Ihrer Beantwortung kommt man nur näher, wenn man die Algorithmen hinterfragt

    Georg Trogemann ist seit 1994 Professor für Experimentelle Informatik an der Kunsthochschule für Medien Köln. Neben einer Gesellenprüfung als Schreiner hat er ein Studium der Informatik und Mathematik an der Universität Erlangen-Nürnberg absolviert. 1990 hat er zu massiv parallelen Algorithmen promoviert. Von 1997–1999 und 2004–2006 war er Prorektor für Forschung und Infrastruktur der Kunsthochschule für Medien Köln. Seine derzeitigen Interessen umfassen experimentelle Algorithmik, Künstliche Intelligenz und Poetik der Technik.

    Session 4:

    Fr 1. 7. 2022 10:15 - 12:15 Uhr Gebäude 2, Raum 1–3
    Verstehen – Interpretieren – Errechnen: Zum Wandel von Interpretationspraxen durch KI-gestützte Interpretation

    Fabio Lieder (Universität der Bundeswehr München), Prof. Dr. Burkhard Schäffer (Universität der Bundeswehr München)

    Die Dokumentarische Methode der Interpretation (DM) unterscheidet zwischen „Verstehen“ und „Interpretieren“: Verstehen können sich nur Angehörige eines Milieus oder ähnlicher kollektiver Gebilde untereinander. Fremdheit hingegen lässt sich nur durch „Interpretation“ überwinden. Vor diesem begrifflichen Hintergrund wird untersucht, wie es sich bei „Interpretationen“, die von einer Künstlichen Intelligenz (KI) generiert werden, mit dieser Fremdheitsrelation verhält: Ist es ein Unterschied, ob ein Mensch oder eine künstliche Intelligenz (KI) eine Interpretation vollzieht? Unter dem Horizont der Begriffe „verstehen“, „interpretieren“ und „errechnen“ wird erörtert, welche hybriden Gebilde sich aus dem interpretativen Zusammenhandeln von Mensch und KI ergeben. Mittels Natural Language Processing (NLP) ermitteln wir, inwieweit „Interpretationen“ maschinell erzeugt werden können und ob dies bei der Suche nach neuen überraschenden Sichtweisen unterstützen kann. Dazu demonstrieren wir ein vortrainiertes Sprachmodell, dem die Dokumentarische Methode mittels sog. „Prompt Engineering“ und beigebracht wurde.

    Fabio Lieder, M.A. ist wissenschaftlicher Mitarbeiter an der Professur für Erwachsenenbildung/Weiterbildung an der Fakultät für Humanwissenschaften der Universität der Bundeswehr München. Seine Arbeitsschwerpunkte: Lehren und Lernen, Erwachsenenbildung, Technikphilosophie, Lehr-Lerninteraktion zwischen Menschen und Technik, erkenntnistheoretische und didaktische Implikationen Künstlicher Intelligenz, Erforschung und (Weiter-)Entwicklung softwaregestützter qualitativ-rekonstruktiver Datenanalyse.

    Prof. Dr. Burkhard Schäffer leitet den Lehrstuhl für Erwachsenenbildung/Weiterbildung an der Fakultät für Humanwissenschaften der Universität der Bundeswehr München. Seine Arbeitsschwerpunkte: Methoden, Methodologien und Softwareentwicklung (DokuMet QDA) im Bereich qualitativer Erwachsenenbildungsforschung. Aktuelle Forschungsprojekte: andragogische Perspektiven auf die Corona Pandemie und Implementierung künstlicher Intelligenz in qualitative Forschung.

    ‚You never know‘. Überlegungen zum Umgang mit Algorithmen in erziehungswissenschaftlicher Digitalisierungsforschung

    Prof. Dr. Sandra Hofhues (FU Hagen)

    Unter Bedingungen von Mediatisierung und Digitalisierung scheint die Befassung mit Daten, Algorithmen und Strukturen digitaler Medien innerhalb von Erziehungswissenschaft dringlicher denn je. Dabei ist noch genauer auszuloten, wie sich eine erziehungswissenschaftliche Digitalisierungsforschung im Anschluss an die Tradition erziehungswissenschaftlicher Medienforschung in Bezug auf Phänomene, Gegenstände und (technische) Entwicklungen positionieren kann und sollte. Im Vortrag wird daher unter der Prämisse eines ‚You never know’ zuerst problematisiert, worin die besonderen Herausforderungen eines Umgangs mit Algorithmen in unser aller Alltag bestehen, ehe ein forschender Blick auf sie geworfen wird. Am Ende dient ein aktuelles Forschungsprojekt als Anschauungsbeispiel, wie sich erziehungswissenschaftliche Digitalisierungsforschung künftig verstehen könnte. An diesem Beispiel wird abschließend diskutiert, welche Leerstellen auszufüllen sind, um Algorithmen (besser) zu verstehen und in pädagogischer Praxis künftig auf die so aufscheinenden, komplexen Herausforderungen einzugehen.

    Dr. Sandra Hofhues ist seit Oktober 2020 Universitätsprofessorin (W3) für Mediendidaktik im Institut für Bildungswissenschaft und Medienforschung der FernUniversität in Hagen. Zuvor war sie u.a. als Juniorprofessorin für Mediendidaktik/Medienpädagogik im Department Erziehungs- und Sozialwissenschaften der Humanwissenschaftlichen Fakultät der Universität zu Köln tätig. Ihre Schwerpunkte in Forschung und Lehre liegen im Kontext von Mediendidaktik unter Bedingungen von Digitalisierung und Digitalität sowie dokumentarischer Medien- und Organisationsforschung.

    Affective Computing and Emotional AI als digitale Kulturtechniken der Emotionalisierung und reflexiven Distanzierung

    Tanja Klankert (HU Berlin)

    Der Einsatz von Emotional AI wird derzeit kritisch diskutiert. Neben Risiken, die auch biometrische Überwachungssysteme und ADM-Systeme betreffen, ist umstritten, ob sich Emotionen technisch erfassen und repräsentieren lassen. Ich möchte in meinem Vortrag auf Aspekte eingehen, die in der Diskussion bisher wenig Beachtung gefunden haben. Anhand von Methoden der Emotionserkennung, z.B. in der maschinellen Sprachverarbeitung, werde ich argumentieren, dass diese auf einem „erlebnisästhetischen Modell“ (Thomas Anz) emotionaler Kommunikation beruhen, das sich im 18. Jahrhundert in der Abkehr von der Rhetorik herausgebildet hat. Das Modell geht davon aus, dass Emotionen ihre Wirksamkeit dort optimal entfalten, wo sie authentisch durchlebt werden. Ausgeschlossen wird damit die Möglichkeit von reflexiver Distanznahme, von Bedeutungsverschiebungen wie auch des Nicht-Gelingens von Kommunikation. Dabei beruhen die Techniken auf widersprüchlichen Voraussetzungen und auf hegemonialen Asymmetrien. Es fragt sich, ob durch ihren Einsatz der Möglichkeitsraum zwischen Erleben und reflexiver Distanznahme und damit auch der Spielraum des Verhaltens (Bernhard Waldenfels) vereindeutigt und normiert wird.

    Tanja Klankert ist Doktorandin an der Humboldt Universität zu Berlin am Lehr- und Forschungsbereich „Kulturtheorie und Kulturwissenschaftliche Ästhetik“ (Prof. Dr. Iris Därmann). Sie studierte Philosophie und Germanistik sowie Computerlinguistik und Informatik an den Universitäten Heidelberg und Stuttgart und absolviert ein Lehrdiplom für Philosophie und Informatik an der PHBern.

  • Veranstalter*innen: Dr. Almut Leh, Dr. Dennis Möbus

    Historisches Verstehen ist nicht nur das Ziel geschichts­wissenschaft­licher Hermeneutik, es ist vielmehr in die DNA der Hermeneutik eingeschrieben: Welt und Mensch sind nur in ihrem „Gewordensein“ (Johann Gustav Droysen) zu verstehen. Nicht selten teilt sich der hermeneutisch verfahrende Fächerkanon Quellenkorpora oder Forschungsdaten, die mit je eigenen Perspektiven, Fragestellungen und methodischen Ausprägungen untersucht werden. Durch die Digitalisierung ist das ‚hermeneutische Handwerk‘ bedeutenden Veränderungen ausgesetzt, es gilt Heuristik, Quellenkritik und Methodik grundlegend zu überdenken.

    Session 1:

    Mi 29. 6. 2022 15:30 - 17:30 Uhr Gebäude 2, Raum 4+5
    Zur Rekonstruktion historischer Bibliotheken im digitalen Raum

    Dr. Ioanna Georgiou (Universität Bern)

    Historische Bibliotheken, deren Bestände heutzutage mitunter weit verstreut sind, können im digitalen Raum dokumentiert und so wieder zusammengefügt werden. Verlorene Bücher, deren Existenz nur in Katalogeinträgen oder Bücherlisten nachweisbar ist, werden auf diese Weise für einen größeren Nutzerkreis erschlossen. Ein Vergleich einzelner Bibliotheken, etwa solcher von Gelehrten, kann darüber hinaus Überlieferungszusammenhänge oder Lesegewohnheiten deutlicher hervortreten lassen. In diesem Zusammenhang stellt sich die Frage, welche Möglichkeiten die digitale Aufarbeitung solcher Bibliotheken eröffnet und was es dabei zu beachten gilt. Beispielhaft soll dies anhand der Bibliothek des Augsburger Frühhumanisten Sigmund Gossembrot (1417–1493) aufgezeigt werden, die derzeit in einem an der Universität Bern durchgeführten Digitalprojekt bearbeitet wird. Ein nicht unerheblicher Teil dieser Bibliothek kann nur dank der zahlreichen Notizen und Querverweise, die Gossembrot in seinen Büchern hinterlassen hat, rekonstruiert werden. Der Vortrag veranschaulicht die Rekonstruktion der verschollenen Bücher anhand der Querverweise und thematisiert, wie die Ergebnisse im digitalen Raum aufbereitet werden.

    Ioanna Georgiou hat in München Geschichte und Philosophie studiert und wurde 2021 an der Universität Innsbruck promoviert. Sie ist seit Februar 2021 an der Universität Bern im SNF-Projekt „Rekonstruktion der Bibliothek von Sigmund Gossembrot (1417–1493)“ tätig.

    Netzwerkvisualisierung als biographisches Sinnstiftungsverfahren

    PD DR. Birgit Dahlke (HU Berlin), Prof. Dr. Jörn Kreutel (HU Berlin), Dr. Thomas Möbius (HU Berlin)

    Im Rahmen des DFG-geförderten Projekts „Forschungsplattform Literarisches Feld DDR: Autor*innen, Werke, Netzwerke“ werden auf Grundlage von Lexika, Archiven und anderen Quellen die Autor*innen der DDR prosopographisch mit Daten zu Biographie, Werk und Rezeption in einer Datenbank erfasst. Für die Erfassung der individuellen Biographien werden die v.a. in Lexika üblicherweise narrativ dargestellten „Lebensverläufe“ in Aussagen über einzelne biographische Ereignisse segmentiert. Diese Ereignisse werden als Menge von Elementaraussagen über die mit einem Ereignis assoziierten Akteur*innen, Orte, Institutionen etc. erfasst und belegt. Auf diese Weise ergeben sich u.a. Verbindungen zwischen Personen und anderen Entitäten, die durch Ereignisse hergestellt werden und als Netzwerke visualisierbar sind. Das Herstellen und zugleich Deuten von biographischen Sinnzusammenhängen stellt sich auf Basis solcher Entitätsnetzwerke grundlegend anders dar als in narrativen biographischen Darstellungen. Ausgehend von konkreten Autor*innen und den mit ihnen durch biographische oder Publikationsbeziehungen verbundenen Akteur*innen können durch die Visualisierung verschiedener Entitätskategorien und Ereignistypen beispielsweise geographische oder institutionsbezogene Beziehungen, die aus einer rein hermeneutischen Perspektive auf individuelle Biographien nicht in den Blick geraten, sichtbar gemacht werden. In unserem Beitrag gehen wir der Frage nach, inwiefern Netzwerkvisualisierungen von biographischen Daten den Blick auf Autor*innen und deren Rezeption sowie auf literaturhistorische Zusammenhänge verändern.

    Dr. Birgit Dahlke, PD, Literaturwissenschaftlerin und seit 2016 Leiterin der neu eingerichteten „Arbeits- und Forschungsstelle Privatbibliothek Christa und Gerhard Wolf“ an der Humboldt-Universität zu Berlin.

    Dr. Jörn Kreutel, Professor für Medieninformatik an der Berliner Hochschule für Technik. Forschungsschwerpunkte: Modellierung und Analyse bio-bibliographischer Datenbestände und Konzeption nutzerfreundlicher Bedienoberflächen für Datenerfassung und -zugriff.

    Dr. Thomas Möbius, Literatur- und Sozialwissenschaftler, seit 2019 wissenschaftlicher Mitarbeiter im Projekt „Literarisches Feld DDR: Autor*innen, Werke, Netzwerke“ an der Humboldt-Universität zu Berlin/Institut für deutsche Literatur.

    Die dritte Dimension im digitalen Raum

    Marcus Feldbrügge (Bergische Universität Wuppertal)

    Seit der Etablierung der Digital Humanities und dem damit stattfindenden Übergang von der Buchseite zur Webseite haben sich die Paradigmen nur augenscheinlich geändert. Freilich ermöglicht das Digitale eine Dynamisierung des zuvor eher als statisch wahrgenommenen Buches, allerdings bleiben auf der makronavigatorischen Ebene ein Großteil der seit der Erfindung des Buchdrucks eingeführten Strukturelemente bestehen. Insbesondere haben es digitale Editionen bislang nicht bewerkstelligt, einen Weg zu finden, um die materiellen Besonderheiten von beschriebenen Dokumenten wie Säulen, Reliefs, Assemblagen oder Tontafeln adäquat zu transponieren. Aufgrund des zweidimensionalen Charakters (2D) des Faksimiles, sowohl im analogen Buch als auch auf dem digitalen Bildschirm, lassen sich solche Dokumente nur unter einem Verlust der dritten Dimension (3D) übertragen. Daher muss folglich die Frage gestellt werden, ob das 2D Faksimile als Ausgabemedium solchen 3D Dokumenten überhaupt gerecht wird? Immersive Technologien wie Virtual Reality (VR) und Augmented Reality (AR) kennen die Beschränkung auf zwei Dimensionen jedoch nicht und könnten dabei helfen, das Editionsparadigma neu zu reflektieren. Anhand von Beispielen aus der Edition von Avantgardekünstler*innen soll aufgezeigt werden, wie VR und AR dabei unterstützen, die dritte Dimension in die digitale Edition einziehen zu lassen. In diesem Rahmen sollen die Limitierungen des digitalen Faksimiles herausgestellt und über neue Editionswege – weg vom Buchparadigma – nachgedacht werden.

    Marcus Feldbrügge ist Wissenschaftlicher Mitarbeiter im „Graduiertenkolleg 2196 Dokument – Text – Edition“ an der Bergischen Universität Wuppertal. Studium der Germanistik und der französischen Romanistik. Masterstudium der Editions- und Dokumentwissenschaft. Dissertationsthema: Edition von dreidimensionalen Dokumenten.

    Session 2:

    Do 30. 6. 2022 13:15 - 15:15 Uhr Gebäude 2, Raum 4+5
    Die epistemologische Prämisse und die Modi der Algorithmenkritik

    Melanie Althage (HU Berlin), Dr. Mark Hall (Open University, UK), Melanie Seltmann (Universitäts und Landesbibliothek Darmstadt)

    Aus Perspektive der Digital Humanities lassen sich unterschiedliche Modi der Algorithmenkritik lokalisieren, die sich auf drei Säulen verteilen: Forschungsdesign, Funktionalität und gesellschaftlich-lebensweltliche Auswirkungen. Die Säulen können nicht unabhängig voneinander betrachtet werden und sind gleichermaßen für eine erfolgreiche Algorithmenkritik relevant. Während im Forschungsdesign methodologische Fragen, etwa nach Vorannahmen, geklärt werden müssen – sowohl auf Seiten des Forschungsgegenstands als auch auf der Seite der Algorithmen – geht es bei der funktionsseitigen Säule um konkrete Anwendungskritik: Ist eine formale Semantik zur Analyse der Logik von Algorithmen für Nicht-Informatiker:innen praktikabel und sinnvoll? Oder sind komparative Gegenüberstellungen von Ergebnissen sowie experimentelle Interventionen, wie dem bewussten Provozieren nicht vom Algorithmus vorgesehener oder extremer Outputs, zielführend? Die dritte Säule begegnet den gesellschaftlich-lebensweltlichen Auswirkungen von Algorithmen, beispielsweise deren Suggestionskraft, deren Vermögen, Phänomene sowohl sichtbar zu machen als auch zu verschleiern und, nicht zuletzt, den Wechselwirkungen zwischen Algorithmen und Forschenden. Alle drei Säulen ruhen auf einer epistemologischen Prämisse: Sind Fragestellung und Algorithmus inkompatibel, ist die Kritik arbiträr. Ausgewählte Modi der Algorithmenkritik werden entlang von Praxisbeispielen veranschaulicht.

    Melanie Althage studierte Geschichte und Philosophie und ist Mitarbeiterin an der Professur für Digital History an der HU Berlin sowie im Volkswagen-Projekt „Die Performanz der Wappen”. Sie promoviert zur methodenkritischen Integration digitaler Textanalyseverfahren in den Werkzeugkasten der Historiker:innen.

    Mark Hall kommt aus dem Bereich der Computerlinguistik. Der Zufall hat ihn danach in die digitale Kulturgeschichte und die DH-Welt geführt. Seit 2020 ist er Lecturer an der Open University, UK und forscht dort zu den Themen Digital Cultural Heritage, DH Methodology, und Equity in DH.

    Melanie Seltmann studierte Linguistik und ist Mitarbeiterin an der Universitäts- und Landesbibliothek Darmstadt im Zentrum für Digitale Editionen. Dort unterstützt sie das Citizen-Science-Projekt „Gruß & Kuss”. Sie promoviert zu Standardisierungsmöglichkeiten linguistischer Annotationen.

    Treffer. Zur Transformation der Stellenhermeneutik

    Prof. Dr. Michael Niehaus (FU Hagen)

    Mit dem inzwischen wenig gebräuchlichen Begriff der Stellenhermeneutik soll daran erinnert werden, dass die Kunst der Auslegung zunächst den Zweck hatte, dunkle Stellen in einem Text zu erhellen. Erst im Nachhinein wurde die einzelne Stelle in den Bezug zum Ganzen (eines Textes, eines Werks) gesetzt und in ihrer Auslegung in einen hermeneutischen Zirkel gezogen (vgl. zum Überblick Stephan Meder: Mißverstehen und Verstehen, 2004, S. 17–28). Was die Disziplinen betrifft, die sich mit Texten beschäftigen, kommt es innerhalb der Praktiken und Verfahren, welche die digitale Kultur zur Verfügung stellt, zu einer Transformation der Stellenhermeneutik, die insbesondere neue Ziele und Fragestellungen begünstigt. Praktisch gesprochen: Man startet in einem digitalisierten Text (oder einem Textkonvolut) eine Suche mithilfe eines Suchbegriffs und bekommt eine bestimmte Anzahl von Treffern. Jeder Treffer bezeichnet eine Stelle, die – irgendwie – verstanden werden muss. Dieses Verstehen, das es stets mit einer Reihe von Treffern zu tun hat, kann nicht mehr auf die Auslegungsweisen der klassischen Hermeneutik beschränkt werden (vgl. etwa den Begriff der Parallelstelle). Die Fragestellungen, deren Bearbeitung mithilfe solcher Treffer erfolgen soll, dürfen zu ihrer Beantwortung nicht mehr das Verständnis eines ‚Ganzen‘ erfordern, sollen aber andererseits gleichwohl einer methodischen Kontrolle unterliegen. Der Vortrag möchte einige Implikationen dieses Befundes skizzieren.

    Michael Niehaus ist seit 2014 Professor für Neuere deutsche Literaturwissenschaft und Medienästhetik an der FernUniversität in Hagen. Er forscht unter anderem zum Begriff des Formats, zur intermedialen Narratologie, zum Film und zu verschiedenen medienkulturwissenschaftlichen Themenfeldern. Er ist Mitherausgeber der Zeitschrift „z.B. Zeitschrift zum Beispiel“

    Digitale Erschließung. Sammlungsübergreifendes Topic Modeling in der Oral History

    Philipp Bayerschmidt (Oral.History-Digital)

    Die zunehmende Digitalisierung in der Oral History eröffnet zahlreiche neue Möglichkeiten, diese vielschichtigen Quellen einer Sekundäranalyse zu unterziehen. Das Zusammenwachsen verschiedenster Sammlungen, etwa durch das Online-Portal Oral-History.Digital, ermöglicht das breitangelegte Vergleichen und Erforschen. Je größer aber die zu untersuchenden Bestände werden, desto schwieriger wird es, sich den vielfältigen Themen allein über Metadatenfilter oder Keywordsuche zu nähern. Das Topic Modeling ermöglicht in einem distant reading, erste Informationen über die Quellen und ihre enthaltenen Themen zu erhalten und diese für die Erschließung der Interviews zu nutzen. Hierbei werden Muster von Gemeinsamkeiten und Unterschieden der Sammlungen sichtbar, die mit dem bloßen Auge kaum wahrnehmbar sind. Ein Use Case in Form einer Suche nach Interviews mit Personen, die nach 1945 dauerhaft nach Deutschland migriert sind, soll zeigen, wie eine solche sammlungsübergreifende Analyse umgesetzt werden kann und wie qualitative Evaluation und visuelle Tools dabei unterstützen – oder in die Irre leiten können.

    Philipp Bayerschmidt, M. A. ist Historiker und verglich in seiner Masterarbeit die Aussagen ehemaliger Auschwitz-Häftlinge im 1. Frankfurter Auschwitzprozesses mit ihren lebensgeschichtlichen Interviews vierzig Jahre später. Er ist wissenschaftlicher Mitarbeiter im DFG geförderten Projekt Oral.History-Digital.

  • Veranstalter: Prof. Dr. Peter Risthaus, Helmut Hofbauer

    Die ‚Computerdichtung‘ hat erheblich aufgerüstet und zwar nicht allein technisch: Lyrik-Bots und vergleichbare Textgeneratoren laufen jetzt auf Twitter und in anderen sozialen Medien, von diversen Websites ganz zu schweigen. Was wird Dichtung unter digitalen Bedingungen gewesen sein?

    Session 1:

    Mi 29. 6. 2022 15:30 - 17:30 Uhr Gebäude 3, Raum F009
    Sprachalgorithmik: analog/digital. Poetische Kalküle von der Ars Combinatoria bis zur Biopoesie

    Dr. Nils Jablonski (FU Hagen)

    Die Sprachalgorithmik umfasst all jene literarischen Phänomene, die nach mathematisch-logischen und letztlich programmierbaren Verfahren erzeugt sind und damit zum Bereich der sogenannten kalkülsprachlichen Dichtung gehören. Der Vortrag gibt einen Einblick in die zentralen literarhistorischen Entwicklungsphasen der kalkülsprachlichen Dichtung von den analogen Anfängen bis zu ihren gegenwärtigen digitalen Ausprägungen.

    Dr. Nils Jablonski ist wissenschaftlicher Mitarbeiter im Lehrgebiet Neuere deutsche Literaturwissenschaft und Medienästhetik von Prof. Dr. Michael Niehaus an der FernUniversität in Hagen. 2018 wurde er mit der Arbeit Idylle. Eine medienästhetische Untersuchung des materialen Topos in Literatur, Film und Fernsehen an der Technischen Universität Dortmund promoviert.

    Digitale Küchenpoesie. Ein internetlinguistischer Rezeptionsversuch (online)

    Prof. Dr. Konstanze Marx (Universität Greifswald)

    Mit „Als ich die Küche betrete“ beginnen auf Twitter recht regelmäßig veröffentlichte fiktionale Szenarien des Accounts @Im_Alter_Fische. Damit hat sich dieser Account nicht nur innerhalb kürzester Zeit einen poetischen Raum auf der Plattform erobert, sondern zu zahlreichen Adaptionen motiviert. Inwieweit hier musterhafte (maschinenähnliche) Strukturen übernommen werden und wie sich ein Spannungsverhältnis zwischen Realität und Fiktion entlang dieser Rekontextualisierungen identifizieren lässt, soll Gegenstand eines internetlinguistischen Zugangs sein.

    Prof. Dr. Konstanze Marx ist Professorin für Germanistische Sprachwissenschaft sowie Geschäftsführende Direktorin des Instituts für Deutsche Philologie an der Universität Greifswald. Seit 2021 ist sie zudem Prorektorin für den Aufgabenbereich Kommunikationskultur, Personalentwicklung und Gleichstellung. Sie forscht vornehmlich zu digitaler Interaktion, Methoden der Internetlinguistik und Ethik, Wissenschaft und Öffentlichkeit sowie Digitalisierung der Lehrmethoden in Schule und Universität

    Interview (online)

    mit @Im_Alter_Fische

    Session 2:

    Do 30. 6. 2022 10:15 - 12:15 Uhr Gebäude 3, Raum F009
    Workshop
    • KI – Künstlerische Intelligenz? Programmierung einer autonomen Dichtungsmaschine unter Verwendung von Machine Learning
    • Vom Papier zum Hypertext – Andreas Okopenkos Lexikon-Roman in digitalen Räumen
    • Hermeneutischer Bot – Ein Twitterbot, der Texte auf Übersetzungsreisen schickt

    Session 3:

    Do 30. 6. 2022 13:15 - 15:15 Uhr Gebäude 2, Raum 4+5
    Chanson d‘ EURATOM. Die Geburt des digitalen Oulipo aus der KI-Forschung der 1960er Jahre

    Prof. Dr. Simon Roloff

    Der Beitrag analysiert eine bisher weitgehend unbekannte epistemologische Verknüpfung zwischen der Ouvroir de la litterature potentielle (Oulipo) und der KI-Forschung der 1960er Jahre. Die Gründung der französischen Avantgardevereinigung fiel nicht nur in die Zeit der frühen Experimente der Computerliteratur in Deutschland, Frankreich und den USA, die Gruppe interessierte sich auch von Beginn an für die Möglichkeiten von Rechenmaschinen zur Generierung literarischer Texte.

    Dr. Simon Roloff ist Autor, Literatur- und Medienwissenschaftler. Er promovierte als Stipendiat des Graduiertenkollegs „Mediale Historiographien“ zu Robert Walser und war zuletzt Juniorprofessor am Institut für Literarisches Schreiben und Literaturwissenschaft der Universität Hildesheim. Im Zentrum seiner Arbeit stehen Fragen einer Kulturtechniktheorie der Literatur, der politischen Literatur sowie des literarischen Forschens. In Vorbereitung ist sein Buch Kunstbemühung – Wie ich ein kreatives Subjekt wurde.

    Poetische Künstliche Intelligenz. Herman Melville und Felix Weinold: Bartleby

    PD Dr. Bernhard Dotzler (Universität Regensburg)

    »I would prefer not to« lautet die berühmte Formel von Herman Melvilles Schreiber Bartleby. In Felix Weinolds gleichnamiger Installation (Bartleby, 2020) schreibt ein Roboter diesen Satz an die Wand, ihn auf die sich entwickelnde KI beziehend. Aber wenn er denn auf KI verweisen soll, widerlegt der Akt seiner Niederschrift durch einen Roboter genau die Ausflucht, die er ausdrückt. Aus einer exemplarischen Figur der Sinnverweigerung entspringt so – neuer, anderer Sinn.

    Prof. Dr. Bernhard Dotzler ist seit 2004 Ordinarius für Medienwissenschaft am Institut für Information und Medien, Sprache und Kultur an der Universität Regensburg. Der Fokus seiner Forschung liegt auf der IT-Geschichte/History of Computing, der Archäologie der Medien(theorie), der Medien- und Wissenschaftsgeschichte (Media & Science), dem Verhältnis von Literatur und Medien, sowie der Werbeforschung.

    Session 4:

    Fr 1. 7. 2022 10:15 - 12:15 Uhr Gebäude 2, Raum 4+5
    Digitale Hermeneutik und digitale Produktion: Der poetische Maschinenraum von Theo Lutz

    PD Dr. Toni Bernhart (Universität Stuttgart)

    Es ist kennzeichnend für die frühe digitale Hermeneutik der 1950er Jahre, dass sehr rasch ein Umkehrschub unternommen wird: Algorithmen sollen Texte nicht nur segmentieren und analysieren, sondern auch produzieren. Sinn wird dadurch nicht mehr nur dekontextualisiert, sondern konstituiert. Exemplarisch dafür ist der Stuttgarter Mathematiker Theo Lutz, der 1959 zusammen mit Max Bense und Rul Gunzenhäuser mithilfe eines Programms im Freiburger Code auf einer Zuse Z22 seine „Stochastischen Texte“ herstellt. Zur Debatte stehen u.a. die Doppelrolle des Programmierers, wenn dieser als Editor – wie Lutz – Eingriffe und Umschriften am maschinengenerierten Text vornimmt.

    PD Dr. Toni Bernhart leitete von Oktober 2015 bis März 2020 das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Forschungsprojekt „Quantitative Literaturwissenschaft“ am Institut für Literaturwissenschaft und am Stuttgart Research Centre for Text Studies der Universität Stuttgart. Seine Forschungsschwerpunkte sind unter anderem Quantitative Literaturwissenschaft, die Wissenschaftsgeschichte der Digital Humanities und Literatur und Akustik. Zudem ist er als Regisseur und Autor von Theaterstücken tätig.

    Sind Programmiersprachen poetisch?

    Dr. Till Heilmann (Ruhr-Universität Bochum)

    Bereits frühe Elektronenrechner wurden programmiert, um ‚Poesie‘ zu erzeugen. Experimente wie Christopher Stracheys Love Letters am Ferranti Mark I (1952) und Theo Lutz’ Stochastische Texte an der Zuse 22 (1959) stellten mit neuartigen Techniken zur Diskussion, was als Dichten oder als Dichtung gelten darf. Ausgehend von Friedrich Kittlers Bemerkung, Computer würden erstmals den „Wortsinn von Poesie“ einlösen, aber jenseits einzelner Computergedichte und -modelle, will der Vortrag der Frage nachgehen, wie die Poesie von Programmiersprachen selbst in der Geschichte der Computer verhandelt wurde.

    Dr. Till Heilmann forscht als Akademischer Rat am Institut für Medienwissenschaft der Ruhr-Universität Bochum. 2008 wurde er mit einer Arbeit zum Computer als Schreibmaschine promoviert. Seine Forschungsschwerpunkte sind Digitale Bildbearbeitung, Algorithmen und Computerprogrammierung, nordamerikanische und deutschsprachige Medienwissenschaft.

  • Begrüßung

    Mi 29. 6. 2022 12:30 - 13:00 Uhr Gebäude 2, Foyer Raum 1-3

    Ver­lags­er­öff­nung Hagen University Press

    Mi 29. 6. 2022 18:00 - 20:00 Uhr Gebäude 2, Raum 1-3

    Empfang der Rektorin der FU Hagen und Podiumsdiskussion

    Gäste: Felicitas Macgilchrist, Ada Pellert, Sebastian Posth, Eric Steinhauer

    Die FernUniversität in Hagen gründet einen eigenen Verlag: Hagen University Press (HagenUP). Er ist ein programmatisch unabhängiger, nicht gewinnorientiert arbeitender Wissenschaftsverlag mit interdisziplinärer Ausrichtung. HagenUP macht alle Publikationen digital frei zugänglich verfügbar und stärkt damit den Open Access Gedanken größtmöglicher freier Zugänglich- und Nutzbarkeit wissenschaftlichen Wissens.

    Der Launch des Verlages findet im Kontext der Jahrestagung des Forschungsschwerpunkts digitale_kultur an der FernUniversität in Hagen statt. Der Sprecher des Forschungsschwerpunkts Prof. Dr. Thomas Bedorf wird als einer der beiden Verlagsleiter in die Entwicklung und Programmatik des Verlags einführen. Eine anschließende Podiumsdiskussion versammelt mit Prof. Dr. Felicitas Macgilchrist, Sebastian Posth und Prof. Dr. Eric Steinhauer Expertinnen und Experten zu einem Gespräch über die Zukunft wissenschaftlichen Publizierens. Felicitas Macgilchrist ist Professorin für Medienforschung mit dem Schwerpunkt Bildungsmedien an der Georg-August-Unversität Göttingen und leitet dort die Abteilung Mediale Transformationen, Sebastian Posth ist Unternehmen und Berater in den Kultur- und Kreativbranchen und Mitbegründer des International Standard Content Code (ISCC), eines dezentralen Identifikationssystems für digitale Medieninhalte, Eric Steinhauer ist kommissarischer Direktor der Hagener Universitätsbibliothek und der zweite Leiter von HagenUp.

    Kleine Form: Berit Glanz

    Do 30. 6. 2022 9:00 - 10:00 Uhr Gebäude 2, Raum 1-3

    Die Eroberung des Weltalls hat nicht nur neue Technologien hervorgebracht, sondern auch entsprechende Arbeitsverhältnisse, teils prekäre. Was mit der Auswertung von Fotoaufnahmen der Marsoberfläche durch wissenschaftliche Laien begann, ist zum Feld von Pseudoselbständigkeit geworden. Berit Glanz liest aus ihrem Roman „Automaton“ und spricht über die Probleme und Chancen von Clickwork im Kontext digitaler Literatur.

    Berit Glanz lebt auf Island und ist Autorin, Essayistin und Literaturwissenschaftlerin. Von 2010 bis 2021 hat sie als wissenschaftliche Mitarbeiterin am Lehrstuhl für Neue Skandinavische Literaturen des Instituts für Fennistik und Skandinavistik der Universität Greifswald gearbeitet. Als Literaturwissenschaftlerin mit kulturwissenschaftlicher Ausrichtung interessiert sie sich schwerpunktmäßig für Medienwandel und Modernisierung im 19. Jahrhundert, skandinavischen Film und den Einfluss der Digitalisierung auf die Literaturproduktion und -rezeption. Ihr zweiter Roman Automaton ist im Frühjahr 2022 im Berlin Verlag erschienen.

    Aus­­stellungs­eröffnung: Machine in Residenz und „Unboxing Kittler?“

    Do 30. 6. 2022 18:00 - 19:00 Uhr Universitätsbibliothek
    Ausstellungseröffnung: Machine in Residenz. Spielarten elektronischer Literatur

    Der Begriff Elektronische Literatur („electronic literature“) umfasst das weite Spektrum literarischer Texte, die entweder ihre Entstehung („digital born“), die Charakteristik ihrer Gestaltung oder ihre Rezeption, sofern diese über die bloße Reproduktion des gedruckten Textes hinausgeht, einem digitalen Medium verdanken. Die Hybrid-Ausstellung ist ein studentisches Projekt. Sie stellt einen Rechner aus, der ein Langgedicht verfasst, ausgegeben auf einem Nadeldrucker. Gerahmt wird diese Poesie durch Bücher, Texte und einen Workshop, sowie von Beiträgen der Studierenden.

    „Unboxing Kittler?“ – Aufruf zu einem Workshop

    Ein Rechner (Mikro Express LCD-286) wird vergessen im Aktenschrank eines Büros, das von 1987 bis 2015 Stützpunk der deutschen Medienwissenschaft war. Von dort aus ist er von Büro zu Büro weitergereist, ohne dass jemand bis heute weiß, wem er gehörte oder welche Daten er enthält. Aus der Inventarliste der Universität heimlich gestrichen. Findet sich auf seinen Festplatten der Entwurf zu Friedrich Kittlers und Manfred Schneiders „Diskursanalysen III“ oder etwa Hartmut Winklers Manuskript von „Docuverse. Zur Medientheorie der Computer“? Es wird Zeit, dies herauszufinden.

    E.N.D.E. – Essener Noise Dub Ensemble und Abendausklang mit DJ

    Do 30. 6. 2022 ab 20:30 Uhr Gebäude 2, Raum 1–3
    E.N.D.E. – Essener Noise Dub Ensemble

    Max Wehner (Posaune & FX), Este Kirchhoff (homemade Music-Tisch & FX), Simon Camatta (Drums), Moritz Anthes (Bass)

    E.N.D.E. ist eine Essener Drum and Bass, Dub und Techno Band bestehend aus vier Musiker*innen, die dank ihrer Vielseitigkeit locker wie 10 klingen. Die Vier bringen üblicherweise elektronisch hergestellte Musik als punkige, akustische Live-Improvisationen auf die Bühne, stets in Symbiose mit dem Vibe des Publikums.

    Seit mittlerweile 4 Jahren treffen tighte DnB-Drums von Simon Camatta auf Moritz Anthes Effekt lastigen Dub Bass. Darüber fliegen Este Kirchhoff und Max Wehner mit verzerrten Saiten, kruden Samples und sicken Posaunenlines.

    Abendausklang mit DJ Philipp Kressmann

    Literaturwissenschaftler und freier Journalist. Fokus auf Pop-Musik, Pop-Kultur & Bücher. Freier Mitarbeiter bei @wdr@1live@dlfkultur@Kaput_Mag@MUSIKEXPRESS.de, früher bei @spex

    Kleine Form: Hannes Bajohr

    Fr 1. 7. 2022 9:00 - 10:00 Uhr Gebäude 2, Raum 1-3

    Digitale generative Literatur gibt es als sequenzielles und konnektionistisches Verfahren – als Ergebnis klassischer, linearer Algorithmen und als Resultat von machine learning in Form neuronaler Netze. Der Schriftsteller und Wissenschaftler Hannes Bajohr plädiert in seiner Lecture Performance für die je eigene Ästhetik dieser Ansätze und liest Beispiele aus seinem poetischen Werk – vom Halbzeug zu Vollendendungen, vom sequenziellen zum konnektionistischen Paradigma.

    Dr. Hannes Bajohr arbeitet am Seminar für Medienwissenschaft der Universität Basel. Er wurde an der Columbia University, New York, mit einer Dissertation über Hans Blumenbergs Sprachtheorie promoviert. Bajohr produziert sowohl literarische als auch akademische Texte und arbeitet zu politischer Philosophie, philosophischer Anthropologie, Sprachtheorie des 20. Jahrhunderts, digitalen Literaturen. Er schreibt außerdem Prosa, Essayistik und digitale Lyrik.

    Ab­schluss­dis­kus­si­on

    Fr 1. 7. 2022 12:30 - 13:30 Uhr Gebäude 2, Raum 1-3
    Schlitzohr oder Götterbote? Hermeneutik und Sprachtechnologien – eine Diskussion

    Saim Alkan (AX Semantics), Prof. Dr. Annette Gerstenberg (Universität Potsdam), Dr. Ing. Joachim Köhler (IAIS) im Gespräch mit Helmut Hofbauer, Dr. Almut Leh und Dr. Dennis Möbus (Forschungsgruppe digital humanities, FernUniversität in Hagen).

    Die populäre Überlieferung hat das Bild des Hermes oft auf seine Rolle als Götterbote reduziert. Seine Aufgaben und seine Stellung in der Hierarchie der Gottheiten zeigen sich jedoch als ebenso schwankend wie sein Charakter: Einerseits ein schlitzohriger Botengänger, andererseits als Hermes Trismegistos der Urheber aller Weisheit und Religion. Seine Ambivalenz könnte Sinnbild sein für unseren Umgang mit seiner Kunst, der Hermeneutik: Digitale Sprachtechnologien, die häufig unter dem Etikett „Künstliche Intelligenz“ firmieren, weisen bei Übersetzungen und automatisierter Textgenerierung beachtliche Erfolge vor. Die im Web „geschürften“ Trainingsdaten für BERT oder GPT-3 sind keine neutralen Zeichenketten, weshalb etwa Künstliche Neuronale Netze (KNN) dem Kontext und den Bedeutungszusammenhängen von Sprache Rechnung tragen sollen. Damit täuschen diese Technologien ein wahres Verstehen aber nur vor. Das stellt Wissenschaft, Politik und Wirtschaft vor neue Herausforderungen der Bewertung von Ergebnissen und Steuerung potentieller Risiken.

    Saim Rolf Alkan ist CEO von AX Semantics und ein Pionier auf dem Gebiet der automatisierten Texterstellung. Er entwickelte eine Content-Lösung, die hochwertige Texte aus Daten in 110 Sprachen generiert und ist außerdem Dozent, Redner und Autor in den Bereichen Online-Kommunikation und „Roboterjournalismus“.

    Annette Gerstenberg ist seit 2017 Professorin für Französische und Italienische Sprachwissenschaft an der Universität Potsdam. Ihre Forschungsinteressen gelten seit der Promotion dem Einsatz digitaler Verfahren; Schwerpunkte liegen im Bereich der Sprachgeschichte und der Soziolinguistik des Gegenwartsfranzösischen, speziell der Sprache im höheren Lebensalter. Aus dem daraus resultierenden Projekt LangAge corpora ist eine Sammlung an Oral-History-Digital beteiligt und Vorstandsvorsitzende des Frankoromanistenverbands.

    Joachim Köhler hat zu multilingualen Spracherkennungsverfahren promoviert und leitet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS die Abteilung NetMedia. Dort verantwortet er die Geschäftsfelder Content Technologies and Services und Bildverarbeitung.

nach oben