CfP: Digitale Hermeneutik: Maschinen, Verfahren, Sinn

Veranstalter: Prof. Dr. Thomas Bedorf, Prof. Dr. Peter Risthaus

23. bis 25. März 2022 an der FernUniversität in Hagen

Anfänglich enträtselt Hermeneutik als eher praktische Kunst die Sprache der Götter. Jene sprach sich durch Musen und in Orakeln indirekt und verästelt aus, bevor sie in heiligen Schriften fixiert vorliegt, die hermeneutisch sachgerecht gedeutet und ausgelegt werden müssen, um überhaupt erst ihren eigentlichen Sinn zu verstehen. Dem Problem, dass Zeichen und Texte, sprachliche Kommunikation überhaupt, prinzipiell missverstanden werden können, stellt Hermeneutik methodisch abgesicherte Verfahren entgegen, die durch Auslegung und Interpretationen jenen Sinn hütet und hervorbringt, den sie Worten und Büchern, den Erlebnissen und der Geschichte, unterstellt, – bei eigenwilliger Vernachlässigung der Zahlen. Daraus wird in der Moderne nicht nur die Geisteswissenschaft entstehen, sondern die Idee abgeleitet, dass wir als sprachliche wesentlich verstehende, d.h. hermeneutisch bedürftige Wesen sind.

Heute ist Hermeneutik vielfältig herausgefordert, denn die Lage hat sich fundamental geändert. Traute man anfänglich nur den Göttern zu, das Wetter vorherzusagen, erledigen das jetzt beachtlich zielgenau Computer. Um es mit den Worten von Hannes Bajohr zu sagen: »Das Unding ist das Digitale. [...] Bereits das Wort ›Wort‹ ist eine Ebene tiefer, hexadezimal, als 576F7274 codiert und wieder darunter, binär, als 01010111 01101111 01110010 01110100«. Von einem Zeitalter der Digitalisierung ist die Rede und nicht allein Dichter schulen auf Programmierer um. Auch die Geistes- und Kulturwissenschaften siedeln längst nicht mehr allein im Raum von Bibliotheken, sondern sie gebrauchen und entwickeln selbst Algorithmen, verdaten jenen Sinn, über den sie nicht mehr allein die Deutungshoheit beanspruchen können.

Die Jahrestagung des Forschungsschwerpunkts digitale_kultur fragt transdisziplinär nach jenen Herausforderungen, die sich dem Verstehen, dem Sinn, kurzum der Hermeneutik stellen, wenn Algorithmen, Programme, Maschinen und andere technische Verfahren an ihm mitarbeiten.

Panels

  • Veranstalter*innen: Prof. Dr. Thomas Bedorf, Sarah Kissler, Dr. Thorben Mämecke

    Hermeneutik scheint eine ›weiche‹ Wissenschaft zu sein, eine harmlose statt machtvolle Annäherung an Deutungen von Texten, Bildern und Artefakten, die in eine mehr oder minder harmonische ›Horizontverschmelzung‹ mündet. Doch nur eine ihrerseits harmlose Deutung von Deutungsprozessen vermag eine solche harmonisierende Auffassung stützen. Eine derartige Auslegung ist insbesondere in der Gegenwart digitaler Medien in Frage zu stellen. Deutungsprozesse spielen sich nicht nur innerhalb von Diskurs- und Machtdispositiven ab, sondern etablieren diese selbst, indem sie Wirklichkeiten verändern oder erzeugen.

    Wahrheiten waren zwar zu keinem Zeitpunkt in der Geschichte – quasi naturwüchsig – mit der Politik verschwistert. Vielmehr gehört die Rhetorik seit der griechischen ›Polis‹ zum Instrumentarium der Gestaltung von Machtverhältnissen, während bisweilen gar die Lüge zum Proprium der Politik erklärt wird (Hannah Arendt). Entsprechend ist auch die Geschichte der Medien eine Geschichte der Deutungsmacht.

    Von Platons Höhlengleichnis bis zur Gegenwart folgt jedem Medium wie ein Schatten die Frage nach Sinnverlust und Uneigentlichkeit (Hans Magnus Enzensberger). Doch unter Bedingungen ›der Digitalität‹ diversifiziert sich das Verhältnis von Macht, Deutung und Wirklichkeit; sei es durch Automatisierung und Geschwindigkeit, durch Ubiquität und Distanzverlust, oder durch Personalisierbarkeit und Wissensmonopolisierung. In einer digitalen Kultur, in der sich Bilder, Texte und ihre Produzent*innen hinsichtlich Verfügbarkeit, Kommunizierbarkeit und technischer Manipulierbarkeit vervielfältigt haben und volatiler geworden sind, werden Deutungsprozesse zunehmend technologisch opak und unreflektiert. Bezeichnender Weise verjüngen sich damit einhergehende Manipulationsthesen heute gerade unter den Bedingungen internetbasierter und dezentraler Kommunikationstechnologien. Während lange angenommen wurde, dass sich Phänomene wie politische Deutungsmacht, Diskurshegemonie und Wahrheitsproduktion, die vielfach mit den Monopolstellungen konventioneller Massenmedien verbunden werden, durch eine Dezentralisierung und Demokratisierung der Sender-Empfänger-Beziehungen, im Internet aufheben lassen, bestehen sie unter digitalen Bedingungen nicht nur fort, sondern haben ihr Einflusspotential exponentiell erweitert.

    Diesen und anderen Problemen digitaler Deutungsmacht wollen wir u.a. anhand folgender Fragen nachgehen:

    • Welche wissenschaftlichen Konzepte, Begriffe und Theorien der Hermeneutik bergen besonderes Potenzial zur Einordnung von Deutungsprozessen unter digitalen Bedingungen?
    • Wie ist das Verhältnis von Menschen, Nicht-Menschen und (teil-)automatisierten Prozessen vor dem Hintergrund hermeneutischer Perspektiven zu bestimmen? Wie beeinflussen technologische Prozesse wie »social physics«, »micro targeting«, »nudging«, »dark posts«, »click baiting« und »Personality Assessments« Deutungsprozesse und welche neuen politischen Machtmechanismen und -Verhältnisse gehen damit einher?
    • Wie lassen sich solche Prozesse mit dem aktuellen Inventar forschungsoperativer Praktiken fassen und welche neuen Ansätze sind denkbar?
    • Wo finden sich kontraintuitive Phänomene, digitale Aneignungsprozesse, Gegenstrategien oder politische und wirtschaftsinhärente Paradoxien?

    Als interdisziplinärer Forschungsschwerpunkt freuen wir uns über Abstracts (von bis zu 500 Wörtern) aus Philosophie, Soziologie, Medien- und Kommunikationswissenschaften, sowie fachübergreifend.

    Die Deadline für Zuschriften ist der 30. November 2021.

    Einsendeadresse: thorben.maemecke

  • Veranstalter*innen: Prof. Dr. Claudia de Witt, Dr. Christian Leineweber, Vanessa Meiners

    Im Begriff der Hermeneutik bündeln sich traditionell jene Fähigkeiten, die Menschen erwerben, wenn sie ein Verständnis von etwas konstruieren. Hermeneutik verweist in diesem Sinne auf die Methode, sprachlich kommunizierten Sinn zu verstehen (Jürgen Habermas). Herausgefordert wird diese Methode im Zeitalter der Digitalisierung maßgeblich deshalb, weil sich zunehmend solche »Maschinen an der Kommunikation unter Menschen« (Dirk Baecker) beteiligen, die sich durch eigenständig rechnende Algorithmen und daraus resultierende künstlich intelligente Verfahren auszeichnen. Innerhalb dieser neuen Formen von Kommunikation profilieren sich algorithmisch gesteuerte Maschinen dadurch, dass sie eigenständig Verständnisse errechnen und entsprechend mitteilen können, dass sie für den Menschen sinnhaft zugänglich sind. Wenn algorithmisch konstruierte Verständnisse dabei jedoch ausschließlich auf mathematischen Rechenprozessen basieren, dann unterscheiden sie sich kategorial von menschlichen Verständniskonstruktionen, weil hier lediglich regelgeleitete Muster interpretiert, aber nicht in einem sprachlich kommunizierten Sinn verstanden werden (Thomas Bächle). Verstehen steht im Kontext von Maschinen synonym für die Konstruktion einer mathematisch berechneten Wirklichkeit (Heinz von Foerster). Indem sich Maschinen an kommunikativen Prozessen beteiligen, reichern sie die Methode der Hermeneutik mit veränderten Verständnisprinzipien an.

    Eine Hermeneutik, die sich als digital begreifen und profilieren möchte, verweist unter solchen Voraussetzungen auf die Methode, sprachlich kommunizierten und maschinell berechneten Sinn zu verstehen. Mensch und Maschine treten so in ein Netzwerk von kommunizierten und kommunizierbaren Verständnissen. Dies setzt nicht mehr nur ein Verstehen der Welt, sondern darüber hinaus auch verstehende Algorithmen und ein Verstehen der Algorithmen voraus. Unser Panel widmet sich diesem ›Doppelspiel‹ aus philosophischer, kultur-, sozial-, medien- und bildungswissenschaftlicher Perspektive. Folgende Fragen sind für die gewünschten Beiträge – ohne Anspruch auf Vollständigkeit – leitend:

    • Auf welche Art und Weise sind Algorithmen derzeit an Konstruktionen menschlicher Welt- und Selbstverhältnisse beteiligt?
    • Welcher Reflexionen und Neuformulierungen bedarf der Begriff des Verstehens angesichts maschinell generierter Interpretationen?
    • Zwischen welchen (empirischen) Methoden maschineller Verstehensverfahren ist zu unterscheiden?
    • Welche (ethischen, technischen, didaktischen usw.) Modelle und Prinzipien bedarf es, um die Operationen von Maschinen verstehen und in verschiedenen Kontexten anwenden zu können?
    • Welche ideengeschichtlichen Prinzipien gehen der Entwicklung (vermeintlich) verstehender Maschinen voraus und welchen Einfluss üben diese auf tradierte geisteswissenschaftliche Begriffe sowie soziale Phänomene und Praktiken aus?

    Ausgehend von diesen Fragen, die methodische Anwendungen und theoretische Reflexionen verbinden wollen, rufen wir zur Einsendung von Abstracts auf. Denkbar sind Entwürfe für einen Workshop (2 h) und Einzelvortrag (20 Min plus 20 Min Diskussion). Die Abstracts sollten ca. 300 Wörter umfassen und dabei Zielsetzung sowie theoretische, empirische und/oder methodische Bezugnahmen akzentuieren.

    Die Deadline für Zuschriften ist der 30. November 2021.

    Einsendeadresse: algorithmen-verstehen

    Verwendete Literatur:

    Baecker, Dirk (2018): 4.0 oder Die Lücke die der Rechner lässt. Leipzig: Merve.

    Bächle, Thomas (2016): Digitales Wissen, Daten und Überwachung – zur Einführung. Hamburg: Junius.

    Foerster, Heinz von (1993): Wissen und Gewissen. Versuch einer Brücke. Frankfurt/Main: Suhrkamp.

    Habermas, Jürgen (1973): Zu Gadamers ‚Wahrheit und Methode‘. In: Ders./Henrich, Dieter/Taubes, Jacob (Hrsg.): Hermeneutik und Ideologiekritik. Frankfurt/Main: Suhrkamp, S. 123-159.

  • Veranstalter*innen: Dr. Almuth Leh, Dr. Dennis Möbus

    Historisches Verstehen ist nicht nur das Ziel geschichtswissenschaftlicher Hermeneutik, es ist vielmehr in die DNA der Hermeneutik eingeschrieben: Welt und Mensch – eine Grundannahme der Hermeneutik – sind nur in ihrem »Gewordensein« (Johann Gustav Droysen) zu verstehen. Die in der Tradition der Phänomenologie stehende Biographieforschung untersucht Lebensläufe, weil sie dem Paradigma folgt, menschliches Handeln sei das Ergebnis eines Prozesses, habe also immer eine Vorgeschichte. Nur wenn man diese berücksichtigt, sei es möglich, menschliches Handeln zu verstehen. Diese mikrohistorische Perspektive erfährt durch Untersuchungen zur Soziogenese gesellschaftlicher Phänomene ihre makrohistorische Erweiterung. Nicht selten teilt sich der hermeneutisch verfahrende Fächerkanon Quellenkorpora oder Forschungsdaten, die mit je eigenen Perspektiven, Fragestellungen und methodischen Ausprägungen untersucht werden. Durch die Digitalisierung ist das ›hermeneutische Handwerk‹ bedeutenden Veränderungen ausgesetzt. Ob originär digitale Daten/Quellen (»born digital(s)«) oder durch exorbitante Retrodigitalisierungsprojekte verfügbare historische „Big Data“, es gilt Heuristik, Quellenkritik und hermeneutisches Arbeiten grundlegend zu überdenken (vgl. Graham et al. 2016). Eine ganze Fülle von Fragen drängt sich auf. Zum Beispiel:

    • Wo liegen Gewinn und Risiken der breiten, spontanen und häufig offenen Verfügbarkeit von Daten/Quellen?
    • Was geht bei der Vermittlung durch die Digitalisierung sensorisch verloren?
    • Wie sind Originale und Fälschungen im digitalen Raum zu identifizieren?
    • Welche Suchmechanismen und Strukturierungswerkzeuge helfen bei der Spurensuche im digitalen Raum? Und wie bestimmen sie darüber mit, was gefunden wird?
    • Unterstützen digitale Daten, Computer und Algorithmen den Prozess historischen Verstehens oder droht die digitale Vermittlung auf verschiedenen Ebenen den Erkenntnisgewinn zu verschleiern?
    • Wie kann sichergestellt werden, dass durch die auf Wahrscheinlichkeitsrechnung und Statistik beruhenden Verfahren maschinellen Lernens die Außenseiter und Randphänomene nicht vom mathematischen Mittelwert verschluckt werden?
    • Kann die Geschichtswissenschaft, um zwischen den Disziplinen zu vermitteln, basales Handwerkszeug bereitstellen und bei der Entwicklung algorithmengestützter hermeneutischer Verfahren unterstützen?

    Wenn man diesen letzten ›Thread‹ weiterspinnt, stellt sich die Frage, inwiefern hermeneutisches Verstehen auch Perspektiven für die Erforschung Künstlicher Intelligenz bietet: Die fundamentalen Prinzipien des Erfahrens durch Anschauung oder Zuhören kann man auf primitive Weise im massenhaften Sammeln digitaler Daten wiederfinden, auch das diachrone Herleiten und synchrone Einordnen wird je nach Methode beim Training der KI-Modelle angedeutet. Sind hier Synergien zwischen Geisteswissenschaften und Informatik denkbar, um KI-Systeme zu optimieren und gleichzeitig verständlicher zu machen? Diesen Fragen möchten wir im Panel ›Dimensionen historischen Verstehens im digitalen Raum‹ nachgehen, das Beispiele aus der Praxis der Digital Humanities mit methodischen und theoretischen Reflexionen verbindet, und rufen zur Einsendung von Paper Proposals auf.

    Ein Vortrag ist auf 20 Minuten (plus 20 Minuten Diskussion) angesetzt. Das Proposal kann auf Deutsch oder Englisch eingereicht werden und sollte nicht mehr als 200 Wörter umfassen.

    Die Deadline für Zuschriften ist der 30. November 2021.

    Einsendeadresse: dennis.moebus

  • Veranstalter: Prof. Dr. Peter Risthaus, Helmut Hofbauer

    Der Informatiker Theo Lutz programmiert 1959 einen Algorithmus, der auf dem von Konrad Zuse konstruierten Z22 läuft und die sogenannten ›Stochastischen Texte‹ auswirft. Heute gelten sie als erste von Computern erzeugte Poesie. Die von Lutz ausgewählten 16 Substantive und Prädikate, Textmatrix seines Programms, entstammen dem Roman »Das Schloß« von Franz Kafka. Wer ausprobieren möchte, welche ›Gedichte‹ dabei entstehen, kann heute im Netz selbst ›Lutzen‹, so lautet das entsprechende Verb, das nach seinem Erfinder benannt ist (https://auer.netzliteratur.net/0_lutz/lutz_original.html). Die sogenannte Stuttgarter Schule, rund um den Philosophen und Schriftsteller Max Bense, wird sich intensiv mit der Programmierung solch poetisch-informatischer Texte befassen. Auch Hans-Magnus Enzensberger verfasst 1974 eine »Einladung zu einem Poesie-Automaten«, der im Jahr 2000 dann tatsächlich gebaut und auf dem Lyrikfestival ›Lyrik am Lech‹

    präsentiert wird. Inzwischen ist dieser »Landsberger Poesie-Automat« als Dauerleihgabe im Literaturarchiv in Marbach zu besichtigen. In Enzensbergers Einladung findet sich auch eine kritische Einschätzung der Computerpoesie: »Es ist ein Spiel. Wie weit man es mit Sinn auflädt, hängt vom Betrachter ab. Es können Gedichte entstehen, die jemand was sagen.« Und: »Wer nicht besser dichten kann als diese Maschine, der soll es bleiben lassen.«

    Zwei Jahre vor den ›Stochastischen Texten‹ von Lutz stellt der Philosoph Martin Heidegger in seinem Vortag ›Hebel der Hausfreund‹ fest, dass »die [...] Dichtung selbst keine maßgebende Gestalt der Wahrheit mehr zu sein vermag«. Der Grund dafür sei, dass die umfassende Technisierung der Welt und des Denkens in der Kybernetik ihren endgültigen Höhepunkt erreicht habe. Folge dieser Entwicklung ist eine »Sprachmaschine«, die Sprache auf berechenbare Information reduziere und so das Verhältnis des Menschen zu ihr grundsätzlich verwandelt. Was dabei angeblich verloren geht, sei jene ›poetische Tiefe‹ der Sprache, so wie sie von Goethe angeschrieben worden sei: Ganz Hermeneut stellt Heidegger fest: »Man hat zwar eine Kenntnis von dem Vorgang, bedenkt aber nicht seinen Sinn.« Was aber wäre, wenn diese ›poetische Tiefe‹ selbst in jenen von Heidegger gezeigten ›Vorgang‹, den unbewussten Schaltungen und Programmen zu finden ist, die jenseits des Unterschieds zwischen Menschen und Maschinen prozessieren? Welchen Ort hat dabei das ›Verstehen‹?

    Seit Lutz, Bense und Enzensberger hat die ›Computerdichtung‹ erheblich aufgerüstet und zwar nicht allein technisch: Lyrik-Bots und vergleichbare Textgeneratoren laufen jetzt auf Twitter und in anderen sozialen Medien, von diversen Websites ganz zu schweigen. Dichtung entsteht heute auch unter Beteiligung von Algorithmen in mehr oder minder komplexen Interaktionen zwischen Menschen, Maschinen, diverser Programme und verwertbaren Textquellen aus dem Netz; aber ebenso durch technische Implementierung eines linguistischen und poetologisches Wissens, das zum Teil deutlich älter ist als Konrad Zuses Rechner. Sind unsere Theorien auf der Höhe den Sinn dieses ›technisch-poetischen Seins‹ beschreiben zu können?

    Das Panel fokussiert neben der Literaturgeschichte der ›Dichtungsmaschinen‹ aktuelle Lyrik-Bots und vergleichbare Textgeneratoren im Web. Beispiele dafür, die einen besonders interessanten Ansatz verfolgen oder sich durch hohen Bekanntheitsgrad beim Publikum auszeichnen, sind etwa die Arbeiten von Kathrin Passig, Hannes Bajohr oder Ranjit Bhatnagar. Wir planen ›Literaten‹ zu uns einzuladen.

    Erwünscht sind Exposés zu folgenden Schwerpunkten:

    • Algorithmische Dichtung, Permutation und Zufallsfunktionen; Neue Ansätze, die computerlinguistische und KI-Methoden verwenden, beispielsweise zur Grammatik-, Metrik- oder Semantikanalyse (Konkordanzen, Lemmatisierung, Sentiment- u. Topic-Analyse etc.)
    • Textquellen und Korpora, die als Basis für die Verarbeitung dienen (Wikipedia, Projekt Gutenberg, Deutsches Textarchiv, Social Media usw., Webscraping unterschiedlichster Quellen)
    • Literatur- und Mediengeschichte von ›Dichtungsmaschinen‹
    • Neue Rezeptionshaltungen, neue Leser, neuer Literaturbegriff?
    • Maschinelle Produktion und sozialer Sinn: Interaktion und Performanz, Timelines und Hashtags kommentieren, liken, teilen und sich am Dichtungsprozess beteiligen, kollektive Autorschaft, antihumane Dichtung, Re-politisierung der Literatur, Hermeneutik der Maschinen.

    Erwünscht sind Exposés, von bis zu 500 Wörtern, zu Kurzvorträgen oder Präsentationen (20 Min. plus 20 Diskussion) zu den beschriebenen Schwerpunkte.

    Die Deadline für Zuschriften ist der 30. November 2021.

    Einsendeadresse: peter.risthaus