Dr. Anika Limburg und Joscha Falck haben am 21. September zum Nachdenken über menschliche Leistung und KI in einer Blog-Parade unter dem Hashtag #kAIneEntwertung aufgerufen. Ihr Aufruf kann hier nachgelesen werden: https://joschafalck.de/blogparade-kaineentwertung/ In diesem Beitrag zur Blog-Parade wird nicht auf alle Fragen am Ende ihres Artikels Bezug genommen. Es soll um die Frage gehen, unter welchen Prämissen die Arbeit mit KI als Aufwertung wahrgenommen werden kann.
Eigentlich sind wir ja selbst schuld…
Bei KI-Chatbots fällt uns unser Zeichensystem auf die Füße, das wir seit Jahrtausenden zur Kommunikation benutzen: die Sprache. Wir vermenschlichen generative KI, weil wir nicht anders können, als in den Outputs unseren seit jeher gemachten Erfahrungen mit Sprache zu folgen. Wenn da jemand etwas korrekt Formuliertes ausgibt, unterstellen wir Intelligenz. Diese Intelligenz nennen wir künstlich, weil sie entgegen der natürlichen Intelligenz von einer Maschine erzeugt wurde. Künstlich ist sie tatsächlich, aber nicht nur im Sinne eines Gegenentwurfs zu „natürlich“, sondern präziser als alternativer Begriff zu „simuliert“. Ich bin mittlerweile der Auffassung, dass es zielführender wäre, von Simulierter Intelligenz als von Künstlicher Intelligenz zu sprechen. Damit werde ich mich aber aller Voraussicht nach nicht durchsetzen.
Mit dem Begriff Simulation kommt man nun in der Diskussion um die Entwertung von Kompetenzen, die den Bildungs- und Wissenschaftssektor ausmachen, aus meiner Sicht gleichermaßen ein Stück weiter und trotzdem doch nicht. Der Duden schreibt, dass das Wort von lateinisch simulatio kommt, was wörtlich Vorspiegelung bedeutet. Wir kennen dieses Wort wiederum in den „Vorspiegelungen falscher Tatsachen“. Wird also bei KI vorgespiegelt, dass es sich um Intelligenz handelt, ohne dass es so ist?
Wenn wir von Intelligenz als einer Turing-Maschine ausgehen, bei der es unerheblich ist, was im Inneren passiert, sondern bei der es – vereinfacht gesprochen – nur darauf ankommt, was als Output herauskommt, dann ist auch eine simulierte Intelligenz immer noch eine Intelligenz. Wenn wir uns aber – ähnlich wie Bob Blume das für das System Schule in seinem Blog-Beitrag fordert – auch um den Weg kümmern, wie es zu einem Output gekommen ist, dann können wir einen Unterschied machen.
Das Problem ist: Diesen Weg können wir weder bei Large Language Models noch bei Menschen genau nachvollziehen. Andere Menschen sind für uns ebenso wie Sprachmodelle eine „Black Box“, bei der wir nicht genau nachvollziehen können, wie etwas zustande gekommen ist. Wir können mutmaßen. Wir können Vorhersagen aufgrund von unseren bisherigen Erfahrungen machen. Aber wir können nicht „reingucken“.
Ist das nun ein Dilemma, wenn man sich mit der vermeintlichen Entwertung durch KI beschäftigt? Ich finde nicht. Denn wir sind nie Solitäre des Wissens, sondern erzeugen Wissen immer im Zusammenspiel mit anderen. Wir wachsen an dem, was wir mit anderen besprechen und entwickeln. Auch diesen Beitrag habe ich im Zusammenspiel mit meinen Teamkolleginnen Dr. Tanja Adamus und Dr. Anke Marks erstellt und weiterentwickelt, denen ich dafür hier noch einmal danke.
Werkstolz und Sampling

Sehr schön kann das Zusammenspielen in dem Beitrag von Gabi Reinmann und Frank Vohle nachvollzogen werden. ChatGPT ist dabei ein Sparringspartner, der zugegeben manchmal ein bisschen nervt (wenn er z. B. unablässig Komplimente macht), der aber unterstützt, Gedankengänge weiterzuentwickeln. Dass dabei der „Werkstolz“, also der Stolz der Autorin auf ihr Werk, dass nach einigen Mühen entstanden ist, verloren gehen soll, kann ich, ehrlich gesagt, nicht nachvollziehen. Obwohl, eigentlich schon. Manchmal ist man ja auch neidisch, wenn Kolleg*innen Texte verfassen, auf die man selbst gerne gekommen wäre.
Im Ernst: Die Diskussion um die Zusammenarbeit zwischen Chatbot und Mensch ist für mich vergleichbar mit der Diskussion im Musikbereich, ob Sampling oder DJing eigene musikalische Ausdrucksformen und originäre Kreativität seien oder nicht. Die Samples sind dabei vergleichbar mit den von KI generierten Texten, die von Menschen weiterverarbeitet werden zu einem „Track“. In beiden Fällen werden vorgefertigte Elemente kuratiert, um neue Ergebnisse zu erhalten. Viele sprechen dem Sampling ab, eine echte kreative Leistung zu sein. Platt gesagt: „Handgemachte“ Musik wird häufig als wertvoller angesehen als ein Track, der „nur“ aus Samples besteht.
Allerdings müssen bei gutem Sampling und gutem DJing ausgereifte musikalische Kenntnisse zu Tonarten, Rhythmen, Melodielinien, Genremerkmalen und dergleichen vorhanden sein. Nur dann können Ergebnisse erzeugt werden, die nicht beliebig sind, sondern der Ausdruck einer echten Kreativität. Samples und Tracks für DJ-Mixes müssen auf ihre Eignung für den Gesamteindruck hin ausgewählt und bewertet werden.
Vom Sampling zu Bloom, oder: Den Spieß umdrehen…
Vielleicht ein bisschen überraschend bringt mich das zur Bloomschen Lernzieltaxonomie. Lassen wir für die Argumentation zunächst einmal außer Acht, dass es bereits einige Kritik an ihr gibt. Fest steht vielleicht, dass wir uns darüber einigen können, dass das Bewerten, das bei Bloom die höchste Taxonomiestufe darstellt, eine Kompetenzstufe ist, für die die anderen erst einmal durchlaufen werden müssen.
Meine These ist: Damit ich mit KI auf wissenschaftlich integre und kritische Weise arbeiten kann, muss ich die Ausgaben der KI kontinuierlich bewerten. Damit ich das machen kann, muss ich zunächst einmal das Wissen und die Kompetenzen erworben haben, die mein Fachgebiet mit sich bringt. Ich muss also bereits alle anderen Kompetenzstufen durchlaufen haben und ich muss sie auch wirklich selbst durchlaufen haben. Diese kognitive Belastung kann mir kein anderer Mensch und keine KI abnehmen. Dass viele diesen Zusammenhang nicht einsehen, ist ein Problem, das Bob Blume in seinem Beitrag zur Blog-Parade gut analysiert hat und für das er auch einige Lösungsvorschläge hat.
Erst wenn das Durchlaufen der Kompetenzstufen zur Fähigkeit geführt hat, KI-Outputs wirklich bewerten zu können, kann Arbeiten mit KI keine Entwertung darstellen, sondern eine Aufwertung. Der Chatbot kann in diesem Zusammenhang als ein mit ziemlich viel Wissen ausgestatteter Lernender gesehen werden. Ihm muss aber von mir mit meiner vorhandenen Expertise noch beigebracht werden, was richtig und falsch, was zulässig und unzulässig ist, und was gute und schlechte Lösungswege sind. Damit haben wir den Spieß umgedreht: Die KI ist eine Lernende, wir sind die Lehrenden.
Dazu kommt noch folgendes: Die Chatbots agieren (noch) nicht selbstständig, sondern nur auf „Anstoßen“ durch Menschen. Sie philosophieren nicht selbstständig, sondern nur im Austausch mit Menschen. Sie erledigen die Arbeit nicht, weil sie denken, sie müssten das jetzt mal machen, egal ob intrinsisch oder extrinsisch motiviert, sondern nur, weil ihnen jemand die Aufgabe gibt, dass sie es machen sollen. Das unterscheidet sie (noch) von den Menschen. Sie werden nicht von sich aus tätig. Auch neue Features wie das in der letzten Woche vorgestellte ChatGPT Pulse ändern daran erstmal nichts, denn sie sind auch nur simuliertes Aktivwerden.
Wir sollten uns also nicht so klein machen im Kontext der Arbeit mit KI. Wir entscheiden weiterhin, was brauchbar ist und was nicht. Wir entscheiden weiterhin, wann der Chatbot arbeiten soll und wann nicht. Dazu brauchen wir weiterhin Fähigkeiten, die die KI nicht simulieren kann: das kritische Denken und das Bewerten.
Das ist jedenfalls der momentane Stand der Dinge. Ob sich das irgendwann ändern wird, dazu können wir gerne mal in die Glaskugel schauen.
#offtopic Appendix: Drei Anmerkungen, die ich mir nicht verkneifen kann…
- Dass ChatGPT in der Diskussion mit Gabi Reinmann über den Begriff „Werkstolz“ als einem der zentralen Autor*innen, die bei der Diskussion berücksichtigt werden müssen, ausgerechnet auf Roland Barthes verweist, entbehrt nicht einer gewissen Ironie. Barthes ist mit dem Text „Der Tod des Autors“ berühmt geworden, der die literaturwissenschaftliche Diskussion bis heute prägt. In ihm argumentiert er verkürzt gesagt, „dass der Autor für die Literatur eine weitaus geringere Bedeutung hat als bisher postuliert (nämlich gar keine), und dass Sinn ganz allein vom Leser erzeugt werden kann.“ (Wikipedia: Der Tod des Autors). Die Frage ist, ob wir das wirklich so stehen lassen wollen.
- Sampling kann auch als Ausdruck sozioökonomischer Zusammenhänge gelesen werden. Die Möglichkeiten zur professionellen Musikproduktion werden billiger, weil dafür keine Studios und eine Vielzahl von Musikern gebucht werden müssen. Auch Musiker*innen mit geringeren wirtschaftlichen Mitteln wurden und werden befähigt, ihre Kreativität frei auszuleben. Ähnliches wird auch für die Arbeit mit generativer KI gesagt. Die Möglichkeiten zum Wissenserwerb sind nicht mehr auf den Zugang zu bestimmten Institutionen beschränkt. Das gilt natürlich auch für das Internet als Ganzes, hat aber durch generative KI noch einmal einen Boost bekommen.
- Dieser Text ist ganz ohne KI entstanden. Das soll nicht heißen, dass ich gegen das Schreiben mit KI bin, das sollte oben hoffentlich klar geworden sein. Es ist auch keine Wertung von Texten mit oder ohne KI-Unterstützung. Es ist einfach so passiert.