Für Julia Hoydis, Wissenschaftlerin am Institut für Anglistik, ist die Frage nach der Qualität nicht unbedingt die drängendste: „Es gibt auch schlechte Literatur, die Menschen verfasst haben.“ KI-generierte Schriften verlangen vielmehr Antworten darauf, die sich die Literaturwissenschaft seit jeher stellt: „Worin liegt die Bedeutung eines Textes? Welche Intention verfolgen Autor:innen? Welche Autorität messen wir ihnen bei?“
Künstliche Intelligenz könne zwar Worte neu kombinieren, aber keine persönlichen Erfahrungen und menschlichen Gedanken wiedergeben. Grundsätzlich widersprechen Algorithmen, bei der Effizienz und Optimierung im Mittelpunkt stünde, der Vorstellung von Literatur. „Sie zeichnet sich durch das Unerwartete aus. Zudem sind die großen Werke nicht immer nur glatt, sondern teils holprig und haben auch Passagen, die KI vermutlich entfernen würde“, schildert Julia Hoydis.
Gütesiegel „Human Made“
Der Text-Tsunami auf Online-Portalen führe, so die Literaturwissenschaftlerin, zu einer kritischeren Auseinandersetzung mit nicht-menschlichen Urheber:innen. Hoydis: „Leser:innen fühlen sich teilweise sogar betrogen, wenn sie feststellen, dass KI den Inhalt erzeugt hat.“ Auch Schriftsteller:innen haben verstärkt das Bedürfnis, ihr kreatives Schaffen zu schützen. So findet man schon die ersten Romane, die mit einer Art Gütesiegel „Human Made“ gekennzeichnet sind.
Andere Autor:innen wiederum setzen KI gezielt ein. So hat Richard Powers Teile seines Romans „Das große Spiel“ aus der Perspektive von einem Large Language Model oder sogar mit dessen Hilfe geschrieben.
„Es wäre weltfremd, den Einsatz von Technologie komplett zu unterbinden. Denn im Prinzip sind ja schon ein Stift, der Computer oder Online-Recherche-Tools Hilfsmittel“, räumt Julia Hoydis ein.
Die Vermittlung von kritischen Kompetenzen zum Verständnis von Texten gehöre zu den zentralen Anforderungen im Bildungsbereich. Um zu verstehen, wie erzählt wird, wie Inhalte entstanden sind und was beim Lesen passiert, brauchen wir die Literaturwissenschaft in Zeiten von KI mehr denn je, fasst die Forscherin zusammen: „Damit wir lernen, welchen Texten wir vertrauen können.“