inno.teach
Rückschau – Digital Literacy mit ChatGPT: Kompetenzen zum Umgang mit digitalen Texten, 17. Juni 2024
Ein Beitrag von James Wiebe und Helena Stahlschmidt
Es war schon ziemlich bald klar, dass sich der akademische Lehrbetrieb mit dem Aufkommen von ChatGPT im November 2022 in gewisser Weise ändern würde. Während die Süddeutsche Zeitung von einer “gefühlten Revolution” sprach, läutete die Frankfurter Allgemeine Zeitung gar das “Ende der Hausarbeit" ein. Möglichkeiten der Nutzung von künstlicher Intelligenz an Hochschulen, beispielsweise beim Verfassen von Hausarbeiten, wurden – positiv wie negativ – rege diskutiert.
Am 17. Juni 2024 fand an der Universität Bielefeld eine Lecture mit dazugehörigem Workshop statt, in der Prof. Dr. Andreas Witt einen bewussten Umgang mit ChatGPT thematisierte. Er lehrt an der Universität Mannheim und bietet dort den Kurs “Digital Literacy für die Humanities” an – mit dem Ziel, Geisteswissenschaftler*innen Kompetenzen im Umgang mit digitalen Texten zu vermitteln – denn letztere werden zu einem immer wichtigeren Gegenstand dieser Wissenschaften. “Der Einsatz von Large Language Models, insbesondere ChatGPT, verändert die Lernlandschaft”, betonte der Professor im Rahmen der Veranstaltung. Organisiert wurde der Tag von der BiLinked Community of Practice “Data Literacy” in Kooperation mit dem Bielefeld Center for Data Science (BiCDaS).
Der Veranstaltungstag begann in kleinerem Rahmen mit einem Workshop in der Lernwerkstatt, bei dem Andreas Witt mit seinem Input eine vielfältige Diskussion anregte – eine Reihe von Teilthemen und Fragen wurden aufgegriffen. Wenn Data Literacy “die Fähigkeit, Daten zu sammeln, zu verwalten, auszuwerten, zu interpretieren und anzuwenden” beschreibt, welche technischen Vorkenntnisse sind dann für diese Fähigkeit erforderlich? Andreas Witt stellte den Begriff des Datenbewusstseins in den Raum. Ist ein solches Bewusstsein gegeben, wenn man sich grob über die Beschaffenheit von Daten im Klaren ist oder muss man die Operationen der Datenerhebung selbst auf Programmierebene nachvollziehen können?
In der Diskussion wurde herausgearbeitet, es solle ein Teilziel der Data Literacy sein, Lernenden computational thinking näherzubringen. Ein komplexes Problem in mehrere kleinere Teilprobleme zu zerlegen und systematisch abzuarbeiten, ließe sich bereits mit Schulkindern einüben. Nur so ließe sich das notwendige Vertrauen aufbauen, das für eine datenbasierte Entscheidungsfindung notwendig ist. Nicht nur mangelndes Vertrauen in Daten ist ein Problem, auch die Bereitstellung von Daten ist oft nur temporär und projektbezogen. Zum Abschluss der Diskussion stellte Andreas Witt die Nationale Forschungsdaten Infrastruktur (NFDI) vor, die genau an diesem Punkt ansetzt. Ihr Ziel ist es, erschlossene Datenbestände der Wissenschaft dauerhaft und nachhaltig als digitalen Wissensspeicher bereitzustellen.
Im Rahmen der ‚Lecture Series Data Science‘ vom BiCDaS fand der anschließende Vortrag in etwas größerer Runde im Raum Nordlicht im X-Gebäude der Universität Bielefeld statt. Rund die Hälfte der Teilnehmenden war online zugeschaltet. Essenz der Lecture war ein Überblick über den Inhalt des erwähnten Lehrangebots. Dort werden grundlegende Kenntnisse hinsichtlich Gegenständen vermittelt, mit denen wir tagtäglich – in der Uni, beim Arbeiten und auch in unserer Freizeit – umgehen (müssen): das Internet (nicht zu verwechseln mit dem World Wide Web. Das Internet ist das zugrunde liegende Netzwerk, das verschiedene Kommunikationswege und Dienste ermöglicht, wohingegen das WWW einer dieser Dienste ist, der speziell für den Zugriff auf hypertextuelle Informationen und Multimedia-Inhalte über das Internet entwickelt wurde.), verschiedene Betriebssysteme, Programme, Dateistrukturen… Im Zuge der aktiven Einbindung von ChatGPT gehört auch ein grundlegendes Verständnis davon, wie Large Language Models funktionieren, dazu: Wie funktioniert die Textproduktion bzw. Sprachgenerierung? Was kann ich mir dementsprechend zunutze machen, was kann funktionieren, was nicht?
Andreas Witt weist darauf hin, dass es heute (selbstverständlich) eine viel größere digitale Kompetenz braucht, um unterschiedlichen alltäglichen Aufgaben zu begegnen. Insbesondere “in der modernen akademischen Ausbildung sind fundierte Computerkenntnisse unverzichtbar” – und die reichen über Microsoft Word, PowerPoint und Excel hinaus. In seinem Kursangebot wird sich der Frage gewidmet, was digitale Texte sind, was ihren Aufbau kennzeichnet und was es im Umgang mit ihnen zu beachten gibt. Darüber hinaus beinhaltet es die Beschäftigung mit Markup-Sprachen wie HTML und XML und Dateiformaten wie TEI sowie mit digitalen Textkorpora, wie sie das Institut der deutschen Sprache bereitstellt. Der Kurs wird mit einer unter Zuhilfenahme von ChatGPT entstandenen Hausarbeit abgeschlossen. Dabei werden Prompts dokumentiert und der gesamte Schreibprozess abschließend reflektiert.
Doch nicht nur im Zuge des Verfassens einer Hausarbeit kann ChatGPT als Ressource dienen. Zwar wird der Chatbot einerseits als Tool genutzt, das mittels Zusammenfassungen, (Um-)Formulierungen, Übersetzungen, Literaturvorschlägen oder ähnlichem Schreibprozesse bestenfalls vereinfacht und beschleunigt (nicht jedoch ersetzt!), wodurch ein kritisch-reflektierender Umgang mit digitalen Texten erprobt werden kann. Andererseits kann die KI aber auch dabei unterstützen, eine Programmiersprache zu erlernen und so ein tieferes Verständnis für das Zustandekommen digitaler Texte aufzubauen. Ein Vorteil von ChatGPT und ähnlichen Chatbots ist dabei, dass die KI rund um die Uhr verfügbar ist und direkt Feedback erteilt – etwas, das insbesondere in den Geisteswissenschaften von Bedeutung ist, da das Programmieren hier nicht Haupt-, sondern allenfalls Nebengeschäft ist. Diese Verfügbarkeit kann jedoch auch kritisch betrachtet werden: Die Bereitstellung von KI, insbesondere das Trainieren von großen Sprachmodellen wie dem, das ChatGPT zugrunde liegt, ist mit immensen CO2-Belastungen verbunden. Es stellt sich demnach die Frage, wie mit derartigen ökologischen Konsequenzen der Verwendung von künstlicher Intelligenz umgegangen werden soll. Ebenfalls anzumerken ist, dass die Option, eine kostenpflichtige Version von ChatGPT zu erwerben, Bildungsungerechtigkeit verstärken könnte. Dies sollten Lehrende, die künstliche Intelligenz in ihre Lehre einbinden möchten, beachten. Möglicherweise wäre die Bereitstellung der kostenpflichtigen Version über die Universität eine geeignete Lösung für diese Problematik.
Aus Studierendensicht erscheint es uns wichtig, kritisch mit ChatGPT u.ä. umzugehen, was nicht bedeutet, entsprechende Ressourcen aus dem Lehrbetrieb zu verbannen, sondern sie aktiv und gegenstandsangemessen zu integrieren. Der Einsatz von KI wird in vielen Lehrveranstaltungen bereits mindestens diskutiert, teilweise auch in Anwendungen eingebunden. Dabei besteht ein starker Fokus auf der textproduzierenden Funktion von ChatGPT. Zielführender wäre jedoch, sich bewusst der Frage zu widmen, was ChatGPT in bestimmten Lern- und Arbeitsprozessen leisten kann bzw. wofür wir es nutzen können und auch, wofür nicht. Die Deutschdidaktik konnte für den Umgang mit Rechtschreibkorrekturhilfen herausarbeiten, dass eine Nutzung dann besonders effektiv ist, wenn die Lernenden mit den internen Abläufen vertraut sind. Gleiches sollte für den Umgang mit ChatGPT und Anwendungen anderer Anbietergelten. Die KI dient demnach als Unterstützung beim Lernen und Arbeiten. Es geht nicht um um einen kompletten Ersatz des kritisch denkenden Menschen, sondern lediglich um seine Entlastung in bewusst ausgewählten Arbeitsteilbereichen. Die Richtigkeit von Informationen muss dabei immer noch überprüft werden und Zeitersparnis und Effizienz abgewägt. Letztlich ist es dafür notwendig, sich zunächst mit der Funktionsweise von ChatGPT auseinanderzusetzen. Nur so kann ein ethischer und sinnvoller Umgang mit künstlicher Intelligenz erlernt werden.
James Wiebe studiert Germanistik und Geschichtswissenschaften im 6. Bachelorsemester und arbeitet derzeit mit digitalen Methoden, um seine Abschlussarbeit über deutschsprachige Schauerliteratur zu schreiben.
Helena Stahlschmidt studiert Linguistik mit dem Profil Computerlinguistik im 3. Mastersemester und interessiert sich insbesondere für die Interaktion zwischen Menschen und Maschinen sowie Robotern.
BiLinked ist ein hochschulweites Projekt, in dem Studierende und Lehrende gemeinsam digitale Lehr-/Lernformate entwickeln und erproben. Bei der Umsetzung stehen die studentische Partizipation und Kollaboration im Fokus.