ChatGPT in der Lehre

ChatGPT in der Lehre: Fluch oder Segen?

Seit ChatGPT Ende 2022 die Bühne betrat, hat er den Alltag von Millionen Menschen auf den Kopf gestellt – die Wissenschaftswelt bildet da keine Ausnahme. Besonders an Universitäten, den Tempeln menschlicher Forschung und Bildung, sind die Auswirkungen unübersehbar. Während die einen voller Begeisterung die neuen Möglichkeiten feiern, begegnen andere der Technologie mit Skepsis und fordern klare Regeln und einen bewussten Umgang. Diese Dynamik aus Faszination und Misstrauen lässt eine zentrale Frage aufkommen: Wie gestalten wir den Weg in eine Zukunft, in der Künstliche Intelligenz (KI) Teil unserer Forschung und Lehre wird, ohne die Menschlichkeit aus den Augen zu verlieren?

Nach zahlreichen Aufrufen von Bildungseinrichtungen und einer Umfrage der Universität Zürich zeigt sich seit 2023 ein deutlicher Rückgang in der Akzeptanz von KI. Swissuniversities, der Dachverband der Schweizer Hochschulen, reagierte im Frühjahr 2024 mit einem Positionspapier, das klar für die Integration von KI in die Lehre plädiert. Studierende sollen lernen, wie sie KI in der Praxis anwenden, die theoretischen Grundlagen verstehen und sich mit den ethischen Aspekten auseinandersetzen. Im Mittelpunkt stehen dabei Fragen zu Plagiaten, Datenschutz und den rechtlichen Konsequenzen des KI-Einsatzes. Gleichzeitig wird betont, dass «künstliche» Verbote wenig sinnvoll sind, da Studierende KI ohnehin nutzen werden. Der Weg führt also zu einer verantwortungsvollen Einbindung, statt zu Verboten. Dr., Professor Rolf Schwartmann der TH Köln hat sich besonders mit den rechtlichen Folgen auseinandergesetzt und schreibt:

«Passender ist es, die KI mit einem autonomen Tier zu vergleichen. Wie ein gut erzogener Hund mit gutem Wesen und ohne menschliche Agenda, aber einer unberechenbaren Schwäche für Eichhörnchen, die unkontrollierbar durchbricht, agiert auch generative KI autonom und unberechenbar. Sie muss durch den Menschen als Werkzeug eingesetzt und an die Leine genommen werden»

Trotz der klaren Position von swissuniversities bleiben die Meinungen über KI in der Lehre gespalten. Der bekannte Linguist Noam Chomsky kritisiert, dass Large Language Models wie ChatGPT sich grundlegend von menschlicher Vernunft unterscheiden. In seinen Überlegungen hebt Chomsky hervor, dass menschliches Denken auf der Fähigkeit zur Falsifizierung basiert – das heißt, wir können fehlerhafte Annahmen ausschließen und uns so der Wahrheit nähern. Künstliche Intelligenz hingegen operiert auf Basis von Wahrscheinlichkeiten und ist nicht in der Lage, das Mögliche klar vom Unmöglichen zu trennen, da ihre Ergebnisse sich je nach Datenlage ändern können. Chomsky greift in seiner Kritik sogar auf Hannah Arendts Konzept der Banalität des Bösen zurück und vergleicht ChatGPT mit einer Maschine, die verschiedene Standpunkte sammelt, aber keine Position einnimmt und somit keinerlei Verantwortung trägt. Der Mensch hingegen, so Chomsky, besitzt dank seiner Intelligenz die Fähigkeit, sich aus dieser Gleichgültigkeit zu befreien und eine bewusste Entscheidung zu treffen. Dieser Unterschied zwischen KI und menschlichem Denken wirft die entscheidende Frage auf: Wie sollten wir Künstliche Intelligenz in der Bildung einsetzen, wenn sie zwar Wissen generiert, aber keine Verantwortung übernehmen kann?

An Universitäten liegt die Verantwortung für den Umgang mit KI weiterhin bei den Nutzerinnen und Nutzern. Richard Socher, ein führender Experte auf dem Gebiet der KI, bringt jedoch folgende Frage auf: Warum die Lehre an KI anpassen, wenn man die KI an die Lehre anpassen kann? Mit seinem Unternehmen you.com entwickelte er eine Suchmaschine, die gezielt akademische Quellen bereitstellt – «transparent, nachvollziehbar und effizient». Socher sieht KI als Werkzeug, das den Zugang zu Wissen erleichtern soll. Dafür ist jedoch die Kooperation der Universitäten als Zentren der Forschung entscheidend. Nur durch Zusammenarbeit kann KI sinnvoll in die Lehre integriert werden.

Eine der größten Sorgen, die sowohl Lehrende als auch Studierende rund um den Einsatz von KI haben, betrifft den rechtlichen Bereich. Themen wie Urheberrecht und Datenschutz stehen dabei im Fokus. Bei schriftlichen Arbeiten übernehmen Studierende die Verantwortung, indem sie in der Eigenständigkeitserklärung ihre Arbeit als ihre Eigene ausweisen – etwas, das ChatGPT selbst, wie bereits erwähnt, nicht kann. Doch wie sicher kann man sich sein, ob der generierte Output urheberrechtlich geschützt ist oder nicht? Selbst wenn der Inhalt frei zugänglich ist, was ist mit den Daten, mit denen das Sprachmodell ursprünglich trainiert wurde?

Auch der Datenschutz wirft Fragen auf: Was, wenn KI in der Notenvergabe als Hilfsmittel eingesetzt wird? Reicht es, wenn der Mensch alle Bewertungskriterien festlegt, oder bleibt dabei ein Risiko bestehen? Professor Rolf Schwartmann schließt sich den Bedenken von Noam Chomsky an, wenn auch in etwas gemäßigter Form, und warnt vor dem sogenannten «Automatisierungsbias», der Tendenz, dem Output der KI blind zu vertrauen. Dieser kritische Punkt erfordert klare Richtlinien im Umgang mit KI, um eine verantwortungsvolle Integration in den akademischen Alltag zu gewährleisten.

KI ist mittlerweile ein fester Bestandteil unserer Realität – und damit auch der Lehre. Statt vor ihr wegzulaufen, sollten wir lernen, sinnvoll mit ihr umzugehen. Universitäten haben dabei schon immer die Aufgabe gehabt, kritisches Denken zu fördern und Orientierung in der Informationsflut zu bieten. Mit der zunehmenden Rolle von KI bei der Wissensaufbereitung und der Bewertung von Informationen wird diese Aufgabe noch wichtiger. Universitäten haben die Verantwortung, diesen Wandel aktiv mitzugestalten und ihren Beitrag zu leisten, indem sie die richtigen Rahmenbedingungen schaffen.

north