Es gibt sie noch nicht die einfachen Rezepte für ‚KI in der Lehre‘: Ein Zwischenfazit Januar 2024

Als ChatGPT vor gut einem Jahr auch für die Lehre und die Studierenden interessant wurde, dachten wahrscheinlich viele, in den nächsten 12 Monaten würden allgemeingültige Konzepte für den Umgang in der Lehre verfügbar sein. Dem ist nicht so. Etwas ernüchtert müssen wir feststellen, dass wir zwar alle Erfahrungen gesammelt haben mit Large Language Models und deren Einsatz in der Lehre, dass wir aber weit davon entfernt sind, ein einfaches Rezept oder Lösungsvorschläge präsentieren zu können. Es gibt sie im Moment nicht. Stattdessen geht es darum weiter Erfahrungen zu sammeln, und diese zu diskutieren: Der Dozierendentag im Mai wird das Thema aufnehmen.

KI in der Lehre an der HSLU I

Was wir feststellen: Die Studierende haben bereits gut gelernt mit Large Language Models umzugehen. Zum Teil heisst das aber, dass in Arbeiten von Studierenden direkt aus den Antworten der ChatGPT & Co., kopiert wird.

Für die Handhabung von KI in der Lehre an der HSLU I wurden im Herbstsemester 2023 einige Eckpunkte festgelegt: Grundsätzlich wird gewürdigt, dass KI-Tools weit entwickelt und in Standardsoftware integriert verfügbar sind. Für die HSLU I bedeutet dies in der Konsequenz, dass die Eigenleistung von Studierenden mehr Bedeutung erhält und das Zitieren von Quellen nicht immer vollumfänglich möglich sein wird. Studierenden werden aufgefordert, KI-Ausgaben kritisch zu prüfen und die Nutzung von KI-Tools für Bericht transparent zu diskutieren. Vor einer direkten Übernahme von KI-Texten wird gewarnt. Grundsätzlich entscheiden Modulverantwortlichen über die spezifische Umsetzung in den Modulen. Bei Prüfungen stellen wir uns auf vielfältigere Lösungen ein. Hier sind Ideen, Test und Erfahrungsberichte erforderlich.

  • Eine gute Übersicht zum empfohlenen Einsatz von AI für das wissenschaftliche Arbeiten (für Studierende) gibt der KI Werkzeugkasten

Konzepte und Praxisberichte auf KI in der Lehre

Der EU AI Act
Mit dem EU AI Act wurde 2023 ein Dokument geschaffen, welches auch für die Schweiz Relevanz haben wird. Philippe Hovaguimian diskutiert die wichtigsten Punkte aus dem für uns in einem Stand-Up. Und hält fest, dass der EU AI Act verlangt, dass «erkennbar sein muss, warum ein KI-generiertes Resultat auch falsch sein könnte.» Das bedeutet, dass wir künftig mit grosser Wahrscheinlichkeit sicherstellen müssen, dass Personen, welche von KI-Entscheiden betroffen sind, über den Prozess informiert werden und sie sich darüber informieren können, wie die Entscheidungen getroffen wurden. Das gilt namentlich für KI-gestützte Zulassungsprozesse an Hochschulen, wie auch für KI-gestützte Prognosen oder Bewertungen von/über Studierende/n, inklusive bei der Ermittlung von unerlaubtem Prüfungsverhalten. Der EU AI Act – konsolidierte Fassung

Dokumente für die Hochschullehre und KI

Praxisbericht: Prüfungen in Zeiten von ChatPGT:

KI-sichere Fragen sind (gemäss ChatGPT) solche, welche physische Interaktionen oder praktische Erfahrungen erfordern. Auch subjektive Evaluationen oder Meinungen und Vorlieben, sind für Sprachmodelle schwierig zu beantworten. In der Diskussion halten wir fest, dass es (ausser dem ChatGPT Verbot und mehr Aufsichtspersonal in Prüfungssituationen) im Moment keine schnellen Lösungen gibt.  Fest steht wohl nur, dass Prüfungsdesign und Evaluationskriterien in vielen Fällen überdacht werden müssen. Ausserdem steht fest, dass Studierende mit Zugang zu Zahlversionen von ChatGPT o.ä. möglicherweise bevorteilt werden. (Link zum Blogpost)

Praxisbericht KI bedienen lernen
Die Nutzung von Sprachmodellen ist nicht trivial. Erst ein gutes Problemverständnis befähigt uns, eine passende Frage in Textform zu formulieren. Dies stellen wir in einer erstem Stand-Up im April 2023 fest. Gleichzeitig stellen wir fest, dass ChatGPT sich eben auch dadurch auszeichnet, dass Studierende mit ihrem eigenen Vokabular und ihrem Wissensniveau Fragen stellen können und Antworten erhalten, die sie verstehen.  In Vorlesungen hingegen kann Fachvokabular eine Hürde darstellen für Studierende mit wenig Vorwissen. Studierende ohne Grundwissen dürften oft eigentliche Schlüsselwörter fehlen, um beispielsweise Details zum Systemstart von Computern selbst zu erarbeiten. Nino Ricchizzi hat daher in seiner Übungen Detailfragen mit Fachbegriffen zur Verfügung gestellt. Das hat gut funktioniert und bringt den Vorteil, dass mit kurzen ChatGPT-Recherche-Übungen Grundlagenwissen erarbeitet und Wissensunterschiede ausgeglichen werden kann (vergl. Blogpost vom 22. Jan.24). Festgehalten wurde, dass die Ergebnisse solcher Übungen für verschiedene Fachbereiche unterschieldich ausfallen dürften. Antworten von ChatGPT zu Prozessabläufen, Methodiken oder Organisationen dürften weniger ergiebig ausfallen als Antworten zu technischen Fragen.

Weiterführende Links: