Zum Inhalt springen

ChatGPT und Co.: Lernen mit und über KI an der Hochschule 

VHE-Abend vom 28. März, HSLU-M  

Seit der Veröffentlichung von ChatGPT im vergangenen Herbst ist viel passiert: Student:innen haben sofort neugierig versucht herauszufinden, wie gut sich mit der Anwendung Seminararbeiten schreiben lassen (Fazit: So einfach und vor allem zeitsparender ist das auch wieder nicht). Dozent:innen liessen besorgt ihre Prüfungsfragen testweise durch ChatGPT beantworten um zu sehen, wie «betrugssicher» ihre Prüfung noch ist (Ergebnis: Viele Prüfungsfragen beantwortet ChatGPT mindestens auf dem Niveau einer leidlichen Student:in).1 Forscher:innen haben darüber sinniert, ob ChatGPT als Autor:in angeführt werden soll bzw. darf bei Publikationen (Nein, haben die meisten wissenschaftlichen Zeitschriften mittlerweile entschieden).2 Und die Departemente und Institute haben Leitfäden entwickelt, wie die Student:innen mit ChatGPT generierte Texte kennzeichnen sollen (Konsens: Als Quelle kann ChatGPT definitiv nicht angesehen werden. Aber ja, die Deklarierung von ChatGPT als Hilfsmittel kann durchaus sinnvoll eingefordert werden). 

Erfahrungen austauschen 

Kurz: es wurde viel ausprobiert, Erfahrungen gesammelt und einiges wieder verworfen im Umgang mit ChatGPT in der Hochschullehre. In diesem Kontext hatte der VHE-Abend «ChatGPT und Co.: Lernen mit und über KI an der Hochschule» vom Dienstag, 28. März an der HSLU Musik zum Ziel, innerhalb der HSLU eine Plattform zu bieten, um über die Departemente hinweg von den gegenseitigen Erfahrungen zu lernen, offene Fragen zu diskutieren, Best Practice auszutauschen und sich zu vernetzen. 

Donnacha Daly leitet den B.A. Studiengang Artificial Intelligence & Machine Learning am Departement Informatik. Er gab eine kompakte Einführung, was ChatGPT und Co. - Generative AI and Large Language Models – sind, was sie leisten können und wo ihre Grenzen liegen.3 Seine Prognose: Es kommt eine massive gesellschaftliche Transformation auf uns zu – und damit auch auf die Hochschulen. Gleichzeitig hat er auf einen entscheidenden Punkt von ChatGPT und Co. hingewiesen: Large Language Models können nicht unterscheiden, was wahr ist und was nicht, weil die Modelle im Grunde genommen nichts anderes tun, als Wörter aneinanderzureihen aufgrund von Wahrscheinlichkeitsverteilungen. Die Computer-Linguistin Emily Bender hat dafür den Begriff des «Stochastic Parrot» geprägt (Bender u. a. 2021). Sie argumentiert, dass sich Sprache ganz wesentlich aus Form und Bedeutung zusammensetzt. Während die Modelle ausgezeichnet darin sind, die Form menschlicher Sprache bis zum Punkt der Ununterscheidbarkeit zu imitieren, haben sie gleichzeitig keinerlei Zugriff auf die Bedeutungsebene.4

Nino Ricchizzi, Dozent am Institut für Informatik, hat verschiedene didaktische Szenarien des Einsatzes von ChatGPT miteinander verglichen. Je nach Aufgabenstellung und Expertise der Student:innen kann der unterstützende Einsatz von ChatGPT zur Folge haben, dass Student:innen besser, aber auch schlechter abschneiden beim Lösen von Übungsaufgaben. Es gilt also kritisch zu prüfen, welche Effekte ChatGPT als Werkzeug bei Lernprozessen hat. 

Als Einstieg in die Diskussion erinnerte David Loher vom ZLLF daran, dass einige der Fragen, die aktuell so kontrovers verhandelt werden im Zusammenhang mit ChatGPT in der Lehre, gar nicht so neu sind. Bereits der deutsch-amerikanische Informatiker Joseph Weizenbaum, der 1966 den ersten Chatbot ELIZA entwickelt hat, fragte sich, was genuin menschliches Denken und Handeln ausmacht angesichts von Maschinen, die immer menschenähnlichere Fähigkeiten entwickeln und was dies für den Bildungsauftrag der Hochschule bedeutet (vgl. Weizenbaum 1976). 

Interdisziplinäre Perspektiven 

In der anschliessenden Debatte zu Lernen, Lehren und Prüfen im Zeitalter von KI waren vor allem zwei Aspekte bemerkenswert. Erstens scheint die Frage nach der «Sicherheit» von verschiedenen Prüfungsformate und ihrer Betrugsanfälligkeit mittlerweile etwas in den Hintergrund gerückt zu sein. Das ist insofern erfreulich, als es erlaubt, von der unproduktiven Frage wegzukommen, wie man am Besten Betrug verhindert in der Prüfung hin zu den entscheidenden Fragen, welche auf Lernprozesse, Kompetenzen der Student:innen und die gesellschaftlichen Aufgaben der Hochschule fokussieren. Zweitens hat sich gezeigt, dass sich je nach disziplinärem Hintergrund der Dozent:innen ganz unterschiedliche Perspektiven auf KI-Anwendungen und den damit einhergehenden Fragen ergeben. 

Der VHE-Abend hat gezeigt, dass eine produktive Auseinandersetzung mit der Frage zum Einsatz von KI-Anwendungen in der Lehre eine interdisziplinäre Perspektive braucht, weil hier technische, gesellschaftliche und lerntheoretische Aspekte zusammenkommen, die in ihrer gegenseitigen Bedingtheit betrachtet werden müssen. 

 

1 Mit der Veröffentlichung des Nachfolgemodells GPT-4 im März 2023 – ChatGPT basiert noch auf GPT-3.5 – wurde die Leistung nochmals deutlich gesteigert, wie der Technical Report von OpenAI zeigt (vgl. OpenAI 2023). 

2 Die Zeitschrift Science hat, zusammen mit vielen weiteren führenden Wissenschaftszeitschriften Anfang 2023 klargestellt, dass ChatGPT nicht als Mitautor:in aufgeführt werden kann (Thorp 2023; vgl. auch Sample 2023). 

3 Folien zur Präsentation von Donnacha Daly

4 Weitere Informationen rund um Künstliche Intelligenz der HSLU-I.

 

Bibliografie 

Bender, Emily M., Timnit Gebru, Angelina McMillan-Major, und Shmargaret Shmitchell. 2021. «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?» In, 610–23. FAccT ’21. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922. 

OpenAI. 2023. «GPT-4 Technical Report». arXiv. https://doi.org/10.48550/arXiv.2303.08774. 

Sample, Ian. 2023. «Science Journals Ban Listing of ChatGPT as Co-Author on Papers». The Guardian, 26. Januar 2023, Abschn. Science. https://www.theguardian.com/science/2023/jan/26/science-journals-ban-listing-of-chatgpt-as-co-author-on-papers. 

Thorp, H. Holden. 2023. «ChatGPT is fun, but not an author». Science 379 (6630): 313–13. https://doi.org/10.1126/science.adg7879. 

Weizenbaum, Joseph. 1976. Computer power and human reason: from judgment to calculation. San Francisco: W. H. Freeman. 

Beitrag teilen in