»Chatbot, hilf mir mit meinem Abschluss!« – Wenn Unis selbst KI zur Verfügung stellen

Neben zahlreichen kommerziellen Anbieter*innen, die KI-Tools für verschiedenste Zwecke bereitstellen, mischen auch Hochschulen in diesem boomenden Bereich mit, 32 davon etwa im Rahmen des Projekts »Academic AI«. Was sind die Folgen für Lehre und Studium? Was verändert die KI an der Universität tatsächlich? Und was nicht?

© Adobe Stock

Vor etwa drei Jahren wurden generative KI-Modelle wie Chat GPT für die breite Masse zugänglich. Mittlerweile gibt es Chatbots wie Sand am Meer, AI-Slop in sozialen Medien und kaum ein Entkommen für alle Nutzer*innen des Internets. Ein Bereich, in dem der KI-Boom für besonders viel Kontroverse gesorgt hat, ist die Bildung: Berichte über Schummelversuche sowie Meldungen, dass Chat GPT große Teile der Matura bestehen könne und manche Hochschulen wegen zu viel studentischer KI-Nutzung vom Verfassen von Abschlussarbeiten absehen würden, schlagen regelmäßig und weltweit große Wellen. Man könnte also meinen, dass KI und universitäre Bildung schwer zusammengingen.

U:AI – Who Is She?

Demgegenüber steht das Kooperationsprojekt »Academic AI« des Unternehmens Acomarket, das KI-Modelle auf einer abgeschotteten Instanz, also in einem eigenständigen Bereich, zugänglich macht, ohne dass eingegebene Daten und hochgeladene Dokumente diese Instanz verlassen. Ziel des Projekts ist es, laut Anbieterin, eine generische und skalierbare Cloudplattform bereitzustellen, auf der Large Language Models (LLMs) ohne Sicherheitsbedenken genutzt werden können. Mittlerweile sind 32 Hochschulen dem Projekt beigetreten, unter ihnen auch die Universität Wien mit ihrer U:AI. Aber wie kam es dazu, dass Universitäten KI zur Verfügung stellen, und was genau unterscheidet U:AI von anderen KI-Modellen?

»Für die Hochschulen war klar: KI ist da, ist gekommen, um zu bleiben, und darauf muss man reagieren«, erklärt Laura Gandlgruber, Programmmanagerin für KI in Studium und Lehre an der Universität Wien. »Entsprechend muss man sowohl Mitarbeitenden als auch Studierenden eine gesicherte Umgebung zur Verfügung stellen, in der sie dieses Tool testen und dabei datenschutzkonform arbeiten können.« Die Teilnahme am Kooperationsprojekt sei natürlich auch eine Budgetfrage, weil Institutionen die hohen Kosten, die damit verbunden sind, eine jeweils eigene KI zu bauen, schwer stemmen könnten.

Laura Gandlgruber, KI-Koordinatorin (Bild: Alexander Bachmayr)

Datenschutzkonform?

Anders als kommerzielle Tools, die fast monatlich ein neues Modell veröffentlichen, könne U:AI diesen Zyklus nicht einhalten, führt Gandlgruber weiter aus. Das zeigt sich auch im Praxistest: An die Leistungsfähigkeit von Chat GPT und Co scheint die Unisoftware nicht ganz heranzukommen. Die Vorteile von U:AI würden aber vor allem darin liegen, dass das Tool Studierenden und Lehrenden kostenlos zur Verfügung stehe und den geltenden Datenschutzbestimmungen entspreche: »Für Studierende ist das besonders relevant, wenn sie zum Beispiel mit Versuchspersonen arbeiten und personenbezogene Daten auswerten müssen. Mit einem kommerziellen Tool dürfte man das nicht«, so Gandlgruber. Sie ergänzt, dass man eigene Daten ohnehin nicht blind in irgendwelche Tools eingeben solle, weil man leicht die Kontrolle darüber verliere, was mit ihnen passiert. Im Rahmen von U:AI könne man außerdem für Aufgaben, die immer wieder anfallen, eigene kleine Chatbots bauen und diese auch teilen, was viele kollaborative Möglichkeiten eröffne.

Mit der Beteiligung an »Academic AI« reagiert man also auf eine technologische Realität, die längst an den Hochschulen angekommen ist. Aber ändert sich dadurch tatsächlich etwas an Lehre und Lernen? Laut Christian Swertz, Professor für Medienpädagogik an der Universität Wien: nein. Zumindest in der Kurzfassung. Er erzählt von Behauptungen im pädagogischen Bereich, wonach KI-Systeme pädagogische Prozesse unterstützten, eine Individualisierung von Lernverläufen ermöglichten und damit Lernprozesse optimierten. Es gebe keine Verbesserung pädagogischer Prozesse durch digitale Technologien, so Swertz, weder durch KI-Systeme noch durch andere. »Das ist eine Geschichte, die seit den 1950ern erzählt wird und sich seitdem zuverlässig als falsch erwiesen hat.« Und es sei eine Lüge, dies weiter zu behaupten: »Über die Jahrzehnte hinweg ist das so gründlich widerlegt worden, dass man es nicht mehr anders sagen kann.«

Swertz’ Kritik richtet sich dabei nicht gegen einzelne Tools oder Projekte, sondern gegen ein Narrativ, das technologische Innovation regelmäßig mit pädagogischem Fortschritt verwechsle. Statt immer neue Technologien in Bildungsprozesse zu integrieren, plädiert er für eine stärkere Vermittlung von Mediengestaltung und Medienkritik. Junge Menschen sollten nicht nur lernen, Technologien zu bedienen, sondern auch ihre Funktionsweisen, Interessenslagen und Machtstrukturen zu hinterfragen. Medienkritik müsse dabei immer mit dem Kontext der Veröffentlichung von Informationen beginnen: »Wenn man eine Nachricht sieht, sollte die erste Frage nicht sein, ob das stimmt oder nicht. Es stimmt schließlich nie völlig. Die erste Frage muss sein: In welchem Medium wurde das veröffentlicht? Wem gehört das Medium? Welche Interessen vertreten die Besitzer*innen?« Dabei sei das Ziel, sich in einer komplexen Medienumgebung orientieren zu können und diese so mitzugestalten, dass man zufrieden in ihr leben könne – etwa, um sich selbst öffentlich zu äußern, an politischen Debatten teilzunehmen oder sich an demokratischen Prozessen zu beteiligen.

Abseits der Debatte, ob KI Bildung verbessert oder nicht, stellt sich jedoch ganz praktisch die Frage, was sie mit dem universitären Alltag macht. Thomas Waitz, Tenure-Track-Professor für Medienkulturwissenschaft an der Universität Wien, ortet hier in erster Linie eine Vertrauenskrise. Man bekomme plötzlich Texte in einem Ton, den Studierende üblicherweise nicht verwendeten – eben im typischen Chat-GPT-Sound, immer alert, wissend und perfekt in drei Punkte aufgeteilt. »Da ist das Vertrauen natürlich weg. Aus Lehrendensicht und potenziell auch aus Studierendensicht, denn auch Studierende können sich ja nicht mehr sicher sein, dass sie es tatsächlich mit Rückmeldungen von Lehrenden zu tun haben.« In zweiter Linie, meint er, würde unter dem Vorzeichen des KI-Booms eine Frage neu aufgeworfen werden, die immer schon im Raum stand: Was ist eigentlich der Sinn von universitärer Bildung?

Christian Swertz, Bildungswissenschaftler (Bild: Martina Janiba)

Eine Vertrauenskrise

Für Waitz führt diese Frage direkt zum Kern dessen, was an der Universität überhaupt unter Lernen verstanden wird: »Wenn Lernen vor allem Reproduktion von Wissen sein soll, also dass ich möglichst fehlerfrei wiedergebe, was Lehrende hören wollen, dann hat generative KI tatsächlich ›gewonnen‹«. In diesem Fall, so Waitz, brauche es die Universität in ihrer bisherigen Form nicht mehr. Er habe jedoch eine andere Vorstellung von Lernen: Im Mittelpunkt sollte nicht das Ergebnis stehen, sondern der Prozess.

Außerdem betont er, dass sich die Frage nach dem Sinn universitärer Bildung nicht losgelöst von den Bedingungen stellen lasse, unter denen studiert wird. Viele Studierende stünden unter massivem Zeit- und Leistungsdruck: Zwei Drittel bis drei Viertel würden neben dem Studium arbeiten, während die Universität auf Vollzeitstudien ausgerichtet sei. Gleichzeitig müsse die Universität möglichst viel Prüfungsaktivität vorweisen, um finanziert zu werden, und schaffe deshalb zum Beispiel mit Leistungsstipendien einen Rahmen, in dem Regelkonformität, Tempo und gute Noten besonders belohnt werden.

Viele Studierende würden das Studium daher zunehmend als Abfolge von Prüfungen erleben, die es möglichst effizient zu bewältigen gelte. Da sei es kaum überraschend, dass nach Abkürzungen gesucht werde, und: »KI ist aus Sicht der Studierenden eine Abkürzung«, so Waitz. Nicht weil sie nicht lernen wollen würden, sondern weil die Rahmenbedingungen es ihnen zunehmend erschwerten, sich auf langsame, offene Lernprozesse einzulassen.

Thomas Waitz, Medienwissenschaftler (Bild: Privat)

Nicht neu

Es zeigt sich vor allem eines: KI ist ein Werkzeug, darf aber keinesfalls eigene Leistung ersetzen. Wer in Zeiten vor leicht zugänglicher KI schummeln wollte, habe auch damals schon Wege gefunden, das zu tun, erklärt Laura Gandlgruber. Bestehende Ungleichheiten verschwinden durch neue Tools ebenfalls nicht, sondern passen sich diesen an. Wie bei früheren technologischen Umbrüchen verändern sich weniger die grundlegenden Strukturen von Bildung als die Mittel, mit denen gearbeitet wird.

Auch aus Christian Swertz’ Sicht hat sich nichts Grundlegendes verändert: Die theoretischen Konzepte, um KI-Systeme zu verstehen, seien seit Jahrzehnten bekannt, und der unhinterfragte Glaubenssatz, dass sich mit ihnen messbare Verbesserungen pädagogischer Prozesse erzielen ließen, nehme dogmatische, teils religiöse Züge an, meint er. Für Thomas Waitz liegt der Fokus ebenso nicht auf der Technologie selbst. Statt über neue Tools müsse man über den Sinn universitärer Bildung und die Rahmenbedingungen sprechen, die Lernen überhaupt ermöglichen: »Das sind ganz andere Fragen, und die haben überhaupt nichts mit KI zu tun.« Dass KI trotzdem oft als derart transformativ inszeniert wird, liegt auch an den Interessen der Konzerne, die sie entwickeln und vertreiben. Ihre Geschäftsmodelle beruhen darauf, KI als leistungsfähiger und universeller darzustellen, als sie es tatsächlich ist, trotz hoher Fehlerquoten und begrenzter Verlässlichkeit. Für Studium und Lehre verschiebt sich dadurch weniger das Lernen selbst als die Verantwortung dafür, mit diesen Werkzeugen kritisch umzugehen.

Nähere Informationen zu U:AI gibt es hier. Christian Swertz hat zum Thema unter anderem die Texte »Künstliche Intelligenz statt Bildung« und »Nicht schon wieder« verfasst. Beide sind in der Online­zeitschrift Medienimpulse erschienen.

Newsletter abonnieren

Abonniere unseren Newsletter und erhalte alle zwei Wochen eine Zusammenfassung der neuesten Artikel, Ankündigungen, Gewinnspiele und vieles mehr ...