Künstliche Intelligenz

Wie Studierende KI an der Uni nutzen – und was Experten davon halten


Es ist 23 Uhr. Die Abgabefrist der Hausarbeit ist am nächsten Morgen. Im schlimmsten Fall bedeutet das eine mühselige Nachtschicht, um noch irgendwie zu bestehen. Für viel mehr ist keine Zeit.

Diese Erfahrungen machen einige Menschen während ihres Studiums. Doch vielleicht bekommen zukünftige Absolvent:innen mehr ruhige Nächte. Denn immer häufiger ist ChatGPT die Antwort auf die Forschungsfrage in der Hausarbeit. Ein nicht repräsentativer Forschungsbericht der Hochschule Darmstadt legt nahe, dass bereits 90 Prozent aller Studierenden in Deutschland KI-Tools für die Uni nutzen.

Einer von ihnen ist Alex (Name geändert). Er greift im Studium öfter auf ChatGPT zurück. Der 23-Jährige studiert Kindheitspädagogik in Hildesheim. „Ich habe mir tatsächlich auch schon unbenotete Arbeiten davon schreiben lassen“, erklärt er. Für ihn ist die generative KI eine Erleichterung. Die Universitäten stehen bei Studierenden wie Alex dagegen vor einer großen Aufgabe. Denn durch die großen Sprachmodelle verändert sich die Art, wie Wissen überprüft wird. Aber wie sollten Hochschulen damit umgehen?

Martin Wan beschäftigt sich mit Fragen wie diesen. Er ist Projektleiter für die Hochschulrektorenkonferenz (HRK) im Hochschulforum Digitalisierung (HFD). Das HFD unterstützt Hochschulen dabei, Fragen zum Einsatz von KI etwa im Studium und der Lehre zu meistern. Während es vereinzelte Stimmen gibt, die nach einem Verbot rufen, hält Wan solche Maßnahmen für falsch. „Die Technologie existiert nun mal. Dadurch ist ein reflektierter Umgang wichtig, der auch an Hochschulen eingeübt werden muss“, sagt er.

Dass es sich dabei um einen langwierigen Prozess handelt, zeigt sich anhand vieler Beispiele. Von einem reflektierten Umgang scheint man nämlich noch weit entfernt zu sein. Im Netz, etwa auf Reddit, berichtet ein Professor über die miserablen Prüfungsleistungen seiner Studierenden. Von zehn korrigierten Bachelorarbeiten seien vier durchgefallen. Alle Student:innen hätten entweder Quellen erfunden oder unpassende Quellen verwendet. Die Vermutung: Die KI hat bei der Literatur halluziniert und Inhalte erfunden. Es ist nicht die einzige Geschichte dieser Art. Das Magazin Rolling Stone berichtete etwa über einen texanischen Professor, der einen Großteil seines Kurses wegen der Verwendung von ChatGPT durchfallen lassen wollte.

In Deutschland gab es bislang nur in einem Fall ein rechtskräftiges Urteil. Die TU München lehnte einen Bewerber ab, der im Motivationsschreiben mutmaßlich KI eingesetzt haben soll. Das Verwaltungsgericht gab der Uni recht und der Bewerber wurde nicht zugelassen. Das Gericht traute den Professor:innen zu, KI-Arbeiten zu erkennen.

„Wenn Studierende die KI nicht kompetent beherrschen, dann kommt ein Bullshit-Bingo heraus“, sagt auch Bernhard Ertl, der an der Universität der Bundeswehr in München zum Lernen und Lehren mit Medien forscht. „Da weiß ich sofort: Diese Textstellen hat noch niemand zuvor gelesen, weil Teile davon einfach hanebüchen sind.“

Bei Maximilians Hausarbeiten wird wohl kein Bullshit-Bingo herauskommen. Der 24-Jährige studiert Data Science im Master an der TU Wien. Statt ChatGPT als Ghostwriter zu verwenden, nimmt er das Tool lieber als Startpunkt für seine Recherche. „Wenn ich am Anfang von einer Hausarbeit einen gewissen Überblick über den Themenbereich bekommen muss, dann eignet sich ChatGPT schon sehr gut“, erklärt er. „Ich kann quasi am Anfang, basierend auf der Forschungsfrage, direkt eine Idee bekommen, wie der aktuelle Stand der Wissenschaft da aussieht.“

Alex geht anders an die Aufgabe. Er recherchiere erst Literatur. „Dann lasse ich ChatGPT den Text so schreiben, dass meine Literatur dafür passt“, sagt er. Entdeckt er bei seiner Recherche Wörter, die er nicht versteht, lasse er sich diese von der KI erklären. Maximilian macht es ähnlich. „So kann ich komplexere Themen runterbrechen, falls ich mal wirklich nichts verstehe“, sagt der Wiener Student. „Oft kann ChatGPT das in eine verständlichere Sprache übersetzen.“

Bernhard Ertl hält den Ansatz für sinnvoll, ChatGPT als ergänzende Hilfe zu verwenden. „Die KI kann ein Werkzeug sein, mit dem die Studierenden zu besseren Ergebnissen kommen, wenn sie sich entsprechend in dieses Werkzeug reinarbeiten“, sagt er. Doch das ist nicht immer der Fall. „Dann wird es schlechter, weil sie einfach nur Prompts machen und was generiert wird, in die Arbeit einfügen, und das nicht verstehen“, ergänzt er.

Alex glaubt, dass es für die Dozierenden kaum erkennbar sei, ob er oder die KI die Hausarbeit geschrieben hat. „Ich muss auch sagen, ich hatte immer Angst, wenn meine Arbeiten durch Plagiatsprüfer überprüft werden. Aber auch da muss ich sagen: Es hat bis jetzt jedes Mal funktioniert“, erzählt er.

Plagiatsprüfer überprüfen, ob die Autor:innen ihren Text abgeschrieben haben. Dabei vergleichen sie die Arbeit mit einer Datenbank aus wissenschaftlichen Texten. Am Ende kommt dabei eine Prozentzahl raus, die bestimmt, wie viel der eingereichte Text denen aus der Datenbank ähnelt. Oft braucht es allerdings eine genaue Überprüfung, um herauszufinden, ob es sich um Ähnlichkeiten oder um wirkliche Plagiate handelt.

Wer beim Abschreiben erwischt wird, fällt durch. Das gilt auch, wenn die KI zufällig dieselben Wörter verwendet. Mittlerweile gibt es auch KI-Detektoren. Die sollen erkennen, ob Studierende bei ihrer Arbeit Texte mit einem KI-Chatbot geschrieben haben. Eine Studie der British University Vietnam und der James Cook University in Singapur zeigt: Oft sind diese Tools sehr ungenau. Einrichtungen wie die Uni Hannover verwenden deswegen Tools dieser Art nicht. In einer Stellungnahme der Universität zur Verwendung von KI-Detektoren heißt es, dass „die Ressourcen der Hochschulen besser in die Anpassung der Prüfungskultur und -formate gesteckt werden sollten“.

Wer das als Freifahrtschein für die KI-Nutzung sieht, sollte trotzdem auf die KI-Richtlinien der jeweiligen Universität achten. So muss man etwa an der Universität zu Köln kenntlich machen, ob und wie KI bei einer Hausarbeit verwendet wurde. Das bereits erwähnte Gerichtsurteil aus München greift die Universität auch auf. „Bei Täuschungshandlungen kann dabei der sogenannte Anscheinsbeweis geführt werden“, heißt es auf der Webseite. Sollten Prüfer:innen mögliche Anzeichen wie erfundene Quellen für eine unrechtmäßige KI-Nutzung feststellen, zählt das in Köln als Täuschung.

Eine Studie aus dem „International Journal of Educational Technology in Higher Education“ zeigt auch andere Beweggründe auf, ChatGPT in der Uni zu nutzen. Dabei decken die Forscher:innen auf, dass Studierende, die unter großem Druck stehen und einen hohen Workload haben, eher auf ChatGPT zurückgreifen. Besonders vorsichtige Studierende schrecken eher vor der Verwendung zurück – aus Angst vor Konsequenzen.

Wenn Studierende wie Alex Hausarbeiten mit ChatGPT schreiben, ist das für Wan ein Warnsignal. „Ist die Art und Weise, wie wir prüfen, sinnvoll? Fördern wir damit Kompetenzen?“, fragt er. Die Studie zeigt nämlich auch: Wer ChatGPT während des Studiums exzessiv nutzt, erzielt schlechtere Ergebnisse. Trotzdem oder vielleicht sogar deswegen sieht Wan in der KI eine Chance, eine moderne Prüfungskultur zu schaffen, die nicht stumpf Wissen abfragt und stattdessen die Anwendung in den Fokus stellt.

Einen offenen Umgang mit dem Thema gibt es laut Alex an seiner Hochschule nicht. „Ich habe da jetzt noch nicht wirklich viel mitbekommen“, erzählt er. Auf der Webseite der Universität finden sich hingegen viele Infos. Sogar einen kostenlosen Zugang zu ChatGPT 4o samt Handlungsempfehlungen für Studierende gibt es. Lehrende sind etwa angewiesen, Prüfungsaufgaben so zu stellen, dass eine KI nicht ausreicht, um sie zu beantworten.

Wan und Ertl sind sich einig: Es braucht die passenden Strukturen für KI. Dafür hat die Hochschulrektorenkonferenz auf über 40 Seiten sieben Handlungsempfehlungen verfasst. Darunter fällt zum Beispiel, dass es ein größeres Verständnis über das Thema benötigt oder Hochschulen Räume für einen interdisziplinären Austausch fördern sollten. „Vor allem empfehlen wir auch nochmal ganz klassische Kompetenzen wie Quellen- und Ideologiekritik einzuüben“, so Wan.

Studierende sollten sich bewusst sein, dass KI-Tools halluzinieren und nicht belegbare Dinge als Fakten darstellen können. „Und das geht bis zu einer Ideologiekritik der Anbieter“, führt Wan fort. Beim Verwenden von Deepseek sollte man im Hinterkopf haben, dass das Tool eher Antworten liefert, die der ideologischen Linie der chinesischen Regierung entsprechen.

Bernhard Ertl arbeitet gerade an einem Projekt, bei dem interkulturelle Trainings mit einem KI-Avatar erleichtert werden sollen. „Das funktioniert ganz gut, wenn es etwa ein Englisch-Training ist, damit die Leute Übung bekommen, in der Sprache zu reden“, erklärt der Professor. Avatare dieser Art sollen aber auch als Lernpartner funktionieren, „der die Leute beim Lernen unterstützt, Fragen beantwortet oder Sachen zusammenfasst.“

Für Studierende wäre das wohl ein Segen. Zumindest erzählen sowohl Alex als auch Maximilian, dass Künstliche Intelligenz ihren Uni-Alltag enorm erleichtert – entweder als Recherche-Hilfe, als Erklär-Tool, aber auch als Ghostwriter. Wer KI falsch in der Uni einsetzt, lernt nicht nur weniger, sondern läuft auch Gefahr, eine schlechte Prüfungsleistung abzugeben. Das Studium wird durch die Sprachmodelle also nicht komplett abgeschafft.

Hochschulen stehen nun vor der Aufgabe, KI so in die Studiengänge zu integrieren, dass Studierende bewusst damit umgehen können. Dafür müssen sie auch überarbeiten, wie sie gelerntes Wissen prüfen, damit nicht mal eben ganze Hausarbeiten gepromptet werden können. Ertl geht davon aus, dass KI den Status von Computern oder Internet-Tools einnehmen wird, die Studierende durch ihren Alltag begleiten. „Das ist ähnlich wie mit einem Hammer“, sagt er. „Ich muss den Hammer so bedienen, dass ich mir nicht auf die Finger haue und dann der Nagel so in der Wand ist, damit das Bild hängen bleibt.“

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Beliebt

Die mobile Version verlassen