Kollege KI wird sich noch wundern: Bei schriftlichen Arbeiten könnten strenge Standards angelegt werden. Foto: Foto: Adobe Stock/Shafay

Auch an Hochschulen verbreitet sich der Textgenerator ChatGPT. Was bedeutet das für die Lehre und die Prüfungen? Die Uni Hohenheim sucht Antworten und setzt dabei auch auf praktische Erfahrungen.

Frage: „Wer bist du denn?“, tippt Andreas Reich in das Eingabefeld. „Erwischt, ich bin ein Bot. Soll ich dir beim Lernen helfen?“, erscheint prompt als Antwort. Verfasst hat sie eine Software namens Pedagogical Educational Editor (PET), die der Doktorand am Institut für Kommunikationswissenschaft der Universität Hohenheim entwickelt hat und die in einer Betaversion bereits im beginnenden Sommersemester auf dem Campus getestet werden soll.

Das System funktioniert mithilfe Künstlicher Intelligenz (KI) und soll den Studierenden als Trainingspartner dienen, der rund um die Uhr zur Verfügung steht. So kann der PET zum Beispiel auf Basis des Vorlesungsmaterials, das Dozentinnen und Dozenten zur Verfügung stellen, sinnvolle Fragen stellen, an denen Studenten ihr Wissen testen können – etwa zur Vorbereitung von Prüfungen. Umgekehrt kann man dem PET auch Fragen zum behandelten Stoff stellen oder ihn daraus Präsentationen erstellen lassen. „Er soll Studierenden begleitend zur Vorlesung helfen – wie ein menschlicher Tutor“, sagt Reich.

Die Nutzer sollen ganz normal mit dem Cyber-Tutor sprechen können. Bei der Vorführung klappt es mit der Spracherkennung allerdings nicht so ganz – vielleicht wegen des recht halligen Raums im Hohenheimer Schloss. Deshalb muss Reich an diesem Nachmittag in die Tasten greifen, um mit dem System zu kommunizieren. Der PET arbeite ähnlich wie ChatGPT – „nur besser“, versichert der 26-Jährige. „Bei unserem System können Studierende sicher sein, dass die Antworten auch stimmen.“ Während ChatGPT auch mit Texten trainiert wurde, in denen mitunter falsche Angaben stecken können, nutzt der PET nur verifizierte Informationen – nämlich die Vorlesungsskripte und Vortragsfolien der Lehrenden. Bald sollen zusätzlich auch Videoaufzeichnungen und ausgewählte Fachliteratur als Quellen genutzt werden.

Chatbot in der Vorlesung

Obwohl ChatGPT bisweilen Unsinn verzapft oder Dinge einfach erfindet, hat sich der Textgenerator des US-Unternehmens Open AI auch an den Universitäten schnell ausgebreitet. „Schon im zurückliegenden Wintersemester haben das bei uns manche Studenten genutzt“, sagt der Wirtschaftsinformatiker Henner Gimpel, der in Hohenheim das Fachgebiet Digitales Management leitet. Deshalb sei es höchste Zeit, den Studenten zu vermitteln, wie sie ChatGPT sinnvoll einsetzen können. Gimpel will die Software deshalb von der kommenden Woche an in vier seiner Vorlesungen verwenden. „Wir empfehlen unseren Studierenden, einen Account bei ChatGPT anzulegen.“

Der Digitalexperte ist auch Hauptautor eines Fachbeitrags, in dem er zusammen mit Vertretern anderer Hochschulen wie etwa der Universität Bayreuth grundlegende Überlegungen zum Einsatz von KI in der Hochschulausbildung anstellt.

ChatGPT könne zum Beispiel dabei helfen, Themen einzugrenzen oder Texte zusammenzufassen, sagt Gimpel. Im Hörsaal soll dann diskutiert werden, wie man mit den Ergebnissen umgehen sollte und wo die Grenzen der Software liegen. Auf dem Veranstaltungsplan seht zudem ein Seminar zu ethischen und sozialen Aspekten des Einsatzes sogenannter generativer KI – darunter versteht man ganz allgemein Programme, die nicht nur Texte, sondern auch Bilder kreieren. Schließlich soll ChatGPT Studierende auch beim Schreiben von Computerprogrammen unterstützen. „Wenn es um Standard-Probleme geht bin ich damit dreimal so effizient“, berichtet der Doktorand Reich.

Mehr mündliche Prüfungen

In der Fachwelt ist unumstritten, dass KI-Systeme künftig in vielen Berufen zum Alltag gehören werden. Daher sei es richtig, sie in das Studium zu integrieren, sagt Korinna Huber, Prorektorin für Studium und Lehre an der Uni Hohenheim. Allerdings seien dabei noch einige Fragen offen. So sei noch unklar, wie unbeaufsichtigte schriftliche Arbeiten künftig bewertet werden sollen – etwa Haus- und Abschlussarbeiten, an denen auch ein Chatbot mitgeschrieben haben könnte. „Wir wissen aber auch bisher nicht, ob vielleicht die Eltern oder andere Leute dabei geholfen haben“, fügt Huber hinzu. Um die Fähigkeiten und Kenntnisse der Studierenden besser beurteilen zu können, würden mündliche Prüfungen künftig vermutlich wieder einen höheren Stellenwert bekommen, schätzt die Prorektorin.

Bei schriftlichen Arbeiten könnten zudem strengere Standards angelegt werden. Allerdings brauche man in beiden Fällen mehr Dozentinnen und Dozenten zur Prüfung und Betreuung. Dass eine KI künftig die schriftlichen Arbeiten korrigieren und so das Personal entlasten könnte, hält Huber derzeit für Zukunftsmusik. Bis zum Beginn des Wintersemesters im Herbst will die Uni eine offizielle Rahmenregelung für Prüfungen in den Zeiten von ChatGPT ausarbeiten. Nötig sei aber eine übergreifende Lösung für alle Hochschulen, so Huber.

Die Prorektorin fragt sich zugleich, wie sich solche Programme auf das Lernverhalten junger Menschen auswirken. Viele hätten jetzt schon Probleme mit dem Schreiben von Texten. Und wer etwa die Fachliteratur von einer Software zusammenfassen lasse, tue sich schwerer, den Inhalt zu verstehen. „Die Künstliche Intelligenz weiß nicht, was wahr und was falsch ist. Unsere Aufgabe als Universität ist eigentlich, den Studierenden genau das beizubringen – und die Fähigkeit, das Wahre auch zu beweisen“, so Huber.