Chat-GPT erobert die Universitäten: Darf der Computer die Seminararbeit schreiben?
Fast alle Studenten lassen sich beim schriftlichen Arbeiten von künstlicher Intelligenz helfen. Manche halten das für Betrug, andere für die Zukunft der Bildung.
Wer eine Vorstellung davon bekommen wird, welch dramatische Umwälzungen sich derzeit an Universitäten in der ganzen Welt abspielen, muss nach Nairobi gehen. Die kenianische Hauptstadt gilt als globales Zentrum der akademischen Auftragsmogelei. Für ein paar hundert Dollar schreiben dort Ghostwriter Masterarbeiten oder absolvieren Online-Kurse für zahlungskräftige Studenten in reichen Ländern.
Das Internet brachte arbeitsscheue oder überforderte Studenten aus dem Norden mit jungen Genies aus dem Süden zusammen. Über Websites wie essayshark.com, eine Art Uber für Seminararbeiten, wird einem in intellektuellen Notfällen sieben Tage in der Woche, 24 Stunden am Tag, geholfen – jede Manuskriptseite kostet 13 Dollar 40.
Die Geschichte einer glücklichen Spinne
Doch seit dem 30. November 2022 ist alles anders. An diesem Tag wurde «der Betrug demokratisiert», wie es der englische Bildungsforscher Mike Sharples von der britischen Open University nennt: An diesem Tag machte das amerikanische Unternehmen Open AI seine künstliche Intelligenz Chat-GPT kostenlos im Internet zugänglich.
Sharples beschäftigt sich schon seit vierzig Jahren mit künstlicher Intelligenz (KI) in der Bildung. „Ich war wahrscheinlich die erste Person, die in diesem Gebiet mit texterzeugender künstlicher Intelligenz gearbeitet hat.“ Doch die Systeme waren über Jahrzehnte unbrauchbar. Auf einigen Spezialgebieten wurden wohl Fortschritte erzielt, aber auch ein nur annähernd natürliches Sprachverständnis schien ausser Reichweite.
Dass sich etwas veränderte, bemerkte Sharples, als er vor zwei Jahren exklusiven Zugang zu GPT-2 bekam, dem Vorläufer von Chat-GPT. Damals gab er der Maschine den Auftrag, eine Kindergeschichte über eine glückliche Spinne zu schreiben. Tatsächlich kam eine passable Erzählung zurück.
„Was mich am meisten erstaunte, war, dass die Spinne sprechen konnte“, erinnert sich Sharples. Andere Anwender hätten über dieses Detail hinweggeschaut, doch dem Bildungsforscher war klar, dass er eben Zeuge einer geistigen Großtat geworden war. „Ich konnte mir einfach nicht vorstellen, wie eine künstliche Intelligenz, die nicht für genau diese Aufgabe geschaffen wurde, wissen konnte, dass Spinnen in Kindergeschichten sprechen können.“
Als ein Jahr später Chat-GPT über die Welt kam, brach der Markt für die kenianischen Studienhelfer zusammen. Warum teures Geld ausgeben, wenn eine Maschine kostenlose ähnliche Ergebnisse liefert? Die Qualität der kenianischen Autoren erreichte Chat-GPT zwar nicht auf Anhieb. Aber ihre Auftraggeber gingen es meistens ohnehin nur darum, nicht durchzufallen.
Staunen am Bildschirm
Chat-GPT bestand bald aus der Abschlussprüfung im Verfassungsrecht an der University of Minnesota Law School und der medizinischen Zulassungsprüfung der USA. Außerdem rühmten sich Studenten auf X (dem früheren Twitter), dass ihre innerhalb von wenigen Tagen mithilfe von künstlicher Intelligenz verfassten Bachelor- und Masterarbeiten angenommen und zuweilen gut benotet worden seien.
Wer sprachzeugende künstliche Intelligenzen zum ersten Mal benutzt, kommt aus den Staunen nicht mehr heraus. Sie beantworten Fragen zu fast allem, und das erst noch eloquent. Sie schlagen Strukturen für wissenschaftliches Arbeiten vor und schreiben längere Absätze oder auch einmal ein paar Seiten am Stück zu vorgegebenen Themen.
Eine ganze Arbeit mit Quellenangaben liefert Chat-GPT zwar nicht, und die Maschine phantasiert hin und wieder etwas zusammen. Dafür kann man sie ohne Spezialwissen bedienen. Man fragt einfach in ganz normaler Sprache:
Und Chat-GPT schreibt zurück:
Betrug ist normal geworden
In der Fähigkeit, auf Befehl scharfsinnige und kreative Texte zu geben, auch eng gefasste Themen zu verstehen, liegt denn auch die Sprengkraft der künstlichen Intelligenz für die höhere Bildung. Seit 200 Jahren ist die selbständig erarbeitete schriftliche Arbeit in vielen Fächern eine der wichtigsten Säulen des Studiums. Mit der Einführung des wissenschaftlichen Seminars Anfang des 19. Jahrhunderts in Deutschland wurde auch die Seminararbeit erfunden, in der sich die Studenten mit einem Thema befassen und es dann im Plenum diskutieren.
Heute sei das der Standard, sagt Sharples: „Die einfachste Option: Man legt einen Aufsatz mit 5000 Wörtern fest, man gibt einen Titel vor, man hat ein Benotungsschema: Die Universitäten wissen, wie man das macht.“ Die Karriere der schriftlichen Arbeit verlief so stark, dass sie heute selbst in der Ausbildung zu Berufen eingefordert wird, in denen das Schreiben später gar keine Rolle spielt.
Zwar gab es schon immer Kritik an den Texten als Eckpfeiler eines Studiums. Wer aus einer gebildeten Familie kam, konnte sich dort Hilfe holen. Oder man kaufte sich auf einer Online-Börse eine Arbeit zum gleichen Thema von einem Studenten einer anderen Universität. Oder man bezahlte einen Ghostwriter in Kenia. Der Aufwand und das Risiko waren aber in jedem Fall erheblich: Entweder mussten Drittpersonen beträchtliche Zeit investieren, oder es floss Geld an professionelle Autoren, die damit zu Mitwissern wurden. Im schlechtesten Fall flog der Betrug auf.
Mit Chat-GPT ist nun alles anders. Gemütlich am Laptop ein paar Fragen in einem Suchfeld eines Browser-Fensters zu tippen und die Antworten zu einem flüssigen Text zu arrangieren, fühlt sich weder anrüchig noch kriminell an. Der Betrug wurde nicht nur demokratisiert, sondern auch normalisiert, und zwar in einer noch nie da gewesenen Geschwindigkeit.
Bei anderen wichtigen Technologien wie dem Internet oder dem Handy geschahen die Veränderungen langsamer: Die Glasfaserkabel für die schnelle Datenübertragung mussten erst gelegt werden, die Handys mussten jemand bauen, versenden, verkaufen. Doch für die sprechenden künstlichen Intelligenzen war der Boden schon vorbereitet. Sie erreichten uns so plötzlich wie ein Erdbeben.
KI-Detektoren sind keine Lösung
Der Unglaube über ihre stupenden Fähigkeiten wurde an vielen Bildungsinstituten schnell von Panik abgelöst. Die Universität Sciences Po in Paris verbot die Benutzung künstlicher Intelligenz, das Schulamt der Stadt New York blockierte den Zugang zu Chat-GPT im Schulnetz. „Doch der Damm war gebrochen, jetzt mussten wir lernen, zu schwimmen“, sagt Lukas Löffel, Leiter der Abteilung Digitale Lehre und Forschung an der Universität Zürich.
Schnell wurde klar, dass Verbote kaum Wirkung zeigen würden. Von den angefragten Schweizer Universitäten untersagt heute keine die Anwendung von KI. «Verbote von bereits genutzten Hilfsmitteln sind weder zweckmässig noch durchsetzbar», schreibt zum Beispiel die Medienstelle der Universität Bern.
Durchsetzbar sind sie nicht, weil es anders als bei Plagiaten keine Möglichkeit gibt, zweifelsfrei zu erkennen, ob ein Text aus der Maschine kommt. Was Chat-GPT liefert, ist nicht einfach ein aus bestehenden Textfragmenten zusammengestückeltes Traktat, sondern ein einzigartiges Original, das in diesem Moment formuliert wurde.
Sogenannte KI-Detektoren zur Erkennung von künstlich generiertem Text spucken nur eine Wahrscheinlichkeit aus, mit der ein Text von einem KI stammt. Jemanden aufgrund einer solchen Prozentzahl zu verdächtigen, von dem man noch nicht einmal weiß, wie sie zustande kommt, ist heikel. Zumal eine kürzlich veröffentlichte Studie zeigt: KI-Detektoren sprechen vermehrt auf Texte an, die von Studenten stammen, die nicht in ihrer Muttersprache schreiben.
Der Einsatz von KI-Detektoren wird an Schweizer Hochschulen unterschiedlich dargelegt. Während sie an der Pädagogischen Hochschule Bern im Moment überhaupt nicht verwendet werden, stellt die Universität Luzern eine solche Software zur Verfügung. Die Universität St. Gallen nutzte eine Plagiatsprüfungssoftware mit integriertem KI-Scanner, die KI-generierte Texte identifizieren konnte – mit den erwähnten Schwächen.
Mike Sharples hält den Kampf gegen KI-Texte mit technischen Mitteln für vergeblich: „Jedes hinreichend leistungsfähiges Programm, das feststellen kann, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde, kann von einem ebenso leistungsfähigen KI-Textgenerator in einem sinnlosen rechnerischen Wettrüsten.“ überlistet werden.» Es gibt bereits im Internet Werkzeuge, die Texte erkennungssicher machen sollen.
Die Universitäten setzen auf eine Mischung aus Vorschriften, Transparenz und Autonomie. So müssen wie an der Universität St. Gallen Studentinnen und Studenten an allen Hochschulen Eigenständigkeitserklärungen unterschreiben: Alle Hilfsmittel und Quellen müssen deklariert werden. An der Universität Luzern bestätigte man, «keinen KI-generierten Text wortwörtlich übernommen zu haben». Andere Hochschulen verlangen beim Einsatz einer KI den Eingabetext sowie den Original-Output im Anhang. Überprüfen Sie, ob die Regeln befolgt werden, lässt sich nicht.
Studenten sind viel schneller als Dutzende
Die grundsätzlich offene Haltung der Universitäten gegenüber dem Einsatz künstlicher Intelligenz ist nicht das Ergebnis einer großen Begeisterung für die neue Technik. Die Hochschulen schicken sich einfach ins Unvermeidliche. Hätte man vor Chat-GPT eine Professorin gefragt, ob sich ihre Studenten von einem Universalgelehrten begleiten lassen dürfen, der ihnen hier eine Idee zuflüstert und da eine kleine Arbeit schreibt, wäre die Antwort selbstverständlich ein Nein gewesen. Genau das macht heute die KI.
Viele Universitäten ermuntern ihre Dutzende, mit künstlicher Intelligenz zu experimentieren und die neue Technologie zum Teil ihres Unterrichts zu machen. Die Universität Zürich etwa organisierte Workshops für ihre Dutzende. Dort lernen sie, Leistungsnachweise im Hinblick auf die neuen technologischen Möglichkeiten zur Gestaltung und künstlichen Intelligenz in den Unterricht zu integrieren. Doch wie nicht anders zu erwarten, experimentiert die Studentenschaft erheblich schneller als die Dutzende.
„Es sind die Studenten, die diese Revolution anführen“, sagt Mike Sharples. «Die Universitäten müssen ständig aufholen.» Kürzlich hielt er ein Referat an einer Universität. Von den sechzig anwesenden Lehrpersonen hatten gerade drei schon einmal Chat-GPT benutzt – «verglichen mit 70 oder 75 Prozent der Studenten». Eine Studie an der Zürcher Hochschule für Angewandte Wissenschaften vom vergangenen Oktober ergab, dass sich rund zwei Drittel der befragten Studentinnen und Studenten bei ihren Bachelorarbeiten von einer KI unterstützen liessen. Die meisten davon nutzen Chat-GPT. Ein Jahr nach der Lancierung des Tools gehört zur Minderheit, wer keine KI einsetzt.
«Ich frage Chat-GPT, anstatt selber zu überlegen»
Eine informelle Umfrage unter Studentinnen und Studenten zeigt, dass sich die Fachgebiete in zwei Gruppen teilen: auf der einen Seite Wissenschaften wie Biologie, Physik, Psychologie oder auch die Technikwissenschaften, die Sprache brauchen, um ein Experiment, ein Gerät oder eine Erhebung zu beschreiben. Dort ist der Einsatz von sprachgenerierender KI oft unproblematisch, da ein Text ein in der Realität existierendes Ergebnis der Forschung darstellt. Wenn der Roboter gehen kann oder das Gen gefunden wurde, ist es nebensächlich, ob man bei ihrer Beschreibung eine künstliche Intelligenz verwendet.
Ein Volkswirtschaftsstudent, mit dem die NZZ gesprochen hat, benutzte KI nicht oft. „Das Studium ist sehr mathematiklastig und der Zeitdruck bei Prüfungen hoch“, da sei eine KI selten nützlich. Aber manchmal hilft es doch, den ganzen Text einer Aufgabe in das Eingabefeld einer KI zu kopieren. Am nützlichsten sei die KI, um schnell Ideen für einen Soziologieaufsatz zu bekommen. In der Mühelosigkeit der Anwendung sieht der junge Mann denn auch ein Problem der neuen Technologie: «Die Kreativität, um nach Lösungen zu suchen, geht verloren. Ich frage einfach schnell Chat-GPT, anstatt selber zu überlegen.»
Auf der anderen Seite stehen Gebiete wie Geschichte, Politologie, Pädagogik oder eben Soziologie: Forschungsrichtungen, in denen häufig aus alten Texten neue Texte fabriziert werden. Dort ist der Text selber oft das Endprodukt der Wissenschaft. Deshalb verwischen die Grenzen zwischen sinnvollem und fragwürdigem Einsatz von KI. Das zeigt auch die Tatsache, dass die angefragten Personen anonym bleiben wollen.
Eine Studentin der Politikwissenschaften sagt: «Manchmal muss man sich schon an der Nase nehmen und sagen: ‹Jetzt arbeitetst du mal wieder ohne KI.›» Bei kleineren Arbeiten hat sie KI schon «intensiv» benutzt: Sie hat sich Absätze schreiben lassen und diese dann zusammenmontiert. Um die Spuren zu verwischen, liess die Studentin das Ergebnis von einem anderen KI auf Englisch und wieder zurück auf Deutsch übersetzen. «Ich bin damit immer durchgekommen.»
Manchmal dient Chat-GPT ihr auch als Tutor, um zu überprüfen, ob sie etwas richtig verstanden hat. Besonders oft benutzt sie updf.com. Für neun Euro pro Monat ist dieses Online-Werkzeug erlaubt, Texte als PDF hochzuladen und dann Fragen zu stellen: «Was ist die Hauptaussage auf Seite vier?», «Welche Fragen verbinden die drei von mir hochgeladenen Arbeiten?» oder einfach „Fasse den Artikel auf einer Seite zusammen!“
„Für eine Seminardiskussion reicht das aus“, sagt die Studentin. Das spart einerseits enorme Zeit, andererseits befürchten Studenten, ins Hintertreffen zu geraten, wenn sie KI nicht benutzen. Mike Sharples sagt: „Viele Studenten wollen nicht schummeln, aber wenn alle anderen schummeln, verpassen sie den Anschluss, wenn sie es nicht auch tun.“
Das macht es schwer, den Versprechungen von Werkzeugen wie PerfectEssayWriter.ai zu widerstehen. Dieser automatisierte Aufsatzschreiber verspricht eine Lösung für alle «spezifischen Probleme beim Schreiben». Die Struktur der Arbeit erzeugt der «Essay Outliner», die These formuliert der «Thesis Statement Generator», das Schreiben übernimmt der «AI Powered Essay Writer», und allfällige Plagiate bringt das «Paraphrasing Tool» zum Verschwinden. Und selbst wenn man noch nicht einmal weiß, worüber man schreiben will, gibt es eine Lösung: den «Essay Topic Generator».
«Niemand lernt, niemand kompetent»
Die Universitäten stehen vor einem Dilemma. Einerseits gehört die texterzeugende künstliche Intelligenz zu den Werkzeugen, die ihren Abgängern in ihrem Berufsleben zur Verfügung stehen werden. Außerdem müssen sie in der Ausbildung den Umgang damit lernen. Andererseits liegen Denken und Formulieren so nahe zusammen, dass das Erste Schaden nehmen könnte, wenn man das Zweite nicht mehr pflegt.
„Die Arbeit an der Sprache ist Arbeit am Gedanken“, hat Friedrich Dürrenmatt einmal gesagt. Heisst das, die Gedanken werden schlechter, wenn man das Ringen um Worte an den Computer delegiert?
Vielleicht hat die selbständig verfasste schriftliche Arbeit als Übungsstück und Leistungskontrolle in unserem Bildungssystem ihr unnatürliches Ende erreicht. «Die Studenten werden KI einsetzen, um Aufgaben zu schreiben. Die Professoren werden KI einsetzen, um sie zu bewerten. „Niemand lernt, niemand kompetent“, sagt Mike Sharples. «Wenn es jemals eine Zeit gab, die Bewertung zu überdenken, dann ist es jetzt.»
Was immer an der Stelle des wissenschaftlichen Aufsatzes auftritt – engmaschig betreute Projektarbeiten, persönliche Reflexionen, beaufsichtigte Prüfungen auf Papier –, es wird einen höheren Betreuungsaufwand erfordern. Sharples vermutet, dass die Veränderungen auch in Richtung mündlicher Ausdrucksfähigkeit gehen werden. «Man wird sich weniger auf das geschriebene Wort verlassen und mehr auf die Fähigkeit, Argumente auf der Stelle zu artikulieren und einen Standpunkt zu verteidigen.»
Damit wären wir wieder da, wo wir vor 200 Jahren schon waren. Vor der Erfindung der Seminararbeit beruhen weite Teile des Lehrsystems auf der mündlichen Weitergabe von Wissen. Schriftliche Arbeiten verfassten Bloss die Professoren, der Student reagierte lediglich auf Einwände und zeigte, dass er sein Thema verstanden hatte und es mit Argumenten untermauern konnte.