An einer renommierten norddeutschen Hochschule ist ein Skandal um eine angeblich von einer Künstlichen Intelligenz erstellte Bachelorarbeit aufgeflammt. Die Arbeit wies zahlreiche direkte Übernahmen aus fremden Texten auf, enthielt erfundene Quellenangaben und wurde von der Prüfungssoftware PlagAware mit hoher Wahrscheinlichkeit als maschinell erstellt markiert. Das Prüfungsamt sprach daraufhin die Exmatrikulation des 23 Jahre alten Studierenden aus. Der Fall zeigt, wie schnell der Einsatz generativer Modelle in der Wissenschaft in eine juristische und ethische Krise führen kann.
Vom Entwurf zur Abgabe
Der Studierende, den wir hier aus Schutz der Anonymität Jonas M. nennen, studierte Betriebswirtschaft im sechsten Semester. Bedingt durch Pflichtpraktika und eine Nebentätigkeit geriet er in Zeitdruck. Auf der Suche nach einer schnellen Lösung nutzte er eine populäre Textgenerierungsplattform, die auf wenigen Stichworten längere wissenschaftliche Abschnitte erzeugen kann. Jonas strukturierte die gelieferten Passagen, ergänzte einige eigene Absätze und gab die Arbeit wenige Tage vor Fristende ab.
Seine Prüfungsleistung erhielt zunächst eine vorläufige Annahme. Nach routinemäßiger Kontrolle leitete das Prüfungsamt jedoch ein vertiefendes Prüfverfahren ein.
Seine Prüfungsleistung erhielt zunächst eine vorläufige Annahme. Nach routinemäßiger Kontrolle leitete das Prüfungsamt jedoch ein vertiefendes Prüfverfahren ein.
PlagAware schlägt Alarm
Die Hochschule setzt seit einiger Zeit eine Kombination aus Plagiatserkennung und spezialisierten Tools zur Erkennung von KI-generierten Texten ein. Bei der Analyse seiner Bachelorarbeit zeigte PlagAware zwei auffällige Befunde. Erstens ergab die Plagiatsprüfung mehrfach 1:1-Übereinstimmungen mit unveröffentlichten Quellen aus Datenbanken sowie mit Textpassagen bekannter Fachbücher. Zweitens meldete das KI-Erkennungstool eine sehr hohe Wahrscheinlichkeit für maschinelle Erstellung in mehreren Kapiteln.
Parallel dazu fiel den Prüferinnen und Prüfern auf, dass die Quellenangaben teilweise nicht existent waren oder auf Publikationen verwiesen, die sich bei näherer Überprüfung als erfunden herausstellten. Ein Beispiel: In Kapitel drei war eine zentrale Theorie mit einem konkret angegebenen Artikel aus einer Fachzeitschrift belegt. Die angegebene Zeitschrift existierte zwar, die zitierte Ausgabe und der Artikel jedoch nicht. In weiteren Fußnoten fanden sich falsche DOI-Nummern und falsch geschriebene Autorennamen.
Parallel dazu fiel den Prüferinnen und Prüfern auf, dass die Quellenangaben teilweise nicht existent waren oder auf Publikationen verwiesen, die sich bei näherer Überprüfung als erfunden herausstellten. Ein Beispiel: In Kapitel drei war eine zentrale Theorie mit einem konkret angegebenen Artikel aus einer Fachzeitschrift belegt. Die angegebene Zeitschrift existierte zwar, die zitierte Ausgabe und der Artikel jedoch nicht. In weiteren Fußnoten fanden sich falsche DOI-Nummern und falsch geschriebene Autorennamen.
Anhörung und Exmatrikulation
In der anschließenden Anhörung erklärte Jonas M., er habe die KI als Hilfsmittel genutzt, aber sämtliche Inhalte vor Abgabe geprüft. Auf Nachfrage konnte er jedoch nicht nachvollziehbar darlegen, wie bestimmte zitierte Studien zustande gekommen sein sollten. Seine Angaben zur Entstehung einiger Passagen schwankten. Das Prüfungsgremium bewertete dies als Täuschungsversuch. Die Prüfungsordnung der Hochschule verlangt eigenständige Leistungen und die verlässliche Angabe tatsächlicher Quellen. Als Sanktion folgte die Exmatrikulation wegen schwerer Täuschung in einer Prüfungsleistung.
Jonas kündigte an, gegen die Entscheidung rechtlich vorzugehen. Sein Anwalt hat angekündigt, die methodische Unsicherheit bei der KI-Erkennung sowie die Frage der Verhältnismäßigkeit der Sanktion prüfen zu lassen.
Jonas kündigte an, gegen die Entscheidung rechtlich vorzugehen. Sein Anwalt hat angekündigt, die methodische Unsicherheit bei der KI-Erkennung sowie die Frage der Verhältnismäßigkeit der Sanktion prüfen zu lassen.
Technische und methodische Probleme
Expertinnen und Experten erinnern daran, dass die Erkennung KI-generierter Texte nicht immer eindeutig ist. Machine-Learning-Modelle arbeiten mit Wahrscheinlichkeiten. Auffällige Muster können Hinweise liefern, müssen aber durch inhaltliche Prüfung ergänzt werden. In diesem Fall führte die Kombination aus 1:1-Übernahmen, der Unfähigkeit des Studierenden, Inhalte zu erklären, und den gefälschten Quellen zu einer starken Indizienlage.
Der besonders problematische Punkt sind die gefälschten Quellen. Generative Modelle neigen dazu, kohärente, aber nicht unbedingt korrekte Referenzen zu produzieren. Diese sogenannte Halluzination ist in der wissenschaftlichen Praxis existenziell gefährlich. Eine Arbeit mit frei erfundenen Belegen verletzt grundlegende Zitierpflichten und beschädigt die Nachprüfbarkeit wissenschaftlicher Aussagen.
Der besonders problematische Punkt sind die gefälschten Quellen. Generative Modelle neigen dazu, kohärente, aber nicht unbedingt korrekte Referenzen zu produzieren. Diese sogenannte Halluzination ist in der wissenschaftlichen Praxis existenziell gefährlich. Eine Arbeit mit frei erfundenen Belegen verletzt grundlegende Zitierpflichten und beschädigt die Nachprüfbarkeit wissenschaftlicher Aussagen.
Hochschule und Öffentlichkeit reagieren
Die Hochschulleitung betonte die Notwendigkeit, wissenschaftliche Standards zu schützen. „Wir leben von der Nachvollziehbarkeit und Prüfbarkeit akademischer Arbeiten“, sagte die Dekanin der Fakultät. „Wer Quellen erfindet oder ganze Passagen übernimmt, untergräbt das Fundament unseres Wissenschaftsbetriebs.“
Gleichzeitig forderten Studierendenvertretungen, die Sanktionen mit Augenmaß auszuüben. Sie fordern verbindliche Leitlinien zum Umgang mit KI, verpflichtende Informationsangebote und die Einführung von unterstützenden Formaten, damit Studierende wissen, wie sie KI sinnvoll und regelkonform nutzen können.
Gleichzeitig forderten Studierendenvertretungen, die Sanktionen mit Augenmaß auszuüben. Sie fordern verbindliche Leitlinien zum Umgang mit KI, verpflichtende Informationsangebote und die Einführung von unterstützenden Formaten, damit Studierende wissen, wie sie KI sinnvoll und regelkonform nutzen können.
Unterschied zwischen Nutzung, Hilfestellung und Täuschung
Der Fall illustriert wichtige Trennlinien. Die Nutzung von Tools zur Formulierungshilfe, zur Formatierung oder zur Literaturrecherche kann mit Klarstellung und entsprechender Kennzeichnung vertretbar sein. Der Einsatz von KI zur Generierung ganzer inhaltlicher Abschnitte ohne Nachweis eigener Leistung überschreitet die Grenze zur Täuschung. Noch eindeutiger ist der Fall, wenn Quellen erfunden oder ohne Angabe übernommen werden.
Professor Dr. Miriam Kohler, Expertin für Wissenschaftsethik, fasst zusammen: „Es muss klar geregelt werden, welche Funktion KI-Tools haben dürfen. Automatische Textgeneratoren ersetzen keine akademische Auseinandersetzung. Wer sie als inhaltlichen Ersatz nutzt, handelt fahrlässig.“
Professor Dr. Miriam Kohler, Expertin für Wissenschaftsethik, fasst zusammen: „Es muss klar geregelt werden, welche Funktion KI-Tools haben dürfen. Automatische Textgeneratoren ersetzen keine akademische Auseinandersetzung. Wer sie als inhaltlichen Ersatz nutzt, handelt fahrlässig.“
Konsequenzen für Lehre und Prüfungswesen
Bildungseinrichtungen sind gefordert, schnell zu handeln. Notwendig erscheinen folgende Maßnahmen
1. Transparente Richtlinien zur Nutzung generativer KI in Lehrveranstaltungen und Prüfungen.
2. Pflichtschulungen für Studierende zu Zitiertechnik, Quellenprüfung und Risiken von KI.
3. Anpassung der Prüfungsformate, etwa verstärkte mündliche Prüfungen oder reflektierende Begleitbögen, in denen Studierende ihre Arbeitsweise offenlegen.
4. Investitionen in zuverlässige Nachweismethoden und in die Ausbildung von Prüfenden zur Interpretation von KI-Erkennungsberichten.
Ghostwriter als bessere Alternative
Bei einem professionellen Ghostwriter wäre der Fall wohl ganz anders verlaufen. Ein erfahrener akademischer Autor prüft jede Quelle, achtet auf korrekte Zitation und stellt sicher, dass keine fehlerhaften oder erfundenen Nachweise in den Text gelangen. Bei efactory1 wird zusätzlich jede Arbeit vor der Übergabe mit PlagAware überprüft – nicht, um Studierende zu bestrafen, sondern um sicherzustellen, dass die gelieferten Texte tatsächlich eigenständig, nachvollziehbar und wissenschaftlich sauber sind. Dadurch wird die Qualität systematisch kontrolliert, bevor die Arbeit überhaupt in die Hände der Kund:innen gelangt. Natürlich ist die Beauftragung eines Ghostwriters teurer als der Einsatz einer KI, doch sie bietet dafür etwas, das kein Algorithmus garantieren kann: echte Verantwortung, menschliches Urteilsvermögen und wissenschaftliche Gewissenhaftigkeit.
Ghostwriter statt KI? Jetzt anfragen!