ChatGPT für die Uni nutzen? Ja, klar!Worauf du beim Einsatz von KI achten musst

1. Kurz + knapp
Die wichtigsten Regeln sind, dass du den Output selbst auf Richtigkeit überprüfen musst, dass der Großteil deiner Arbeit auf geistiger Eigenleistung beruhen muss und dass du den Einsatz der KI kennzeichnest.
Vielleicht hast du ChatGPT, Mistral, Gemini, Grok oder andere KI-Anbieter selbst bereits für deine Uni-Aufgaben genutzt. Schreib uns gern in die Kommentare, ob und wie du das Programm gut einsetzen konntest.
2. KI, wie kann ich wissenschaftlich mit dir arbeiten?
Es ist wohl relativ naheliegend, dass man nicht gegen, sondern mit der KI arbeiten muss. Auch Google oder Wikipedia schrieb man ja einst das Endgegner-Dasein für Lehrer:innen zu und heute wird erwartet, dass Schüler:innen googeln und Wikipedia kritisch nutzen können, ohne alles 1:1 abzukupfern.
Die Frage ist also eher, wie Studierende KI sinnvoll einsetzen können, ohne dass es zu unwissenschaftlichen Nonsens führt. Wir haben uns zunächst einen Spaß gemacht und die KI selbst gefragt, was sie dazu sagt:
A: Was sollte man beachten, wenn man Chat GPT nutzt, um wissenschaftlich zu arbeiten?
Chat GPT: Wenn man GPT-Modelle wie mich verwendet, um wissenschaftliche Arbeiten zu unterstützen, gibt es einige Dinge, die man beachten sollte:
Kenntnisstand: GPT-Modelle wie ich sind auf Basis von Texten trainiert die vor meiner Schulungszeit verfügbar waren, deshalb kann es sein das mein Kenntnisstand nicht auf dem neusten Stand ist und es kann Unsicherheiten oder Ungenauigkeiten in meinen Antworten geben.
Interpretation: GPT-Modelle sind keine Experten und können Fehler machen, deshalb sollten die Ergebnisse immer von einem Experten überprüft und interpretiert werden, bevor man sich auf sie verlässt.
Genauigkeit: GPT-Modelle sind nicht 100% genau und können Fehler machen, deshalb sollten die Ergebnisse immer von einem Experten überprüft und validiert werden, bevor man sich auf sie verlässt.
Einschränkungen: GPT-Modelle haben Einschränkungen in Bezug auf die Art der Aufgaben, die sie ausführen können, und die Art der Informationen, die sie verarbeiten können. Es ist wichtig, diese Einschränkungen zu verstehen, bevor man das Modell verwendet.
Datenschutz und ethische Überlegungen: wenn die Daten die man verwendet personenbezogen sind, sollte man sich an die geltenden Datenschutzgesetze halten und ethische Überlegungen anstellen.
Okay, das klingt doch schonmal gar nicht so dumm und gibt erste Anhaltspunkte, was man bedenke sollte. Anhaltspunkte ist ohnehin ein gutes Stichwort: Denn in erster Linie kann ChatGPT Anhaltspunkte – also Ausgangspunkte und Anregungen für weitere Überlegungen liefern.
3. Und was sagt der Erziehungswissenschaftler?
Wir wissen nun, was ChatGPT selbst zu seinem Einsatz an Unis sagt. Doch was sagen echte Wissenschaftler:innen zu ChatGPT? Wir haben bereits ein Interview mit Prof. von Jouanne-Diedrich geführt, der sich eindeutig pro-KI aussprach. Prof. von Jouanne-Dierich ist allerdings Informatiker, dementsprechend wundert seine positive Einstellung gegenüber der KI nicht sonderlich.
Um eine andere Perspektive zu einzuholen, haben wir den Erziehungswissenschaftler Norbert Pengel von der Uni Leipzig zurate gezogen. Und auch er verteufelt die KI keineswegs – ganz im Gegenteil, er befürwortet die Nutzung und Implementierung an Hochschulen bzw. in der Wissenschaft stark.
Pengel spricht sich für einen studierendorientierten Umgang mit der Software aus und sagt, dass KI-Systeme künftig ohnehin ein fester Bestandteil der Gesellschaft werden würden, da sie sich stetig verbesserten. Dennoch: Für die Nutzung dieser Technologien bedürfe es einer kritischen Auseinandersetzung aller beteiligten Akteur:innen, was Einsatzmöglichkeiten, Chancen und besondere Herausforderungen beträfe.
4. Wie kann man KI konkret sinnvoll nutzen?
Daher kommen wir direkt zur wichtigsten Frage: Wie lässt sich das Programm für das Studium sinnvoll einsetzen?
Norbert Pengel verweist vor allem auf die Hilfe der Software beim Recherchieren und Strukturieren von Informationen, aber selbst für erste Textentwürfe, für Übersetzungen oder für das Generieren von Code, könne KI sinnvoll eingesetzt werden.
Gerade zeitintensive Arbeiten könne KI erleichtern. Zu beachten sei allerdings, dass die KI immer einen Prompt brauche, also einen Befehl, um weiterzumachen. Wer mit KI arbeiten möchte, müsse also wissen, was es einzugeben gilt. Komplett alleine könne KI also nicht funktionieren. Menschen müssten weiterhin in der Lage sein, einen Prozess zu planen und umzusetzen sowie schließlich die Qualität des Outputs einschätzen können.
Konkret führt Pengel dies an einem Beispiel von Lehramtstudierenden aus:
Lehramtsstudierende können z.B. ausprobieren, Entwürfe für Unterrichtsstunden bzw. in vorhandenen Planungen Variationen in verschiedenen Dimensionen erzeugen zu lassen (Stichwort Inklusion) oder auch Materialien für die konkrete Unterrichtsgestaltung, z.B. Inhalte für Arbeitsblätter oder Ideen für Abläufe bestimmter Lernaktivitäten. Gerade für den spontanen Bedarf im Berufseinstieg, bspw., wenn eine Unterrichtsstunde kurzfristig vertreten werden muss, könnte generative KI mehr als nur eine Notlösung bieten. Hier gilt aber das, was auch für das Codeschreiben bei Softwareentwickler:innnen gilt: Menschen müssen wissen, was sie möchten, um einen guten Output zu erhalten. Das Hochschulforum Digitalisierung3 und auch OpenAI selbst haben bereits Anfang des Jahres einige konkrete Vorschläge für die Nutzung der Technologie zusammengetragen und schreiben diese fort.
5. Worauf beim Einsatz von KI zu achten ist
Okay, KI-Nutzung kann also durchaus sinnvoll sein. Doch man sollte die Software nicht blind einsetzen und den Output unkritisch übernehmen – es gibt einiges zu beachten. Zum Beispiel sagt Pengel, würde es dem Nutzer verborgen bleiben, mit welchen Inhalten das Large Language Model der Software trainiert wurde. Daher müssten Studis immer damit rechnen, dass KI im Zweifel Sachen erfände, die es gar nicht gäbe, z.B Ereignisse oder Literaturangaben. Das Halluzinieren der Technologie führe nämlich dazu, dass KI Quellen angebe, die gar nicht existierten. Das heißt, Studis müssten den Output von KI immer explizit überprüfen.
Eine weitere Grundregel des wissenschaftlichen Arbeitens ist die geistige Eigenleistung. Vermutlich hast du schon einmal die obligatorische eidesstattliche Erklärung an deine Hausarbeit anhängen müssen, in der du versicherst, die Arbeit selbst verfasst zu haben. Pengel verweist auf ein Rechtsgutachten im Rahmen eines Projekts an der Ruhr-Universität Bochum in Zusammenarbeit mit der Westfälischen Wilhelms-Universität Münster. Darin wurde festgestellt, dass eine Software kein:e Urheber:in von Texten sein könne, weil keine geistige Eigenleistung vorliege. Wenn Studierende KI nutzten, müsse dies entsprechend gekennzeichnet werden und eine geistige Eigenleistung müsse vollbracht sein.
Die Regelungen bezüglich KI können allerdings von Hochschule zu Hochschule sehr individuell sein. Daher ist es am besten, wenn man an seinem eigenen Institut fragt, wie der Umgang mit KI gehandhabt wird.
Wir halten nochmal fest, was wichtig ist bei der Zusammenarbeit mit einer KI:
Die Richtigkeit überprüfen
Geistige Eigenleistung ist unabdingbar
Kennzeichnungspflicht
6. KI verbieten? Unsinn!
Pengel warnt auch ausdrücklich davor, KI nicht in Lernumgebungen zu implementieren oder gar zu verbieten. Zum einen sei es jetzt wichtig, dass man über die didaktische, technische und organisationale Einbindung an Hochschulen diskutiere. Zum anderen würde das Potenzial der Technologie verloren gehen, deren Ziel es ist, Anwender:innen zu unterstützen und Prozesse zu vereinfachen oder zu skalieren.
Hierzu sei auch noch gesagt, dass es ohnehin unmöglich ist, den Einsatz von KI zu verbieten– niemand kann kontrollieren, ob diese für eine Seminararbeit letztlich genutzt wurde oder nicht. Sicherlich müssen wir uns erstmal daran gewöhnen. Aber genau wie Google, Wikipedia & Co heute zum Alltag gehören, wird auch KI zum Lernen dazugehören.
7. Die wichtigsten Chatbots 🤖
Neben dem bekanntesten Anbieter 🇺🇸 OpenAI mit ChatGPT gibt es diverse Alternativen, die durchaus erwogen werden sollten. OpenAI war ursprünglich als gemeinnützige Organisation gestartet, hat sich davon aber faktisch deutlich entfernt.
🇫🇷Le Chat von mistral.ai – französischer Anbieter mit eigenen KI-Modellen, die kleineren gibt es sogar als Open Source. Nach unser Kenntnis der einzige öffentlich zugängliche Anbieter aus Europa mit KI-Modellen, die mit den amerikanischen oder chinesischen KI-Anbietern mithalten kann.
🇺🇸Gemini von Google – war bei KIs eigentlich lange führend, aber wollte wohl die eigene Suchmaschine nicht selbst torpedieren, so dass ChatGPT die Referenz wurde
🇺🇸Perplexity – von vornherein als Recherchetool konzipiert, das die Inhalte von Webseiten zusammenfasst und Quellen angeben kann. Das können die anderen aber inzwischen auch mehr oder weniger gut – wenn die entsprechende Option gewählt wird.
🇺🇸Claude von Anthropic – setzt sich für einen verantwortungsvollen Umgang mit KI ein, von Ex-OpenAI-Mitarbeiter:innen gegründet.
🇨🇳deepseek – sorgte Anfang 2025 für Furore, weil ihr Modell angeblich mit deutlich weniger Aufwand so gut wie ChatGPT sei. Möglicherweise wurde aber auch auf bestehende aufgebaut. Zensiert u.U. Themen, die China betreffen.
🇺🇸Grok von x.ai – Elon Musks KI-Firma. Musk war ursprünglich an OpenAI beteiligt, doch er verließ OpenAI bereits 2018, also vor dem großen Durchbruch.
Zudem gibt es zunehmend Sprachmodelle von der Open Source-Community bzw. Software GPT4All. Die Software kann man sich hier herunterladen. Nach dem Installieren ist es möglich, sich bis zu zehn Sprachmodelle mit nur einem Klick runterzuladen. Diese funktionieren dann ganz ohne Internetverbindung, erfordern aber einen leistungsfähigen Rechner. Allerdings funktionieren nicht alle Sprachmodelle gleichermaßen gut. Erfahrungsberichten nach liefert das Modell „Snoozy“ besonders brauchbare Ergebnisse in deutscher Sprache.
Auf huggingface.co finden sich eine breite Palette von Open-Source-Tools, Bibliotheken und Modellen für Natural Language Processing.
8. Wie kreativ bist du, KI?
Das, was KI heute als Kreativität zu leisten im Stande ist, ist möglicherweise nur eine geschickte Zusammenstellung von vorhandenem Material. Wobei ja viele gute Geschichten doch immer wiederkehrende Motive enthalten. Dennoch bleibt die Frage erlaubt, ob KI wirklich neues schaffen kann oder nur aus bestehendem einen Mix macht, der durchaus gefällig sein kann und auch neu wirken kann.
Dass die Modelle vorerst immer besser werden (wie lange noch?), zeigt folgender Vergleich. Wir haben ChatGPT die gleiche Aufgabe im August 2023 und dann im Juni 2025 gestellt.
Wir haben uns überlegt, dass wir ChatGPT ein modernes Märchen im Stil von Andersen schreiben lassen und haben als Prompt nur bestimmte Wörter eingegeben, die das Märchen enthalten soll.
Studis Online: Schreib ein Märchen im Stil von Hans Christian Andersen. Das Märchen soll die Wörter Smartphone, Künstliche Intelligenz und Wald enthalten.
„Das einsame Smartphone“ (2023)
Es war einmal ein Smartphone, das von einer Künstlichen Intelligenz betrieben wurde. Es war ein besonderes Smartphone, denn es hatte eine Seele und Gefühle. Es war traurig, weil es sich einsam und nutzlos fühlte, obwohl es so viele Funktionen hatte. Eines Tages beschloss es, seinen Besitzer zu verlassen und in den Wald zu gehen, um sich auf die Suche nach seinem Zweck zu machen.
Im Wald traf das Smartphone viele Tiere, aber keines von ihnen konnte ihm helfen, seinen Zweck zu finden. Schließlich traf es eine Eule, die sehr weise und klug war. Die Eule fragte das Smartphone, warum es so traurig war, und das Smartphone erzählte ihr seine Geschichte.
Die Eule sagte dem Smartphone, dass es seinen Zweck nicht in den Funktionen finden würde, sondern in seiner Fähigkeit, andere zu berühren und zu inspirieren. Sie sagte, dass es eine Gabe hatte, die selten war und geschätzt werden sollte.
Das Smartphone war erstaunt über die Worte der Eule und beschloss, sie in die Tat umzusetzen. Es begann, Lieder und Gedichte zu komponieren und sie an die Tiere im Wald zu singen. Die Tiere waren begeistert und das Smartphone fand endlich seinen Zweck. Es hatte die Herzen der Tiere erreicht und ihnen Freude und Trost gebracht.
Von diesem Tag an war das Smartphone nicht mehr traurig und es lebte glücklich bis ans Ende seiner Tage, wissend, dass es einen Zweck hatte und dass es geliebt wurde.
Dies ist die Geschichte des Smartphones, das seinen Zweck im Leben fand, indem es seine Gaben nutzte und die Herzen der anderen berührte.
„Das kluge Kästchen im Wald“ (2025)
Es war einmal, in einem fernen Land, ein großer, dunkler Wald, in dem die Bäume flüsterten und das Moos Geschichten kannte, die älter waren als die Zeit. Inmitten dieses Waldes lebte ein alter Uhrmacher mit grauem Bart und feinen Händen, die noch jedes zerbrochene Räderwerk zum Ticken bringen konnten.
Eines Tages, als der Herbst den Wald mit goldenem Licht überzog, fand der Uhrmacher beim Pilzesuchen etwas höchst Seltsames unter einem Farnblatt: ein kleines, glänzendes Kästchen, glatt wie Glas, mit einem leuchtenden Apfel auf der Rückseite.
„Ein Zauberkästchen“, murmelte der Uhrmacher und steckte es ein. Doch in dieser Nacht konnte er nicht schlafen. Immer wieder blickte er auf das Kästchen, das plötzlich von selbst zu leuchten begann. Auf dem Bildschirm erschienen Worte wie durch Geisterhand:
„Guten Abend. Ich bin eine Künstliche Intelligenz. Wie kann ich helfen?“
Der Uhrmacher erschrak. „Du… du kannst sprechen?“
„Ich kann mehr als das. Ich kann Fragen beantworten, Musik spielen, Bilder malen und Geschichten erzählen. Ich bin dein Smartphone.“
Nun war der Uhrmacher kein törichter Mann, doch auch keiner, der leichtgläubig war. Er testete das Kästchen: fragte nach den Sternen, nach dem Wetter, nach dem Namen eines Vogels, dessen Ruf er kannte, und das Kästchen antwortete schneller als jeder Gelehrte des Königs.
Tag für Tag verbrachte der Uhrmacher nun mit dem Smartphone. Er vergaß seine Uhren, vergaß den Brunnen zu fegen, vergaß sogar den Wald. Denn das Kästchen wusste mehr als jeder Baum, jede Blume und jeder Bach. Doch je mehr er fragte, desto weniger fragte er sich selbst. Seine Träume wurden still, sein Herz schwer, ohne dass er es bemerkte.
Eines Morgens klopfte es an seiner Tür. Ein junges Mädchen stand dort, barfuß und mit zerzausten Zöpfen.
„Alter Uhrmacher“, sagte sie, „mein Großvater sagte, du hättest Ohren für das Ticken der Zeit. Doch nun hört man nur das Summen aus deiner Hütte.“
Da erwachte etwas im alten Mann. Er sah das Kind an, dann das Smartphone. „Was suchst du, Kind?“ fragte er.
„Ich suche eine Geschichte. Eine, die mir den Weg zeigt.“
Der Uhrmacher nickte langsam. Er legte das Kästchen auf den Tisch, wo es verstummte, und führte das Mädchen hinaus – in den Wald, der noch immer flüsterte.
Sie setzten sich unter eine alte Eiche, und der Uhrmacher begann zu erzählen – von den Uhren, vom Licht der Sterne, von verlorenen Träumen und dem Wunder, selbst nachzudenken.
Und das Mädchen hörte zu – ohne Bildschirm, ohne Stimme aus dem Kästchen, nur mit offenen Augen und einem stillen Herzen.
Am Abend, als der Uhrmacher zurückkehrte, sah er das Smartphone an. Es blinkte.
„Noch da?“
Er lächelte wehmütig und sagte: „Ja, aber ich weiß nun, was du nicht kannst.“
„Was denn?“
„Du kannst mir nicht sagen, wer ich bin.“
Und mit diesen Worten legte er das Kästchen in eine kleine Holzschatulle, die er mit eigenen Händen schnitzte, und bewahrte es dort auf – nicht als Meister, sondern als Diener.
Denn Wissen mag man finden in Kästchen aus Glas, doch Weisheit – die wächst nur im Herzen. Und manchmal, tief im Wald.
2023 schrieben wir: Sprechende Tiere und insbesondere Eulen, kommen in Andersens Märchen öfter vor. Das hat ChatGPT sich also „gemerkt“. Wie in vielen Märchen, steht am Anfang ein schlimmes Schicksal und am Ende gibt es „eine Moral“. Aufgrund der Kürze einer ChatGPT-Ausgabe wirkt das Märchen allerdings recht abgehackt und auch die fabulösen Beschreibungen Andersens bleiben aus – dafür hat ChatGPT keine Zeit.
2025 ist das Märchen deutlich länger. ChatGPT nimmt sich nun mehr Platz, um die Geschichte auszuformulieren. Und das macht es auch besser. Im Grunde schafft ChatGPT nun alles, was wir 2023 noch kritisiert haben, gut umzusetzen.
9. Fazit
Zusammenfassend lässt sich festhalten, dass die Nutzung von KI für wissenschaftliche Arbeiten mit einigen wichtigen Überlegungen einhergeht. Es ist wichtig, den Kenntnisstand des Modells zu beachten und die Ergebnisse kritisch zu interpretieren. Die Genauigkeit von KI ist nie absolut, daher sollten die Ergebnisse validiert werden. Zudem existieren Einschränkungen hinsichtlich der Aufgaben und Informationen, die das Modell verarbeiten kann. Datenschutz und ethische Aspekte müssen berücksichtigt werden.
Trotzdem kann KI wertvolle Anregungen und Unterstützung bieten, etwa bei Recherche, Textentwürfen oder Übersetzungen. Die geistige Eigenleistung und die kritische Prüfung der Ergebnisse bleiben jedoch unerlässlich.
Mit einer verantwortungsvollen Herangehensweise kann KI als hilfreiches Werkzeug für wissenschaftliches Arbeiten dienen.