Menü

Einsatz von generativer KI beim wissenschaftlichen Publizieren: Was ist hier zu beachten?

Wenn von „der KI“ die Rede ist, sind damit in der Regel generative KI-Tools wie ChatGPT, Perplexity, Claude oder Mistral gemeint. Diese Tools sind eine Erweiterung von Machine Learning. Sie können bei der Eingabe von Befehlen in natürlicher Sprache, den sogenannten Prompts, entsprechend passende Ergebnisse als Output „erstellen“. So gut wie alle generativen KI-Tools auf dem Markt nutzen eine Form von Large Language Model (LLM), bei dem durch eine extrem große Anzahl an textlichen Trainingsdaten ein linguistisches Wahrscheinlichkeitsmodell erstellt wird, mit dem durch Prompts der entsprechende Output generiert wird.

Dies macht ihren unterstützenden Einsatz auch bei der Kommunikation von wissenschaftlichen Ergebnissen interessant.

Wichtig zu beachten ist hierbei, dass – obwohl diese Tools „künstliche Intelligenz“ genannt werden – hier kein Denk- oder Kreativprozess, sondern nur ein maschineller Entscheidungsprozess basierend auf Wahrscheinlichkeiten (und auch Zufall) stattfindet. Dadurch wird bei den so generierten Texten keine Schaffungshöhe erreicht, für die Urheberrechte beansprucht werden können. Darüber hinaus können die Tools den Wahrheitsgehalt von Aussagen nicht beurteilen, was eine Prüfung der Inhalte unbedingt notwendig macht.

Vorab ist außerdem zu sagen, dass der Einsatz von generativen KI-Tools ein Aushandlungsfeld in den jeweiligen lebenswissenschaftlichen Communitys ist. Diese müssen sich also gemeinsam darauf einigen, ob, wo und unter welchen Bedingungen entsprechende Tools eingesetzt werden dürfen. Dieser Aushandlungsprozess ist in vielen Communitys derzeit noch im vollen Gange.

Der nachfolgende Text gibt einen Überblick zu den Punkten, zu denen weitestgehend Einigkeit über alle Communitys hinweg besteht (Stand: 10/2025).

Einsatzfelder

Einsatz bei der Manuskripterstellung

Generative KI-Tools können an unterschiedlichen Stellen bei der Manuskripterstellung unterstützend eingesetzt werden:  

  • Ideenfindung und initiale Recherchen,
  • Entwicklung einer Recherchestrategie und Auswertung von Suchergebnissen,
  • Zusammenfassung von Texten zu persönlichen Informationszwecken nach einer Recherche,
  • sprachliche Überarbeitung von Texten im Hinblick auf Grammatik, Rechtschreibung und Vereinheitlichung des Schreibstiles oder von Referenzen,
  • Unterstützung bei der Auswertung von Daten und deren Visualisierung.

Zentral ist hierbei, dass die Ergebnisse kritisch durchgesehen werden, bevor sie weiterverarbeitet werden. Insbesondere kausale Zusammenhänge sollten auf Richtigkeit überprüft werden.

Nicht geeignet sind generative KI-Tools im Rahmen der Manuskripterstellung für folgende Zwecke:

  • Übersetzung von anderssprachigen Texten mit 1:1-Übernahme in den eigenen Text,
  • wörtliche Übernahme von KI erstellten Texten in das eigene Manuskript ohne Überprüfung und Anpassung,
  • Schließen von argumentativen Lücken sowie Generierung von passenden Referenzen für den Beleg einer Aussage.

Zudem kann generative KI an diesen Stellen fehlerhafte Ergebnisse produzieren.

Herausforderungen und Limitationen

Die derzeit am Markt erhältlichen Produkte sind (noch) fehleranfällig. Die Gründe dafür sind unter anderem folgende:

  • Das Trainingsmaterial ist für die Beantwortung der Frage oder Bearbeitung der Ausgabe unzureichend gewesen, so dass ungenaue oder falsche Ergebnisse ausgegeben werden.
  • Die Tools können nicht zwischen wahren und falschen Aussagen unterscheiden, sondern replizieren lediglich die Inhalte aus den Trainingsdaten. Sind diese nicht sorgfältig kuratiert und enthalten Fehler, werden diese unreflektiert wiedergegeben. Auf Large Language Models beruhende Tools werden daher auch gelegentlich als „Stochastische Papageien“ bezeichnet.
  • Die generative KI ahmt lediglich das gewünschte Verhalten in der Aufgabenstellung nach, halluziniert und erfindet auch Informationen. So ist es möglich, dass bei der Suche nach Literatur keine real existierenden Quellen angegeben werden, sondern Text generiert wird, der wie eine Referenz aussieht.
  • Die Ergebnisse sind abhängig von der Größe, Vielfalt und Qualität des Trainingskorpus. Generative KI-Tools können somit voreingenommen sein, wenn das Trainingsmaterial ausschließlich in eine Richtung geht. Man spricht hier auch von einem Bias.
  • Da gerade Online-Tools fortlaufend trainiert werden, sind die Ergebnisse oftmals nicht reproduzierbar und können sich verändern.

Hinzu kommt, dass man in der Regel als Nutzer:in nur unzureichende Informationen darüber erhält, mit welchen Materialien genau das jeweilige Tool trainiert wurde –  also auch nicht abschätzen kann, wo genau und wie stark der jeweilige Bias ist. Gleiches gilt für das zugrundeliegende Modell, also wie das Tool genau die Ergebnisse generiert.

Einsatz im Peer Review

In vielen Journal Policies ist der Einsatz von generativer KI im Peer-Review-Verfahren, also für das Erstellen von Gutachten, grundsätzlich ausgeschlossen. Insbesondere soll darauf verzichtet werden, das zur Begutachtung vorgelegte Manuskript von generativen KI-Tools analysieren zu lassen. Hintergrund ist hier, dass das Manuskript sowie das generierte Gutachten wahrscheinlich in den Pool der Dokumente eingehen, der für das fortlaufende Training des KI-Tools genutzt wird, beziehungsweise dies über die Datenschutzregeln nicht sicher ausgeschlossen werden kann. Dies wäre ein Verstoß gegen die gute wissenschaftliche Praxis, weil gerade bei verblindeten Peer-Review-Verfahren Manuskripte vertraulich zu behandeln sind.

Möglich ist lediglich, sich die eigenen Notizen, die man sich während der Durchsicht gemacht hat, zusammenfassen zu lassen, solange diese die Vertraulichkeit wahren.

Ähnliches gilt auch für die Begutachtung von Forschungsanträgen. Einrichtungen zur Forschungsfinanzierung geben den von ihnen beauftragten Gutachter:innen Hinweise, inwieweit der Einsatz von generativen KI-Tools gestattet ist.

Autor:innenschaft und gute wissenschaftliche Praxis

Da generative KI-Tools auf der Basis von Wahrscheinlichkeiten Texte generieren, also kein kreativer Prozess stattfindet, kann dem Tool keine Autor:innenschaft zugeschrieben werden. Folglich sollten diese Tools auch nicht als Autor:in auf einem Artikel genannt werden, um z.B. den Deklarationsverpflichtung nachzukommen. Auf der anderen Seite können Autor:innen für KI-generierte Texte kein Urheberrecht beanspruchen. Urheberrechtsanspruch besteht erst, wenn in die generierten Texte seitens der Autor:innen signifikant eingegriffen wurde, also auch wieder eine Schöpfungshöhe erreicht wird.

Prompts hingegen, also Arbeitsanweisungen an das generative KI-Tool, können schutzfähig sein, sofern diese eine eigene Schöpfungshöhe haben und entsprechend ausgefeilt sind. Einfache Arbeitsanweisungen reichen dazu allerdings nicht.

Insgesamt leiten sich daraus folgende Punkte für die gute wissenschaftliche Praxis ab:

  • Jeder Einsatz von generativer KI beim wissenschaftlichen Schreiben sollte dokumentiert werden, um ihn, falls nötig, auch deklarieren zu können.
  • KI-generierte Texte als die eigenen auszugeben, ist ein Verstoß gegen die gute wissenschaftliche Praxis. Je nach Fragestellung übernimmt das Tool Sätze oder Abschnitte aus Texten Dritter ohne diese entsprechend zu kennzeichnen. Bei einer Übernahme in den eigenen Text ohne Zitieren der Quellen liegt ein Plagiat vor.
  • Autor:innen bleiben alleine verantwortlich für den Inhalt des Manuskripts/ der Publikation. Diese Verantwortung kann nicht an das Tool oder deren Hersteller abgegeben werden.
  • Bei KI-generierten Literaturnachweisen sollte immer ein Abgleich mit dem Bibliothekskatalog oder einer Literaturdatenbank erfolgen, um sicherzustellen, dass der Artikel oder das Buch auch wirklich existiert und tatsächlich auch von den genannten Autor:innen verfasst wurde.
  • Das Verletzen der Anonymität in Begutachtungsverfahren durch den Einsatz von generativen KI-Tools ist nicht zulässig.
  • Urheberrechtlich geschütztes Material sollte nicht zu Analysezwecken in ein KI-Tool geladen werden, weil damit die Rechte Dritte verletzt werden können.
  • Es versteht sich von selbst, dass der Einsatz entsprechender Tools für das Fälschen oder Erfinden von Daten oder ganzen Studien, wie es bei Paper Mills üblich ist, nicht mit den Grundsätzen der guten wissenschaftlichen Praxis vereinbar ist.

KI Policies von wissenschaftlichen Zeitschriften und Verlagen

Immer mehr Zeitschriften geben sich eine Policy, die für Autor:innen und Gutachter:innen regelt, ob und in welchem Rahmen der Einsatz von generativen KI-Tools gestattet ist und ob und wie dieser deklariert werden sollte. Die Policy kann unter Umständen auch Angaben zum Detailgrad der Deklaration machen, also z.B. ob das Tool explizit genannt werden muss oder welche Textteile betroffen sind etc.

Verstöße gegen diese Policy können zur Ablehnung eines Manuskriptes führen oder zur nachträglichen Retraction, also dem Zurückziehen, sollte der Artikel bereits publiziert sein.

Entsprechende Policies finden sich auf der Website der Zeitschrift oder des Verlages. Sollte die Zeitschrift noch keine Policy haben, aber der Einsatz von generativer KI erwogen werden, sollten die Herausgebenden kontaktiert werden.

Nutzung von Generativen KI-Tools

Auswahl

Da es sich um einen hochdynamischen Markt handelt, soll hier auf ausführliche Toolvergleiche verzichtet werden. An dieser Stelle soll lediglich auf Punkte eingegangen werden, die für die Auswahl von entsprechenden Tools eine Rolle spielen können.

Die Auswahl des Tools ist zunächst abhängig von der Aufgabe. Es gibt Tools, die sich insbesondere für Hilfestellung bei der Literaturrecherche, für das Formulieren/ Korrigieren von wissenschaftlichen Texten sowie die Auswertung von Daten eignen. Speziell an die Aufgabe angepasste Tools führen in der Tendenz zu besseren Ergebnissen. Interessant ist an dieser Stelle insbesondere auch, inwieweit das jeweilige Tool für den Einsatz im wissenschaftlichen Bereich konzeptioniert wurde.
Einige Literaturdatenbanken, wie zum Beispiel Web of Science oder Embase, bieten generative KI-Module an, die bei der Formulierung von Suchanfragen, Zusammenfassung von Dokumenten oder Extraktion und Gegenüberstellung von Daten aus den Texten helfen können. Diese Tools werden meist ausschließlich mit den Inhalten der Datenbank trainiert, die kuratiert und strukturiert sind – und damit vermutlich verlässlichere Resultate generieren können. Diese Module werden meist gegen einen Aufpreis vertrieben, so dass sie nur für Angehörige der Einrichtungen zur Verfügung stehen, die dieses Modul abonniert haben.

Ein weiteres Kriterium ist der Preis. Viele der Produkte bieten eine Versionierung an. Kostenfrei ist meist eine Version die einen reduzierten Funktionsumfang hat oder deren Dauer oder Häufigkeit der Nutzung eingeschränkt ist. Die unbegrenzte Nutzung mit vollem Funktionsumfang ist dann kostenpflichtig. Hier ist es sinnvoll, sich bei der eigenen Einrichtung zu erkundigen, ob und für welches Produkt eine Lizenz erworben wurde.

Auch datenschutzrechtliche Aspekte können relevant sein. Hier empfiehlt sich die Prüfung, ob die eigenen Rechte gewahrt bleiben. Zudem sollte geprüft werden, inwieweit Nutzungsrechte übertragen werden und analysierte Vorlagen und Prompts durch den Hersteller weiterverwendet werden dürfen.

Im Sinne von Open Science kann es auch angezeigt sein, dass der Quellcode der Tools sowie die Zusammensetzung des Trainingsmaterials offengelegt und im Sinne von Open Source veröffentlicht werden bzw. dies bei der Auswahl berücksichtigt wird.

Formulierung von Prompts

Generell sollten Prompts so präzise wie möglich formuliert werden. Sie sollten auch den Hinweis enthalten, dass die Inhalte für einen wissenschaftlichen Kontext generiert werden sollen. Einige Tools sind auch in der Lage, die Quellen, auf deren Basis sie die Texte generiert haben, zu benennen. Dies sollte beim Formulieren des Prompt auch eingefordert werden, sofern das Tool diese Angaben nicht generell macht. Dies erleichtert das Überprüfen und Ausschließen von Plagiaten.

Im Internet entstehen nach und nach Prompt-Bibliotheken, die nachgenutzt werden können. Beispiele vom New York Institute of Technology und der Universität Maastricht sind in der Navigation rechts verlinkt. Im Sinne der guten wissenschaftlichen Praxis sollte bei der Nachnutzung die Quelle benannt werden.

Viele wissenschaftliche Einrichtungen bieten mittlerweile Kurse zum Thema „wissenschaftliches Schreiben und generative KI“ an, die auch einen Überblick zu den Tools geben, die für die jeweiligen Aufgaben geeignet sind.

Ethische Implikationen

Da das Trainieren und der Einsatz von generativen KI-Tools immense Ressourcen wie z.B. Strom und Wasser verbraucht, sollte vor der Anwendung geprüft werden, inwieweit die Tools für das Lösen des Problems oder die Bearbeitung der Aufgabe tatsächlich einen Mehrwert bieten, die Arbeit erleichtert oder Zeit einsparen.

Siehe auch:

Urheberrecht und Wissenschaft: Was muss ich als Autor:in wissen?
Gute wissenschaftliche Praxis, wissenschaftliches Fehlverhalten und wissenschaftliche Integrität: Was hat es damit auf sich?
Peer Review: Warum ist es wichtig?
Erstellung eines Manuskripts für eine wissenschaftliche Publikation: Was gilt es dabei zu beachten?

 

Disclaimer

Bitte beachten Sie: Unser Service kann keine verbindliche Rechtsberatung anbieten, sondern stellt Informationen zur ersten Orientierung bereit. ZB MED – Informationszentrum Lebenswissenschaften hat die Angaben auf den folgenden Seiten sorgfältig geprüft, übernimmt aber für mögliche Fehler keine Haftung. Soweit nicht anders angegeben, beziehen sich Ausführungen zu einzelnen Rechtsnormen auf deutsches Recht (Stand FAQ 10/2025).

Kontakt

Jasmin Schmitz,

Dr. Jasmin Schmitz

Tel: +49 (0)221 999 892 665
E-Mail senden

Quellenangaben

LLM Literacy Materialien (accesed on 05.11.2025)

Yoo, J.-H. (2025). Defining the Boundaries of AI Use in Scientific Writing: A Comparative Review of Editorial Policies. Journal of Korean Medical Science, 40(23).  

Jeyaraman, M., & Jain, V. K. (2025). AI in scientific publishing: Revolutionizing research with caution. Journal of Clinical Orthopaedics and Trauma, 61, 102904.

Verch, U. (2024). Per Prompt zum Plagiat? API Magazin, 5(1). (German only)

Weiterführende Links

Kasprzik, A. (2025). Die KI(rche) im Dorf lassen. OPUS Publikationsserver (German only)

Generative KI - jenseits von Euphorie und einfachen Lösungen von 2024, Nationale Akademie Der Wissenschaften Leopoldina. (German only)

Web of Science | Clarivate - AI Reasearch Assistant

Elsevier - Embase AI

AI Prompt Library - For educators and students. vom 14.08.2025 Maastricht University Library.

LibGuides: Prompt Engineering for Academic Research: Prompt Library. vom New York Institute of Technology

Zusätzliche Informationen

Arning, U. (2024). Künstliche Intelligenz und ChatGPT: Über die Zukunft des wissenschaftlichen Publizierens – Jubiläumssymposium zu 20 Jahren German Medical Science. Information – Wissenschaft & Praxis, 75(2–3), 129–137.