Wiki "KI in der Hochschule"
Reiter
30. OAG-Treffen 28.04.2026
Datum: 28. April 2026, 9:00 - 10:30 Uhr
Protokollführung: Tanja Trzeciak (unterstützt durch Sebastian Busse und ChatGPT-4o, https://www.openai.com/)
Teilnehmende: Bertram Walter, Christian Uhl, Christina Koch, Eva Regensburg, Frank Waldschmidt-Dietz, Joss von Hadeln, Lisa Gehlen, Marc Schetelig, Nadine Ackermann, Sebastian Busse, Tanja Trzeciak
Das nächste OAG-Treffen findet statt am 26.05.2026, 9:00 - 10:30 Uhr.
Teilnahme-Link: https://webconf.hrz.uni-giessen.de/b/seb-c7n-lnt-cqu
1. Hinweise zu „Agentic-Browsern“ und dienstlicher KI-Nutzung
Zu Beginn wurde auf die entsprechende Informationsseiten der JLU verwiesen: https://www.uni-giessen.de/de/fbz/svc/hrz/svc/services/ki/ki-assis . Sie enthält Hinweise zum Umgang mit „Agentic-Browsern“ und autonomen KI-Assistenten. Es handelt sich dabei nicht um eine Checkliste im engeren Sinne, sondern um sicherheitsbezogene Empfehlungen, insbesondere dazu, wovon aus Sicht der Informationssicherheit dringend abgeraten wird. Ergänzend wurde auf eine seit November bestehende Informationsseite zur dienstlichen Nutzung von KI-Diensten verwiesen, die eine Matrix zu zentral angebotenen JLU-Diensten und häufig nachgefragten externen Diensten enthält: https://www.uni-giessen.de/de/fbz/svc/hrz/svc/services/ki/info-externe-dienste.
Diskutiert wurde, ob für „Open-Claw-Agenten“ beziehungsweise vergleichbare agentische Systeme auf JLU-Rechnern ein ausdrückliches Verbot erforderlich sei, da solche Systeme bei entsprechender Berechtigung weitreichenden Zugriff auf lokale und institutionelle Systeme erhalten könnten. Es wurde berichtet, dass andere Hochschulen, etwa die Goethe-Universität Frankfurt, einzelne Werkzeuge wie „OpenClaw“ verboten hätten, damit aber nicht automatisch das gesamte Feld agentischer KI erfasst werde. Als gegenwärtige Formulierung wurde festgehalten, dass von der Nutzung dringend abgeraten werde. Für Forschung und Lehre könne es Fälle geben, in denen solche Systeme beforscht werden müssten; dann sei eine informationssicherheitstechnisch saubere Abschirmung erforderlich, wofür der ISB als Beratungsstelle zur Verfügung stehe. Für Verwaltungskontexte einschließlich Lehradministration wurde die Nutzung grundsätzlich nicht empfohlen.
Zusätzlich wurde auf die neue Seite https://www.uni-giessen.de/ki verwiesen, auf der verschiedene KI-Angebote der JLU zusammengeführt werden sollen. Diese Seite existiert bereits, befindet sich jedoch noch im aktiven Aufbau und ist noch nicht finalisiert.
2. Einordnung des Dokuments „Do’s und Don’ts“ der Kanzlei JUN Legal GmbH zu KI, Recht und guter wissenschaftlicher Praxis
Joss stellte das Dokument „Do’s und Don’ts“ vor, das aus einem Austausch mit der Kanzlei Jun Legal Gmbh aus Würzburg hervorgegangen war. Anlass für diesen Austausch waren wiederkehrende rechtliche Fragen aus Beratungskontexten in Forschung und Lehre, insbesondere zu Prüfungen, Validierung, Autorinnenschaft, Eigenständigkeitserklärungen, Urheberrecht und Datenschutz. Es wurde betont, dass es sich nicht um eine offizielle Leitlinie der JLU und auch nicht um ein formales Rechtsgutachten handelt. Vielmehr wurde das Dokument als fachlich und rechtlich orientierende Grundlage beschrieben, die aus einem Gespräch mit der Kanzlei entstanden ist und die Beratungspraxis absichern soll.
Das Dokument wurde in einer Sitzung des ZAD-Direktoriums grundsätzlich sehr positiv aufgenommen. Bevor es jedoch verbreitet oder auf einer Webseite veröffentlicht werden könne, muss erst mit den zuständigen JLU-Stellen geklärt werden, ob und in welcher Form das Dokument zur Verfügung gestellt werden darf. Hintergrund war die Sorge, dass das Papier sonst fälschlicherweise als offizielle JLU-Leitlinie verstanden werden könnte. Folien und Dokument sollten daher zunächst nicht weitergegeben werden. Eine spätere Bereitstellung über die ZAD-Seite oder über einen Newsletter an die OAG-Mitglieder wurde als Möglichkeit genannt.
3. Urheberrecht, Kopien und Gemeinfreiheit bei KI-generierten Inhalten
Ein Schwerpunkt lag auf der Frage, ob KI-generierte Inhalte urheberrechtlich geschützt, gemeinfrei oder potenziell rechtsverletzend sein können. Es wurde erläutert, dass KI-Ausgaben, soweit sie neu erzeugt wurden und keine hinreichende menschliche Schöpfungsleistung enthalten, nach derzeitiger Einordnung häufig keine eigene urheberrechtliche Schutzfähigkeit begründen. Zugleich wurde deutlich gemacht, dass KI-Ausgaben dennoch urheberrechtlich geschütztes Material reproduzieren oder diesem zu stark ähneln können. Bei Texten, Bildern oder sonstigen Werken müsse im Streitfall geprüft werden, ob der Abstand zum Ursprungswerk ausreichend groß ist und ob dieser Abstand durch einen menschlichen schöpferischen Beitrag entstanden ist.
Als problematisch wurde beschrieben, dass die Rechtsprechung hierzu noch nicht gefestigt ist und Gerichte vielfach über Fragen entscheiden müssen, bei denen juristische und technische KI-Kompetenz eng zusammenfallen. Die Frage, ob ein besonders ausgearbeiteter Prompt selbst schutzfähig sein und dadurch auch den Output beeinflussen könne, wurde als aktuell noch nicht eindeutig anerkannt dargestellt. Auch bei Bildern wurde hervorgehoben, dass ein KI-generiertes Bild zwar keine direkte Kopie sein muss, aber dennoch gemeinfrei sein kann, wenn die „Schöpfungshöhe“ nicht erreicht wird. Die genaue Grenze zwischen menschlicher Eigenleistung, KI-Anleitung und maschineller Erzeugung wurde als offen und voraussichtlich noch länger klärungsbedürftig eingeordnet.
4. Offenlegung und Prozessdokumentation von KI-Nutzung
Ausführlich diskutiert wurde die Frage, wie KI-Nutzung in wissenschaftlichen Arbeiten, Publikationen und studentischen Leistungen offengelegt werden soll. Es wurde empfohlen, den Einsatz von KI-Systemen grundsätzlich kenntlich zu machen, etwa in einem Methodenanhang, Disclaimer oder einer vergleichbaren Erklärung. Als sinnvoll wurde beschrieben, nicht zwingend jeden einzelnen Prompt vollständig offenzulegen, sondern Kategorien der Nutzung anzugeben, beispielsweise sprachliche Glättung, Kürzung, Redundanzreduktion, Literaturrecherche, Code-Erstellung oder Unterstützung bei einzelnen Analyseschritten. Einzelne Prompts könnten dann relevant werden, wenn sie für die Entstehung zentraler Begriffe, Argumente, Strukturen oder Codebestandteile entscheidend waren.
Als Beispiel wurde ein Disclaimer vorgestellt, in dem erklärt wurde, dass eine Veröffentlichung auf einem selbstständig konzipierten Vortrag beruhte, dass Grundidee, Struktur und zentrale Thesen eigenständig entwickelt wurden und dass generative KI-Werkzeuge nur begrenzt zur sprachlichen Optimierung, Kürzung, Glättung und Reduktion von Redundanzen eingesetzt wurden. Zusätzlich wurde „ScienceOS“ als Unterstützung einzelner Schritte der Literaturrecherche genannt. Der Disclaimer enthielt außerdem die Aussage, dass sämtliche inhaltlichen Entscheidungen, Argumentationen sowie die finale Auswertung und Bewertung der Quellen durch den Autor vorgenommen wurden und dass die volle Verantwortung für den Inhalt übernommen werde. Diese Formulierung wurde als praktikabler Versuch verstanden, Eigenleistung, KI-Nutzung und Verantwortungsübernahme transparent zu machen, ohne eine nicht handhabbare Totaldokumentation zu erzeugen.
Es wurde festgehalten, dass eine vollständige Prozessdokumentation im Sinne eines Logbuchs bei umfangreichen Arbeiten schnell unverhältnismäßig werden könne. Besonders im Publikationskontext könnten detaillierte Prompt-Verläufe den Umfang eines Artikels oder Sammelbands sprengen. Als möglicher Mittelweg wurde vorgeschlagen, einen kurzen, klaren Disclaimer in der Publikation selbst zu nutzen und umfangreichere Dokumentationen, soweit erforderlich, eher in Supplements, internen Archiven oder Review-Prozessen vorzuhalten. Zugleich wurde darauf hingewiesen, dass unterschiedliche Verlage und Journals bereits unterschiedliche Anforderungen an die Offenlegung von KI-Nutzung stellen.
5. Eigenleistung, Autorinnenschaft und wissenschaftliche Redlichkeit
Die Diskussion zur Offenlegung führte zu einer grundsätzlichen Auseinandersetzung mit Eigenleistung und Autorinnenschaft. Es wurde herausgestellt, dass nur eine geistig-persönliche Schöpfung urheberrechtliche Ansprüche begründen kann. Wenn eine wissenschaftliche Arbeit oder ein größerer Textanteil im Wesentlichen durch KI erzeugt werde und die menschliche Person lediglich anleite, könne die eigene Autorinnenschaft rechtlich und wissenschaftlich fraglich werden. Zugleich wurde festgestellt, dass die Abgrenzung zwischen menschlichem Beitrag und KI-Beitrag in der Praxis schwierig bis unmöglich sein kann, insbesondere wenn KI im dialogischen Prozess zur Ideenentwicklung, Strukturierung oder Formulierung eingesetzt wird.
Als zentral wurde die Frage identifiziert, wie nachweisbar bleibt, was von Studierenden, Forschenden oder Autorinnen und Autoren selbst stammt. Dies sei besonders relevant für Eigenständigkeitserklärungen, Modulhandbücher, Prüfungsformen und wissenschaftliche Publikationen. Es wurde betont, dass die wissenschaftliche Redlichkeit ein Grundpfeiler universitärer Vertrauensstrukturen sei. Wenn Universitäten, Wissenschaft, Presse oder Rechtssysteme als Vertrauensstrukturen beschädigt würden, habe dies gesellschaftliche Folgen. Der Umgang mit KI wurde daher nicht nur als technische oder rechtliche, sondern auch als wissenschaftskulturelle Frage eingeordnet.
Zugleich wurde darauf hingewiesen, dass vergleichbare Probleme nicht erst durch KI entstanden sind. Auch vor KI-Zeiten seien Ideen aus Gesprächen, Konferenzen, Literatur, Acknowledgements oder informellen Diskussionen in Arbeiten eingeflossen. In geisteswissenschaftlichen Kontexten wurde es als gute Praxis beschrieben, substanzielle menschliche Beiträge nicht nur allgemein in Acknowledgements, sondern gegebenenfalls auch konkret in Fußnoten kenntlich zu machen, etwa wenn ein konzeptioneller Begriff gemeinsam mit einer anderen Person entwickelt wurde. Für KI wurde vorgeschlagen, eine ähnliche, aber nicht identische Logik zu prüfen: Wo eine KI punktuell entscheidend zur Entwicklung eines Begriffs oder einer Argumentationsverbindung beigetragen habe, könne dies im Text transparent gemacht werden; bei bloßer sprachlicher Unterstützung genüge dagegen eher eine kategorische Offenlegung.
6. Grenzen detaillierter Dokumentation und Vergleich mit menschlichen Ideengebern
Mehrere Beiträge betonten, dass eine vollständige Dokumentation aller KI-Interaktionen unpraktikabel und möglicherweise wissenschaftlich nicht zielführend sei. Wenn jede kleinere Formulierungsänderung, jeder Wortvorschlag oder jede Glättung einzeln dokumentiert werden müsste, könnte die Dokumentation länger werden als der eigentliche Text. Als Vergleich wurde auf bereits existierende Dokumentationspflichten in der Forschung verwiesen, etwa bei Original-Gelbildern, Rohdaten oder umfangreichen Datensheets in bestimmten naturwissenschaftlichen Publikationsprozessen. Dort sei die Dokumentation zwar aufwendig, diene aber der Nachprüfbarkeit konkreter Datenmanipulationen oder methodischer Entscheidungen.
Im Unterschied dazu sei bei KI-gestützter Ideenentwicklung oft nicht eindeutig nachweisbar, welcher Gedanke aus dem Menschen, aus der Maschine oder aus der Interaktion entstanden ist. Es wurde vorgeschlagen, den Fokus weniger auf die vollständige Dokumentation des maschinellen Beitrags und stärker auf den nachvollziehbaren menschlichen Arbeitsprozess zu legen. Entscheidend sei, ob der menschliche Anteil minimal war und ob eine Arbeit als eigene Leistung ausgegeben wurde, obwohl sie im Wesentlichen von einer KI oder anderen Personen stammte. Als Negativbeispiel wurde eine Leistung beschrieben, bei der ein einzelner Prompt zu einem KI-generierten Text führt, der unverändert als eigene Arbeit abgegeben wird. Als zulässiger und produktiver wurde dagegen ein kooperativer, iterativer Prozess verstanden, in dem menschliche Entscheidungen, Versionen und Weiterentwicklungen erkennbar bleiben.
7. Faktenprüfung, Quellenverifikation und Validierung
Ein weiterer Schwerpunkt lag auf der Pflicht zur Faktenprüfung und Quellenverifikation. Es wurde betont, dass KI-generierte oder KI-unterstützt recherchierte Quellen grundsätzlich geprüft werden müssen. Dies wurde nicht als völlig neues Problem beschrieben, sondern als Fortsetzung bereits bestehender Schwierigkeiten guter wissenschaftlicher Praxis. Schon vor KI sei es problematisch gewesen, Quellen nur auf Basis von Abstracts, Einleitungen oder Diskussionsteilen zu zitieren, ohne Methodik, Stichprobengröße oder Belastbarkeit der Ergebnisse zu prüfen. KI könne dieses Problem verschärfen, da sie passend wirkende Quellen vorschlägt, deren tatsächliche Aussage, Methodik oder Validität erst durch Lektüre geprüft werden muss.
Als Beispiel wurde beschrieben, dass eine durch KI vorgeschlagene Quelle zunächst inhaltlich passend erschien, sich in der Diskussion aber als nicht belastbar für die gewünschte Aussage erwies, weil die zentrale Annahme der Studie nicht bestätigt werden konnte. Daraus wurde abgeleitet, dass Forschende weiterhin selbst Verantwortung für die Prüfung von Quellen, Daten und Argumentationen tragen. Ähnlich wurde die Nutzung von KI für statistische Auswertungen problematisiert. Wenn eine Person Statistik nicht selbst beurteilen könne, müsse eine fachkundige Person oder ein validiertes Verfahren die KI-Ergebnisse prüfen. Konzepte, bei denen andere KI-Systeme Validierungen übernehmen oder bekannte Datensätze zur Prüfung eingesetzt werden, wurden erwähnt, ersetzen aber nicht die Notwendigkeit nachvollziehbarer Validierung.
8. KI-generierter Code, Lizenzen und „Vibe-Coding“
Bei KI-generiertem Software-Code wurde die rechtliche und praktische Unsicherheit besonders hervorgehoben. Generierter Code aus Snippets sollte nur verwendet werden, wenn er Zeile für Zeile verstanden und erklärt werden kann. Problematisch sei, dass agentische KI-Systeme oder Werkzeuge wie „Claude Code“ Lösungen aus GitHub oder anderen Quellen übernehmen könnten, ohne die Herkunft transparent zu machen. Dadurch könne unbemerkt lizenzrechtlich geschützter Code in eigene Projekte oder wissenschaftliche Auswertungssoftware gelangen.
Als besonders schwierig wurde die Situation bei „Vibe-Coding“ beschrieben, wenn Forschende oder Lehrende Code über längere Zeit mit KI-Unterstützung entwickeln, ohne genau nachvollziehen zu können, welche Bestandteile eigenständig geschrieben, vorgeschlagen, ersetzt oder übernommen wurden. In Publikationen stelle sich dann die Frage, ob der Code in Supplements dokumentiert werden müsse und wie nachvollzogen werden kann, ob einzelne Codebestandteile lizenzrechtlich problematisch sind. Es wurde festgestellt, dass sich dieses Problem nicht vollständig lösen lässt, solange KI-Modelle potenziell auf Trainingsdaten beruhen, deren konkrete Herkunft nicht transparent ist. Wer jedes Restrisiko vermeiden wolle, müsse Code selbst schreiben; wer KI nutze, müsse möglichst gut dokumentieren, verstehen und validieren.
Es wurde außerdem darauf hingewiesen, dass ähnliche Probleme bereits vor KI bestanden, etwa durch das Übernehmen von Code-Snippets aus „Stack Overflow“. Neu sei jedoch, dass KI Code nicht nur vorschlägt, sondern aktiv editiert, ersetzt und neu kombiniert, wodurch Herkunft und Eigenleistung noch schwerer auseinanderzuhalten sind. Als mögliche technische Unterstützung wurden Werkzeuge erwähnt, die farblich oder anderweitig sichtbar machen, welche Text- oder Codeanteile von Menschen und welche von KI stammen. Eine abschließende Lösung wurde nicht identifiziert.
9. Datenschutz, personenbezogene Daten und urheberrechtlich geschützte Materialien
Bei personenbezogenen Daten wurde festgehalten, dass diese grundsätzlich nicht in KI-Systeme eingegeben werden sollten, sofern keine geeignete rechtliche und technische Grundlage besteht. Auf die zuvor genannten JLU-Informationsseiten zur dienstlichen Nutzung von KI-Diensten wurde in diesem Zusammenhang erneut verwiesen. Besprochen wurde außerdem der Umgang mit urheberrechtlich geschützten Materialien wie Closed-Source-Artikeln. Dabei wurde unterschieden zwischen einer möglichen Arbeitskopie, die nur innerhalb eines KI-Systems verarbeitet wird, und einer Vervielfältigung oder Zugänglichmachung gegenüber Dritten. Eine eindeutige rechtssichere Einschätzung wurde nicht formuliert.
Als entscheidender Faktor wurde genannt, ob der Anbieter die eingegebenen Daten zum Training verwenden darf. Wenn dies vertraglich oder technisch ausgeschlossen ist, wurde die Nutzung als weniger riskant, aber nicht vollständig geklärt beschrieben. Wenn Inhalte dagegen in Trainingsdaten einfließen könnten, könne dies urheberrechtlich problematisch werden. Es wurde zugleich darauf hingewiesen, dass Klagen häufig eher gegen KI-Anbieter gerichtet sein dürften, wenn diesen nachgewiesen wird, dass urheberrechtlich geschützte Werke in ihren Trainingsdaten enthalten sind und reproduziert werden können. Für einzelne Nutzende sei die konkrete Rückverfolgung eines bestimmten Uploads auf eine spätere Modellantwort technisch und juristisch schwer nachweisbar, insbesondere vor dem Hintergrund der Probleme von „Explainable AI“. Als persönliche, nicht offizielle Praxis wurde beschrieben, dass bei Modellen mit Zusicherung, Eingaben nicht zum Training zu verwenden, teilweise pragmatisch mit nicht öffentlichen, aber nicht geheimen Materialien gearbeitet werde.
10. Geheimnisschutz, Forschungsdaten und institutionelle Sicherheitsmodelle
Neben Datenschutz wurde auch der Schutz vertraulicher Forschungsdaten und geistigen Eigentums thematisiert. Es wurde empfohlen, besonders schützenswerte Forschungsdaten nicht in externe KI-Systeme einzugeben. Als Beispiel wurde die Universität Göttingen genannt, die nach berichteten Fällen von Industriespionage ihr Netz nach einem „Zero Trust“-Ansatz aufgebaut habe und Datenströme in die USA beziehungsweise zu großen Technologieanbietern weitgehend vermeide. Dort würden KI-Systeme bevorzugt so genutzt, dass keine Daten an große externe Unternehmen oder an OpenAI in die USA übertragen werden.
Es wurde berichtet, dass selbst Entwicklerinnen und Entwickler aus KI-Unternehmen teilweise externe KI-Systeme aus Gründen des Geheimnisschutzes nicht nutzen, weil Eingaben nach Innovationen, Entwicklungen und geistigem Eigentum gefiltert und für eigene Zwecke relevant werden könnten. Daraus wurde abgeleitet, dass Geheimnisschutz nicht nur eine abstrakte Datenschutzfrage ist, sondern unmittelbar mit Forschungskooperationen, Innovationen und wirtschaftlicher Verwertung zusammenhängt.
11. Scheinautorenschaft, Eigenständigkeitserklärungen und studentische Leistungen
Bei studentischen Leistungen wurde festgehalten, dass rein KI-generierte Texte nicht als Eigenleistung ausgegeben werden dürfen. Die Eigenständigkeitserklärung wurde in diesem Zusammenhang als Instrument beschrieben, mit dem Studierende ihre Autorinnenschaft und ihren eigenen Beitrag belegen. Wenn wesentliche Teile nicht von den Studierenden stammen, könne diese Erklärung nicht wahrheitsgemäß abgegeben werden. Dies wurde als Grundlage für künftige Anpassungen von Prüfungsformen, Modulhandbüchern und Lehrkonzepten verstanden.
Es wurde deutlich gemacht, dass Studierende nicht mit unrealistischen Anforderungen überlastet werden sollten, etwa mit vollständigen Nachweisen zu jedem potenziellen unbewussten Plagiat oder jeder historischen Vorprägung einer Idee. Zugleich müsse ihnen vermittelt werden, dass KI-Nutzung transparent, verantwortet und prüfbar erfolgen muss. Die Entwicklung belastbarer Eigenständigkeitserklärungen wurde als Teil eines größeren institutionellen Prozesses beschrieben, der fachbereichsspezifisch und didaktisch reflektiert erfolgen muss.
12. Mythen zu KI-Output, Deepfakes und rechtliche Restrisiken
Als Mythos wurde zurückgewiesen, dass KI-Output automatisch frei und risikolos nutzbar sei. Zwar könne KI-Output mangels menschlicher Schöpfung häufig nicht urheberrechtlich geschützt sein, er könne aber geschützte Muster, Textpassagen, Bilder, Figuren oder Stile enthalten. Als Beispiel wurde ein KI-generierter Wichtel im Stil der „Moomins“ genannt, bei dem im Streitfall geprüft werden müsste, ob eine zu große Ähnlichkeit zum geschützten Franchise besteht. Ob daraus eine Rechtsverletzung folgt, müsste im Zweifel ein Gericht entscheiden.
Darüber hinaus wurde darauf hingewiesen, dass unbewusste Übernahmen schon vor KI existierten, etwa bei Melodien, Gedichten oder Formulierungen, die eine Person später für eigene Einfälle hält, obwohl sie zuvor aufgenommen wurden. In Musik und Literatur gebe es hierzu zahlreiche Streitfälle. Auch Eigenplagiate wurden angesprochen, etwa wenn in naturwissenschaftlichen Publikationen identische Material-Methoden-Abschnitte erneut verwendet werden, obwohl sie methodisch korrekt und präzise formuliert sind. Unterschiedliche Journals handhaben dies unterschiedlich. Abschließend wurde bei Deepfakes festgehalten, dass Darstellungen realer Personen nur mit Einwilligung zulässig seien.
13. Anpassung von Prüfungsleistungen und fachbereichsspezifische Beispiele
Ausgehend von den rechtlichen und wissenschaftspraktischen Fragen wurde die künftige Gestaltung von Prüfungsleistungen als nächstes zentrales Thema identifiziert. Es wurde festgestellt, dass die Diskussion um Prüfungen häufig zu abstrakt bleibt, wenn nur allgemein davon gesprochen wird, Prüfungen müssten „KI-sicherer“ werden. Daher wurde vorgeschlagen, konkrete Beispiele aus Fachbereichen, Instituten oder Modulen in die ORG einzubringen. Besprochen werden sollen unter anderem Fragen danach, was Studierende lernen sollen, welche Kompetenzen geprüft werden, welche Inhalte oder Kompetenzen bereits in Modulhandbüchern stehen und wie Prüfungsformate angepasst werden könnten.
Sebastian und Joss kündigten an, solche Beispiele aufzugreifen, vorzubereiten und in der OAG gemeinsam zu diskutieren. Aus einem Fachbereich wurden bereits Erfahrungen mit angepassten Prüfungen und einem neu erstellten Modul genannt. Auch Projektmodule, in denen Studierende Berichte schreiben, wurden als relevante Beispiele genannt, weil dort trotz längerer Prozessstruktur KI-Nutzung eine Herausforderung darstellt. Es wurde angeregt, ältere oder aktuelle Prüfungen, Prüfungsfragen oder Prüfungsleistungen einzureichen, sofern sie sich für eine gemeinsame Analyse eignen. Dabei müsse bedacht werden, welche Prüfungsfragen öffentlich diskutiert werden können, ohne laufende Prüfungen zu gefährden.
Für den Fachbereich 09 wurde hervorgehoben, dass die disziplinäre Breite von Sozial- und Geisteswissenschaften bis zu Naturwissenschaften die Entwicklung einheitlicher Prüfungsregelungen besonders anspruchsvoll macht. Laborbezogene Arbeiten, textbasierte geisteswissenschaftliche Leistungen und andere Prüfungsformen erfordern unterschiedliche Kriterien und Gewichtungen. Eine allgemeine Prüfungsordnung oder fachbereichsweite Orientierung müsse diese Unterschiede berücksichtigen. Alle Fachbereiche wurden eingeladen, geeignete Beispiele einzubringen.
14. Ende des OAG-Treffens
Zum Abschluss wurde vereinbart, dass die OAG das Thema Prüfungsleistungen ab der nächsten Sitzung stärker anhand konkreter Fälle weiterverfolgen soll. Beispiele können per E-Mail an die ZAD Geschäftsstelle oder direkt an Joss und Sebastian geschickt werden. Die Fälle sollen in der Gruppe diskutiert und zu möglichen Anpassungen, Prüfungsdesigns oder Bewertungskriterien weiterentwickelt werden. Eine Aufnahme dieses Aufrufs in die Einladung zur nächsten OAG-Sitzung wurde als Möglichkeit genannt.
Zuletzt geändert: 7. Mai 2026, 3:35pm, Trzeciak, Tanja [j_w4q6k4m]