Wiki "KI in der Hochschule"
Reiter
27. OAG-Treffen 09.12.2025
Datum: 09. Dezember 2025, 9:00 - 10:30 Uhr
Protokollführung: Sebastian Busse (unterstützt durch ChatGPT-4o, https://www.openai.com/)
Teilnehmende: Antje Müller, Bertram Walter, Christian Uhl, Daria Hennrichs, Eric Hebenstreit, Eva Regensburg, Frank WD, Joss von Hadeln, Leonie Schmidt, Maja Bärenfänger, Marc Schetelig, Nadine Ackermann, Sebastian Busse, Sigrid Jost, Tanja Trzeciak, Viet Duc Vu
Das nächste OAG-Treffen findet statt am 27.01.2026, 9:00 - 10:30 Uhr.
Teilnahme-Link: https://webconf.hrz.uni-giessen.de/b/seb-c7n-lnt-cqu
1. Begrüßung, organisatorischer Rahmen und Jahresabschluss
Das 27. Treffen der „OAG“ wurde als letzte Sitzung des Jahres 2025 eröffnet und als Jahresrückblick angelegt. Es wurde begrüßt, dass neben den regelmäßigen Teilnehmenden auch mehrere Personen nach längerer Pause bzw. erstmals wieder dabei waren. Inhaltlich wurde angekündigt, den Austausch bewusst offen zu halten: Einerseits Rückschau auf Entwicklungen seit dem letzten Treffen und dem JLU-weiten KI-Workshop (am 25.11.2025), andererseits Ausblick auf 2026 mit erwartbar weiteren technologischen Sprüngen und neuen Tool-Angeboten. Für 2026 wurde zudem angeregt, einzelne Themen vertieft zu behandeln, etwa einen Mini-Deep-Dive zu einem neu angekündigten Google-Modell (Gemini 3 Pro), das zuletzt stark diskutiert worden war.
2. AI-Summer Camp und geplante Fortsetzung
Das im September 2025 in Kooperation mit der „Macquarie University“, Fachbereich 07 und dem DiML („Center for Diversity, Media, and Law“) durchgeführte AI-Summer Camp wurde als wichtiger Meilenstein des Jahres hervorgehoben. Das Format richtete sich an alle Statusgruppen und umfasste zwei intensive Kurswochen, flankiert von Satellitenveranstaltungen. Es wurde berichtet, dass dadurch sehr viele Angehörige der Universität standortübergreifend zum gemeinsamen Lernen im Bereich „Generative KI“ zusammenkamen. Für das kommende Jahr wurde eine Wiederholung angekündigt, diesmal in Zusammenarbeit mit der Hochschuldidaktik und mit bereits zugesagten Fördermitteln. Die Gruppe wurde gebeten, frühzeitig Themenwünsche und ggf. eigene Beiträge einzubringen, insbesondere mit Fokus auf Forschung und Lehre.
3. Rechtsfragen zu KI-Nutzung und Abstimmung mit Kanzlei
Aus einer AI-Summer Camp-Diskussion mit einer auf „KI und Recht“ spezialisierten Kanzlei (Kanzlei JUN Legal) wurde ein Folgetermin in Würzburg für den 9./10. Dezember 2025 abgeleitet, um offene Rechtsfragen aus dem Arbeitsalltag systematisch zu klären und möglichst nachhaltig zu dokumentieren. Als zentrale Unsicherheiten wurden u. a. der Upload geschützter Inhalte in KI-Systeme, der Umgang mit Papers hinter Paywalls sowie die Frage genannt, was aktuell „erlaubt“ bzw. „nicht erlaubt“ sei und wo rechtliche oder ethische Bedenken beginnen. Es wurde ausdrücklich angeboten, konkrete Fragen aus der Runde mitzunehmen und im Gespräch mit der Kanzlei zu platzieren. Gleichzeitig wurde betont, dass die rechtliche Bewertung stark vom konkreten Tool-Setup, den Datenflüssen (Cloud vs. lokal) und dem jeweiligen Nutzungskontext abhänge.
4. Literaturrecherche mit KI, Paywalls und Tool-Grenzen
Die Qualität KI-gestützter Literaturrecherche wurde ausführlich diskutiert, insbesondere die Frage, ob Systeme tatsächlich „umfassend“ suchen können, wenn Volltexte häufig hinter Paywalls liegen. Es wurde erläutert, dass bestimmte Recherche-Tools (bspw. scienceOS) auf großen wissenschaftlichen Datenquellen basieren (u. a. Semantic Scholar) und in der Praxis häufig primär Abstracts verarbeiten, während Volltexte je nach Verfügbarkeit fehlen. Technische Funktionsweisen wurden beschrieben, etwa eine mehrstufige Auswahl relevanter Artikel (zunächst breite Treffer, dann engere Auswahl, ergänzt um Zitationsnetzwerke) sowie getrennte Modi für „Recherche“, „Dialog mit PDFs“ und „Arbeiten mit eigenen Dokumentensammlungen“. Als praktische Grenze wurde genannt, dass Upload- und Seitenlimits (z. B. bei sehr langen PDFs/Büchern) die Nutzbarkeit einschränken und ggf. eine Zerlegung großer Dokumente nötig machen. Aus der Runde wurde zudem berichtet, dass die Güte der Ergebnisse stark domänenspezifisch ausfalle; insbesondere in medizinischen/psychologischen Feldern mit vielen Paywalls sei der Nutzen ohne Zugriff auf Volltexte begrenzt.
5. Quellenqualität, Halluzinationen und Verifikation
Es wurde auf wiederkehrende Probleme mit „scheinbar sauberen“ Quellenangaben hingewiesen, die sich bei der Nachprüfung als falsch oder nicht existent herausstellen können, inklusive fehlerhafter BibTeX-Angaben und Verlinkungen, die zu anderen Publikationen führen. Die Notwendigkeit manueller Verifikation wurde als zwingend herausgestellt, gerade wenn KI-Systeme Download-Links oder PDF-Zugänge behaupten. Gleichzeitig wurde Open-Access als strukturelle Gegenmaßnahme betont: Wenn Publikationen (wo möglich) offen zugänglich gemacht werden, verbessere dies nicht nur wissenschaftliche Transparenz, sondern auch die Verwendbarkeit in KI-gestützten Workflows. Es wurde aber ebenfalls festgehalten, dass zentrale ältere Arbeiten häufig weiterhin hinter Paywalls liegen und dadurch in KI-Recherchen systematisch fehlen können.
6. Perspektive: Lokale Wissensbasen, RAG-Systeme und domänenspezifische Modelle
Der Aufbau lokaler Lösungen wurde als strategisch wichtiger Entwicklungspfad diskutiert, insbesondere um eigene Literatur- oder Dokumentenbestände datenschutzkonform nutzbar zu machen. Seitens einer Teilnehmerin wurde berichtet, dass im Frühjahr 2026 (Februar/März) ein RAG-System in der lokalen Infrastruktur des HRZ verfügbar werden solle, um eigene Wissensbasen aufzubauen und abzufragen. Ergänzend wurde die Erwartung formuliert, dass die Zukunft weniger in „einem Modell für alles“, sondern stärker in spezialisierten Modellen und gut kuratierten Datenräumen liegen könnte. Als Hürde wurde jedoch genannt, dass technische Umsetzung, Pflege des Domänenwissens und organisatorischer Betrieb erhebliche Ressourcen erfordern und nicht „nebenbei“ gelingen. Der Bedarf an Betatests und Rückmeldungen wurde als hoch eingeschätzt, sobald lokale Systeme bereitstehen.
7. Prompt- und Wissenspools, Dokumentation von Nutzungskontexten
Es wurde als wiederkehrender Wunsch festgehalten, Erfahrungen zu Tools, Prompts und Arbeitsweisen nicht nur informell zu teilen, sondern strukturiert als Wissenspool verfügbar zu machen. Dabei wurde hervorgehoben, dass solche Sammlungen nur dann hilfreich sind, wenn jeweils nachvollziehbar dokumentiert wird, mit welchem Modell, welchen Einstellungen und welchem Ziel gearbeitet wurde. Als Referenz wurde ein Promptkatalog aus dem Hochschulforum Digitalisierung genannt, der genau diese Kontextangaben systematisch mitführt. Zusätzlich wurde berichtet, dass seit August eine interne Special-Interest-Group „KI-Werkzeuge in ILIAS“ existiere, in der bereits eine Datensammlung begonnen wurde, zunächst für eine Pilotgruppe. Für die OAG wurde daraus der Impuls abgeleitet, ein kuratiertes, gepflegtes Format (z. B. Mini-Wiki) zu prüfen und eventuell umzusetzen.
8. KI in Verwaltung und Beratung, insbesondere Chatbots
Der Austausch zeigte deutliches Interesse an KI-Unterstützung in administrativen Kontexten, etwa für E-Mail-Kommunikation, Beratung, Organisation und standardisierte Anfragen von Studierenden. Es wurde erwähnt, dass hierzu bereits ein kleines Projekt gestartet wurde, das KI-Chatbots für Fragen und organisatorische Abläufe erprobt, und dass Vernetzung zwischen interessierten Personen aktiv angestoßen werden solle. Gleichzeitig wurde betont, dass die technische Erstellung eines Chatbots oft nicht das Hauptproblem ist, sondern die Bereitstellung, Aktualisierung und Qualitätssicherung der Wissensbasis sowie die klare Zuständigkeit für Pflege und Governance. Ein weiterer Schwerpunkt war die Frage, welche Lösungen datenschutzrechtlich vertretbar sind und wann lokale Setups notwendig werden.
9. Aufzeichnung, Transkription und Protokollerstellung
Die Möglichkeit, Sitzungen aufzuzeichnen und Protokolle KI-gestützt zu erstellen, wurde erneut thematisiert und als grundsätzlich praktikabel beschrieben. Als Hauptgrund, warum dies nicht durchgehend verfolgt wurde, wurde der Aufwand genannt, jedes Mal die Zustimmung aller Beteiligten einzuholen. Es wurde angeboten, den Prozess in einer der nächsten Sitzungen transparent vorzustellen, inklusive Tool-Kette und pragmatischer Umsetzung. Aus dem Kreis wurde zudem angeregt, die rechtliche Dimension dieser Workflows (Speicherorte, Upload-Fragen, Datenkategorien) mit der anstehenden juristischen Klärung zu verknüpfen und daraus eine belastbare Handlungsanleitung abzuleiten.
10. KI in der Lehre: ILIAS-Plugin, Projekte und Rollout
Als positive Entwicklung wurde berichtet, dass seit März 2025 ein KI-Plugin für ILIAS pilotiert wurde und im Wintersemester die Nutzung durch Lehrende und Studierende deutlich zunahm. Die Pilotphase wurde als so überzeugend beschrieben, dass im Rahmen der KI-Pitches (Förderlinie AI in Teaching & Learning) mehrere Projekte Fördermittel für eine Weiterentwicklung beantragt haben und eine größere Integration beauftragt werden solle; als Zeithorizont wurde eher Sommer bis früher Herbst 2026 genannt. Für den unmittelbaren Betrieb wurde angekündigt, dass das Plugin ab dem 1. Januar 2026 allen Nutzerinnen und Nutzern zur Verfügung stehen soll, während es bis zum 31. Dezember 2025 auf die Pilotgruppe beschränkt blieb. Ergänzend wurden Beispiele aus Fachbereichen genannt, etwa KI-gestützte Podcast-Erstellung, Lernunterstützung über ILIAS sowie KI-Einsatz in GIS-Modellen, was insgesamt auf eine steigende Nachfrage und wachsende Experimentierfreude hindeutete.
11. Studierende, Abschlussarbeiten, Detektion und „Vertrauensfrage“
Der Umgang mit KI in Abschlussarbeiten wurde als prioritäres Thema für 2026 markiert, insbesondere weil Detektions-Tools als unzuverlässig erlebt wurden und Täuschungen oft erst über Qualitätsbrüche, falsche Quellen oder offensichtliche Formfehler auffallen. Es wurde ein konkretes Beispiel geschildert, in dem ein eindeutig KI-geprägter Text durch ein Erkennungssystem nicht angeschlagen habe und erst beim genauen Lesen bzw. über einen „dummen Fehler“ (u. a. Link-Spuren im Literaturverzeichnis) auffällig wurde. Daraus wurde abgeleitet, dass bei hoher Arbeitsbelastung das Risiko steigt, dass problematische Arbeiten durchrutschen, wenn nicht ausreichend Zeit für intensive Lektüre vorhanden ist. Aus der Schreibberatungsperspektive wurde berichtet, dass Plagiatsprüfung weiterhin stark nachgefragt werde und Studierende häufig „verschämt“ nach Detektionsgrenzen fragen, während KI-Nutzung selbst in Beratungen überraschend selten als praktisches Arbeitsproblem auftauche, sondern eher als Frage der Erlaubtheit. Als besonders kritisch wurde die beidseitige Vertrauenslage beschrieben: Studierende würden KI-Nutzung häufig nicht offenlegen, weil sie Nachteile bei der Bewertung befürchten, und gleichzeitig fehlten vielerorts klare, konsistente Linien unter Lehrenden.
12. Rahmensetzung: Zwischen universitärer Orientierung und Fach-/Lehrkontexten
Es entwickelte sich eine Diskussion, ob und wie ein gemeinsamer Rahmen an der Universität aussehen kann, ohne die Vielfalt fachlicher Anforderungen zu ignorieren. Ein Spannungsfeld wurde darin gesehen, dass allgemeine Workshops für Einsteiger hilfreich sein können, für Fortgeschrittene aber oft zu unkonkret bleiben, während zu kleinteilige Regeln auf Ebene einzelner Veranstaltungen für Studierende, insbesondere in interdisziplinären Studienwegen, schwer handhabbar wären. Als Vergleich wurde auf die Vielfalt von Zitierleitfäden verwiesen, die von Fachbereich zu Fachbereich und teils bis zur Professur variieren. Als praktikabler Ansatz wurde betont, dass KI-Kompetenzen möglichst früh im Studium verbindlich verankert werden sollten, etwa in Modulen zum wissenschaftlichen Arbeiten, und dass Lehrende dabei eine Vorbildfunktion übernehmen könnten, indem sie Nutzungsszenarien transparent machen und Kriterien für saubere Dokumentation vermitteln. Zugleich wurde herausgestellt, dass es weniger um pauschale Verbote, sondern um verantwortungsvolle Nutzung, Transparenz, Quellenpflege und das Verständnis wissenschaftlicher Sorgfalt als Vertrauensbasis geht.
13. Inhaltsfilter, Mehrdeutigkeiten und sprachliche Strategien
Neben organisatorischen Fragen wurden auch Grenzen von Modellen durch Inhaltsfilter und semantische Mehrdeutigkeiten thematisiert, etwa wenn Fachbegriffe aus Biologie/Medizin oder aus Bereichen mit sensiblen Begriffen (z. B. „Abtöten“, Sexualitäts-/Pornografie-Kontexte) zu Ablehnungen führen. Es wurde diskutiert, dass Filter je nach Modellarchitektur unterschiedlich greifen können, teils als Feintuning-Regeln, teils als nachgelagerte Wortfilter, was die Umgehbarkeit beeinflusst. Als pragmatische Strategie wurde genannt, den wissenschaftlichen Kontext explizit zu setzen, um Missverständnisse zu reduzieren, ohne damit verlässliche Freischaltungen garantieren zu können. Ergänzend wurde erläutert, dass Wörter in Vektorräumen stark mit bestimmten Bedeutungsclustern „verhakt“ sein können, wodurch in harmlosen Kontexten unerwünschte Assoziationen mitlaufen. Als interessanter Hinweis wurde eingebracht, dass bestimmte Sprachen aufgrund höherer grammatischer Präzision Mehrdeutigkeiten reduzieren können und damit die Ergebnisqualität beeinflussen können.
14. Vereinbarungen, offene Punkte und Ausblick auf den nächsten Termin
Für die nächste reguläre Sitzung wurde als Termin der 27. Januar 2026 genannt, mit dem Hinweis, dass der Turnus grundsätzlich am vierten Dienstag liegt und der Dezembertermin wegen des JLU-weiten-KI-Workshops verschoben worden war. Inhaltlich wurden als Wunschthemen festgehalten: Eine vertiefte Sitzung zu Bedienoberflächen und Workflows, die das Editieren und Steuern von Dialogen („Context-/Prompt-Kontrolle“) besser ermöglichen, einschließlich Erfahrungsaustausch zu konkreten Tools; die Erstellung bzw. Sammlung eines Glossars mit zentralen KI-Begriffen (auch explizit für Einsteigerinnen und Einsteiger); ein Schwerpunkt zu Chatbots in der Verwaltung mit realistischer Einordnung von Wissenspflege und Zuständigkeiten; sowie ein Format, das Rechts-Updates mit einem konkreten Use-Case verbindet, insbesondere Aufzeichnung/Transkription/Protokollierung und datenschutzkonforme Tool-Ketten. Es wurde zugesagt, Ergebnisse aus dem juristischen Gespräch zeitnah in die Gruppe zurückzuspielen und weitere Vorschläge über die bekannte Kontaktadresse zu sammeln.
Zuletzt geändert: 17. Dez 2025, 11:10am, Trzeciak, Tanja [j_w4q6k4m]