Pestañas
17. OAG-Treffen 20.11.2024
Datum: 20. November 2024, 09:00 - 10:30 Uhr
Teilnehmende: Andreas Arlt, Frank Waldschmidt-Dietz, Holger Repp, Joss von Hadeln, Nadine Ackermann, Marc Schetelig, Niklas Bender, Pascal Wengert, Sebastian Busse, Sebastian Schaper, Sten Seegel, Viet Duc Vu
Allgemeine Informationen und Organisatorisches
- Planung des Jahresabschlusstreffens im Dezember: Es wurde beschlossen, dass die nächste Sitzung in der KW50 stattfinden soll. Ein genauer Termin wird durch die übliche Terminumfrage ermittelt und per Newsletter kommuniziert. Inhaltlich soll das Treffen ein praktisches Tutorial zur Einrichtung und Nutzung lokaler KI-Modelle umfassen.
- Aufzeichnung und Transkription der Sitzungen: Es wurde vorgeschlagen, die zukünftigen Sitzungen vollständig aufzuzeichnen, um diese als Transkript verfügbar zu machen. Dazu soll vorher die Zustimmung aller Teilnehmer:innen eingeholt werden. Die kommende Sitzung zur Einrichtung von lokalen KI-Modellen soll zusätzlich als Videoaufzeichnung verfügbar gemacht werden.
- Themen ab 2025: In der Diskussion wurde das Interesse geäußert, zukünftig weitere Themen zu integrieren, wie etwa die Nutzung von automatischer Transkriptionstechnologie für Forschungs- und Lehrzwecke. Diese Funktionalitäten könnten besonders für die Soziologie und Sozialwissenschaften relevant sein.
Projektvorstellung "KI für alle!" - Sten Seegel
- Link zum Projekt: https://ki-chat.uni-giessen.de./
- Early-Adopter-Zugang: Um für das System freigeschaltet zu werden, kann ein Beitritt in folgender Stud.IP-Gruppe beantragt werden: https://studip.uni-giessen.de/dispatch.php/course/details?sem_id=ee47628211e7a9cb47b16f78c62d25fb
- Ziele des Projekts: Die Plattform zielt darauf ab, eine DSGVO-konforme und sichere Nutzung generativer KI für alle Mitglieder der Justus-Liebig-Universität (JLU) zu ermöglichen. Dabei wird besonderer Wert auf die Schaffung eines zentralen Dienstes gelegt, der darauf ausgelegt ist, auch technisch unerfahrenen Nutzer:innen den einfachen Zugang zu KI-Systemen zu ermöglichen. Gleichzeitig wird durch lokale Hosting-Lösungen die digitale Souveränität der Universität gestärkt.
- Technische Infrastruktur: Die Plattform basiert auf einer technischen Infrastruktur, die maximale Datensicherheit und Flexibilität gewährleistet. Dazu zählen lokal gehostete Sprachmodelle, die sicherstellen, dass alle Daten innerhalb der EU verbleiben und Datenschutzstandards entsprechen. Um die Abhängigkeit von internationalen Anbietern zu reduzieren, werden Open-Source-Modelle wie „Llama“ eingesetzt, wobei eine Integration weiterer europäischer Modelle geplant ist. Eine besondere Funktionalität ist der Einsatz eines Proxy-Servers, der alle Anfragen anonymisiert, sodass keine personenbezogenen Daten an externe Anbieter weitergegeben werden.
- Funktionalität: Die Anmeldung erfolgt unkompliziert über die JLU-Kennung. Das System erlaubt es den Nutzer:innen, spezifische Anweisungen (System-Prompts) für die Sprachmodelle zu definieren, um diese auf ihre individuellen Anforderungen anzupassen. Für maximale Datensicherheit wird die Chat-Historie ausschließlich lokal auf den Endgeräten gespeichert, wodurch keine sensiblen Daten auf Servern der Universität oder Drittanbietern abgelegt werden. Zu den geplanten Funktionserweiterungen gehört die Unterstützung für Dokument-Uploads, die voraussichtlich 2025 verfügbar sein wird.
- Erweiterungen ab 2025: Um die Einsatzmöglichkeiten der Plattform zu erweitern, sind mehrere neue Funktionen in der Entwicklung. Eine zentrale Neuerung wird die Anbindung von Vektordatenbanken sein, mit denen interne Wissensressourcen der Universität – wie Forschungs- und Verwaltungsdatenbanken – integriert werden können. Zusätzlich wird die Plattform perspektivisch um Bildgenerierungs-Tools sowie Übersetzungsdienste erweitert, die lokal betrieben werden können.
- Einsatzbereiche und Zielgruppen: Die Plattform ist so konzipiert, dass sie für verschiedene Zielgruppen und Einsatzbereiche einen Mehrwert bietet. In der Verwaltung kann sie zur Unterstützung administrativer Aufgaben beitragen, während sie in der Lehre und Forschung eingesetzt werden kann, um bswp. Texte zu analysieren. Ab dem zweiten Quartal 2025 wird die Plattform allen Studierenden zur Verfügung stehen.
- Kosten- und Lizenzmodelle: Die Plattform wird zu Beginn allen Nutzer:innen kostenfrei zur Verfügung gestellt, wobei die Finanzierung aus dem Projektbudget erfolgt. Eine zukünftige Anpassung des Vorgehens hängt von der Preisentwicklung und den verfügbaren finanziellen Ressourcen ab.
- Datenschutz: Die Nutzer:innen werden durch Hinweise und umfassende Nutzungsbedingungen sensibilisiert, um den sicheren und verantwortungsvollen Umgang mit KI zu fördern.
- Feedback: Aktuell befindet sich das Projekt in der Early-Adopter-Phase, in der eine begrenzte Gruppe von Nutzer:innen die Plattform testet, um Feedback zu geben und Verbesserungsvorschläge einzubringen. Diese Phase wird genutzt, um technische Fehler zu beheben und die Benutzerfreundlichkeit zu optimieren. Gleichzeitig lädt das Projektteam alle Interessierten dazu ein, sich an der Weiterentwicklung der Plattform zu beteiligen, insbesondere durch die Integration neuer Funktionen oder Schnittstellen, die für spezielle Fachbereiche relevant sind.
Erkennung von KI-generierten Inhalten, Plagiate und KI-Einsatz in der Lehre
- Herausforderungen bei der Erkennung von KI-generierten Texten: Tools, die vorgeben, KI-Inhalte zu identifizieren, arbeiten oft mit statistischen Modellen, die auf Häufigkeiten bestimmter Wörter und Muster basieren. Diese Ansätze sind jedoch anfällig für Fehler, insbesondere wenn Texte überarbeitet wurden. Studien zeigen, dass solche Systeme häufig falsch-positive Ergebnisse liefern, was zu ungerechtfertigten Anschuldigungen gegen Verfasser führen kann.
- Beispiele für Erkennungsmethoden und ihre Grenzen: Es wurden neuere Ansätze wie das Watermarking von Texten vorgestellt, das beispielsweise von Google Gemini verwendet wird. Dabei werden spezifische Wortmuster eingefügt, die nur durch die Entwickler der KI nachgewiesen werden können. Dieses Verfahren funktioniert jedoch nur bei Texten, die direkt und unverändert aus der KI stammen. Sobald ein Text bearbeitet oder durch spezielle Tools wie „Humanizer“ angepasst wird, verlieren diese Methoden an Aussagekraft. Zudem sind solche Systeme nur für Texte einer spezifischen KI (z. B. Google Gemini) anwendbar und daher nicht universell einsetzbar.
- Alternative Ansätze und Empfehlungen: Statt sich auf fragwürdige Erkennungstools zu verlassen, wird vorgeschlagen, die Prüfungsformate und Lehrmethoden anzupassen. Dazu gehört etwa die stärkere Fokussierung auf prozessbasierte und individuelle Leistungen wie mündliche Prüfungen oder Präsentationen, die schwerer durch KI zu manipulieren sind. Außerdem sollten Studierende ermutigt werden, den Einsatz von KI transparent zu machen und diesen in ihrer Arbeit zu reflektieren, um ein Bewusstsein für die verantwortungsvolle Nutzung der Technologie zu schaffen.
- Pilotprojekte und Richtlinien: Einige Fachbereiche haben eigene Leitlinien entwickelt, wie KI in der Lehre verwendet und geprüft werden sollte. Diese Leitlinien fokussieren sich darauf, Studierende in den verantwortungsvollen Umgang mit KI einzuführen und gleichzeitig sicherzustellen, dass Prüfungsleistungen eigenständig erbracht werden. Einheitliche universitätsweite Leitlinien wurden jedoch aufgrund der Diversität der Fachbereiche und Anforderungen als schwierig umzusetzen beschrieben.
- Ausblick auf zukünftige Entwicklungen: Die kontinuierliche Verbesserung von KI-Technologie und die Einführung neuer Erkennungsmethoden werden die Diskussion in den nächsten Jahren prägen. Es bleibt jedoch unklar, ob jemals eine zuverlässige Erkennung von KI-generierten Inhalten möglich sein wird.
Foliensatz 17. OAG-Treffen
Última edición: 22. Nov 2024, 4:16pm, Busse, Sebastian [gm1912]