Wiki "KI in der Hochschullehre"

Reiter

23. OAG-Treffen 23.06.2025

Datum: 23. Juni 2025, 9:00 - 10:30 Uhr

Protokollführung: Sebastian Busse (unterstützt durch ChatGPT-4o, https://www.openai.com/)

Teilnehmende: Christian Uhl, Frank Waldschmidt-Dietz, Joss von Hadeln, Sebastian Busse, Tanja Trzeciak, Viet Duc Vu

Link zur Terminumfrage nächstes OAG-Treffen (folgt)

Allgemeine Informationen und Organisatorisches

  • Besuch immersiver Lernraum am FB11: Es wird vorschlagen die Terminabfrage für den Besuch des immersiven Lernraums in der Medizin größer zu bewerben, da die Rückmeldung dazu bisher eher zurückhaltend war. Es wird angeregt, den Verteiler zu erweitern und auch andere Gruppen, wie die AG VR aus dem NIDIT-Projekt, einzuladen.
  • Vorstellungsrunde: Die neuen Mitarbeitenden des Zentrums für Angewandte Informatik und Data Science (ZAD), Christian Uhl und Tanja Trzeciak, stellen sich vor, da diese erstmalig an der OAG teilnehmen und auch zukünftig an der Organisation des Treffens beteiligt sind.
  • Nächstes OAG-Treffen: Das nächste Treffen wird Ende Juli stattfinden und soll der Reflexion des bisherigen Sommersemesters 2025 dienen und das Thema "Einsatz von KI-Avataren in der Lehre" vertiefen.

Diskussionsthema 1: Einfluss von KI-Nutzung auf kognitive Fähigkeiten und Lernprozesse

  • Studie des MIT mit dem Titel Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task: Joss von Hadeln stößt die Diskussion mit einer Studie des MIT an, die untersucht, wie sich das Gehirn vernetzt, wenn man Texte mit KI-Hilfe schreibt, im Vergleich zum Schreiben ohne KI. In der Studie wurden 54 Probanden untersucht, welche die Aufgabe erhielten innerhalb von 20 Minuten ein Essay zu ausgewählten Themen zu verfassen. In 3 Gruppen (Schreiben ohne Hilfsmittel, Schreiben mit Zugang zu Suchmaschinen, Schreiben nur mit KI-Tools) wurden unterschiedliche Parameter ausgewertet, die die kognitive Tiefe und Lernprozesse der Probanden repräsentieren sollen.
  • Kernthese der Studie: Wenn man sich von KI helfen lässt, insbesondere bei initialen Denkprozessen, erfolgt weniger Vernetzung im Gehirn, da weniger eigene Denkarbeit notwendig ist. Dies könnte bedeuten, dass grundlegende Kompetenzen nicht so stark aufgebaut werden.
  • Analogie zum Taschenrechner: Die Diskussion vergleicht die KI-Nutzung mit der eines Taschenrechners. Während ein Taschenrechner komplexere Berechnungen ermöglicht, ohne dass man jede Addition selbst durchführt, stellt sich die Frage, wie sich das auf grundlegende Kopfrechenfähigkeiten auswirkt.
  • Altersunterschiede in der neuronalen Plastizität des Gehirns und KI-Nutzungsverhalten: Es wird betont, dass das Gehirn auch im Alter plastisch bleibt, aber Routinen und Bequemlichkeit die Flexibilität mindern können. Ältere Personen, die bereits Grundkompetenzen aufgebaut haben, verlieren diese nicht so leicht durch KI-Nutzung wie Studierende, die diese Kompetenzen erst aufbauen. Es wird befürchtet, dass Studierende, die KI nutzen, um Aufgaben zu lösen, ohne sich tief mit den Inhalten zu beschäftigen, weniger lernen. Weiterhin wird hervorgehoben, dass ein Hauptproblem darin liegt, dass die Nutzer nicht kritisch hinterfragen, was die KI generiert. Es wird davor gewarnt, dass das "Handwerk" des Lernens verloren gehen könnte, wenn man sich zu sehr auf KI verlässt. Wenn KI nicht die richtige Ausgabe liefert, fehlen die Kompetenzen, um Fehler zu finden oder bessere Prompts zu erstellen.
  • Bias und Probleme durch KI-Nutzung: Wenn Studierende KI nutzen, um Texte zusammenzufassen, übernehmen sie möglicherweise den Bias der KI und entwickeln keine eigene Perspektive auf den Text. Es wird empfohlen, Inhalte erst selbst zu erarbeiten und dann KI zur Überprüfung oder für zusätzlichen Input zu nutzen, anstatt sich primär auf KI-generierte Inhalte zu verlassen. Es wird vorgeschlagen, "KI-freie Räume" zu schaffen, in denen Studierende Texte ohne KI-Unterstützung lesen und sich mit der Materie auseinandersetzen können, um Grundkompetenzen aufzubauen.
  • Auswirkungen auf die Arbeitswelt: Es entsteht eine Diskussion darüber, dass Unternehmen Senior-Mitarbeiter entlassen und durch Junior-Mitarbeiter ersetzen, da KI das Wissen der Seniors übernehmen kann. Dies führt zu einer Verschiebung der Verantwortlichkeiten und kann dazu führen, dass niemand mehr die grundlegenden Mechanismen versteht. Es bestehe die Gefahr, dass Arbeitgeber KI-Nutzung vorschreiben und gleichzeitig die Zeit für Aufgaben reduzieren, was die Übernahme von Verantwortung für die eigene Arbeit erschwert. Die Idee, KI als Unterstützung zu nutzen, um Mitarbeitern mehr Freizeit zu ermöglichen, anstatt Personal abzubauen, wird als wünschenswerte Alternative genannt.
  • Chancen für die Lehre durch die Nutzung von KI: Es wird hervorgehoben, dass KI neue Lernprozesse ermöglicht, insbesondere beim Einarbeiten in komplexe Themen. KI kann helfen, Texte auf ein verständliches Niveau zu reduzieren und einen Überblick zu verschaffen. KI-Tools wie Semantic Scholar können helfen, das Wissen aus Millionen von wissenschaftlichen Publikationen zu nutzen und sich schnell einen Überblick zu verschaffen, ohne monatelange Einarbeitung. Es sollten eher die aktuelle Studienstruktur (Vorlesungen, Mitschreiben) kritisch überdacht und durch Formate wie Journal Clubs ergänzt werden, die kritisches Denken und Reflexion fördern.
  • Idee eines Journal Clubs: Die Idee eines Journal Clubs, bei dem Veröffentlichungen gemeinsam kritisch diskutiert werden, wird als sehr sinnvoll erachtet und könnte semesterbegleitend für alle Studierenden der JLU geöffnet werden, bspw. im Rahmen der Ringvorlesung Data Science des FB07. Dies fördert die kritische Auseinandersetzung und multiple Perspektiven.

Diskussionsthema 2: Einsatz von KI-generierten Avataren und Übersetzungs-Tools (Plattform HeyGen)

  • Allgemeine Skepsis und Potenziale: Sebastian Busse hat die KI-Plattform HeyGen ausgetestet, mit dem KI-Avatare erstellt werden können, die Texte in verschiedenen Sprachen mit Lippen-Synchronität wiedergeben. Anfängliche Skepsis ("Puppentheater") steht dem Potential gegenüber, Lehrinhalte breiter verfügbar zu machen. Dazu wurden von Sebastian eigene Lehrvideos (aus dem Projekt DigiKomp+) auf Deutsch in HeyGen hochgeladen und mit der Plattform in Spanisch, Japanisch und Englisch übersetzt.
  • Qualität der Übersetzung: Visuell wirkt es Lippen-synchron, die Tonqualität ist jedoch etwas schlechter als das Original, da die Übersetzung leichtes Rauschen in das Video einbringt. Es wird betont, dass die japanische Version sogar erkannt hat, dass es sich um eine männliche Stimme handelt und die richtigen Sprachvarianten verwendet hat. Bei der englischen Version (mit der Option Enhanced Voice) sind sogar Füllwörter und der deutsche Dialekt erhalten geblieben, was einen sehr natürlichen Klang erzeugt, der kaum nach KI klingt. Die Teilnehmenden sind von der Qualität überzeugt und sehen großes Potenzial bspw. für die Internationalisierung von Lernvideos.
  • Mögliche Herausforderungen: Aktuell gibt es noch keine simultane Übersetzungsfunktion. Weiterhin werden Ironie und Sarkasmus von den Systemen oft nicht korrekt wiedergegeben. Es ist damit vor allem für eher sachliche Videos geeignet, die im vorhinein aufgezeichnet worden sind. Datenschutzbedenken bei Lehrkräften, deren Daten ins Dark Web gelangten, werden außerdem angesprochen. Bei der Nutzung eigener Videos muss der Lehrende seinen eigenen Datenschutz "aufgeben".
  • Vollständig synthetische Personen: Es ist auch möglich, komplett synthetische Personen zu generieren. Es wird Skepsis geäußert, ob dies in der Lehre sinnvoll ist, da es sich "irgendwie falsch anfühlt", ein Video von einer komplett künstlichen Person präsentiert zu bekommen. Diese Option wird daher von den Teilnehmenden eher abgelehnt.
  • Erkennung von KI-Inhalten: Eine Studie wird erwähnt, die zeigt, dass Studierende KI-generierte Podcasts oft nicht als solche erkennen und diese positiv beurteilen. Dies unterstreicht die Notwendigkeit, Studierende für die Herkunft von Inhalten zu sensibilisieren und transparente Angaben über die Verwendung synthetischer Inhalte vorzunehmen.

Ausblick

  • Weitere Diskussionen zu KI und Gehirn: Das Thema "Einfluss von KI auf das Gehirn" wird als weiterhin relevant erachtet und soll bei zukünftigen Treffen vertieft werden.
  • Guidelines für Forschung und Lehre: Die Entwicklung von "Guidelines für Forschung" im Rahmen des AI Summercamps 2025 wird erwähnt, welches vom 08. September bis zum 26. September 2025 stattfinden wird.
  • Hinweis auf offene Bürotüren und den Faculty Club der JLU: Teilnehmende der OAG, die nicht im gleichen Büro sitzen, werden eingeladen, sich bei Gelegenheit auf einen Kaffee zu treffen. Weiterhin wird der regelmäßig stattfindende Faculty Club der JLU erwähnt (immer Dienstags ab 17:00 Uhr im Heyligenstaedt), welcher ebenfalls für informelle Austauschtreffen genutzt werden kann.

Zuletzt geändert: 27. Jun 2025, 12:00pm, Busse, Sebastian [gm1912]