Wartungsarbeiten Am 10. Mai zwischen 7:00 und 7:30 Uhr ist ILIAS nicht erreichbar

Reiter

5. OAG-Treffen 02.08.2023

Datum: 02. August 2023, 10:30 - 12:00 Uhr
Protokollführung: Sebastian Busse (unterstützt durch GPT-4, https://openai.com/)
Teilnehmer: Antje Müller, Eugenia Lais, Gertrud Morlock, Gesine Lühken, Holger Repp, Johannes Keyser, Joss von Hadeln, Juliane Sommer, Leonie Schmidt, Maja Bärenfänger, Philipp Risius, Sabine Fritz, Sebastian Busse, Sebastian Schaper, Sten Seegel, Ulrike Charlton

Aktuelles und Organisatorisches

  • Die Stabsstelle Studium, Lehre, Weiterbildung und Qualitätssicherung (StL) plant die Bildung einer neuen Arbeitsgruppe zum Thema ChatGPT. Die Details und Verbindungen zur OAG sind noch nicht geklärt.
  • Ziel der Arbeitsgruppe ist die Bildung eines beschlussfähigen Gremiums, welches das Thema im Gesamtkontext der JLU bearbeitet.
  • Die OAG wird sich im weiteren Verlauf der Besprechung mit der Handreichung „Künstliche Intelligenz (KI) in Schule und Unterricht“ des Hessischen Kultusministeriums (HKM) beschäftigen.
Wichtiger Hinweis: Die Handreichung wurde während des Treffens fälschlicherweise dem Hessischen Ministerium für Wissenschaft und Kunst (HMWK) zugeordnet. Dies wurde im Protokoll und dem Foliensatz korrigiert.

Vorstellung und Diskussion der Handreichung „Künstliche Intelligenz (KI) in Schule und Unterricht“ des Hessischen Kultusministeriums (HKM)

Chancen und Herausforderungen vonr KI-basierten Content-Generatoren
  • Empfehlungen des HKM
    • Unterstützung der zwischenmenschlichen Kommunikation in verschiedenen Kontexten.
    • Nutzung der KI zur Reduktion, Zusammenfassung, Vereinfachung und Erweiterung von Texten.
    • Generierung von themenbezogenen Unterrichtsmaterialien und individueller Schülerförderung.
    • Generierung von Feedback und Feedforward.
  • Herausforderungen laut HKM
    • Rolle des Menschen im Verhältnis zur Technik.
    • Wahrheitsgehalt von Informationen.
    • Datenschutzfragen.
    • Notwendigkeit der Kennzeichnung des KI-Einsatzes.
  • Berichte aus dem Plenum
    • Nutzung von generativer KI: Es wurde berichtet, dass einige Studierende noch nie generative KI genutzt haben, während andere sie bereits im Unterricht einsetzen.
    • Pilotprojekt zu KI-gestütztem wissenschaftlichem Schreiben: Leonie Schmidt und Sten Seegel berichteten von einer Diskrepanz zwischen dem technischen Potential von KI und der tatsächlichen Nutzung durch Studierende. Unterschiedliche Kenntnisstände und das schnelle Aufgeben bei unbefriedigenden Ergebnissen wurden hervorgehoben.
    • Neues Pilotprojekt mit schulKI: Sebastian Schaper stellte ein Projekt vor, in dem Studenten Essays mithilfe von schulKI (ChatGPT) schreiben. Das Ziel ist die Analyse der Nutzung der KI-Tools durch die Studenten.
  • Diskussion im Plenum
    • Dokumentationswürdigkeit von KI-Werkzeugen: Es wurde diskutiert, wann und wie KI-gestützte Werkzeuge dokumentiert werden sollten.
    • Ungleichheit durch unterschiedliche Kompetenzniveaus: Befürchtungen wurden geäußert, dass dies zu Ungleichheiten führt, ohne entsprechende Grundkurse. Ein zQSL-Antrag des ZfbK zur Förderung digitaler Kompetenzen wurde in diesem Kontext erwähnt (Sebastian Busse).
    • Verschiedene Nutzung und Ablehnung von KI: Unterschiedliche Ansätze zur Nutzung der KI wurden besprochen, einschließlich Ablehnung durch einige Studierende.
    • Fragen zur Leistungsbewertung: Es wurden Fragen zur Bewertung von Leistungen in Bezug auf die KI-Nutzung aufgeworfen, einschließlich der Definition menschlicher Leistungen.
    • Notwendigkeit von Richtlinien und Kennzeichnung: Die Bedürfnisse nach Struktur, Parametern zur Leistungsbewertung, Erarbeitung von Richtlinien mit Studierenden und minimaler Kennzeichnung der KI-Nutzung wurden betont. Warnungen vor übermäßiger Kennzeichnung und Stigmatisierung wurden ausgesprochen.
    • Kritische Prüfung der KI-Antworten: Die Notwendigkeit einer kritischen Prüfung der KI-Antworten und die Anerkennung, dass KI-Systeme auf Wahrscheinlichkeiten basieren, wurden hervorgehoben.
    • Definition und Exploration der KI in der Wissenschaft: Es wurde betont, dass die Arbeit mit KI in einem wissenschaftlichen Kontext klar definiert werden sollte und dass der gegenwärtige Zustand explorativ ist, wobei Informationen gesammelt werden müssen.
Einfluss von KI-gestützten Content-Generatoren auf Aufgabenstellungen, Hausaufgaben, Tests und Prüfungen
  • Diskussionspunkte des HKM
    • Unterscheidung von Eigen- und Fremdleistung.
    • Erhöhtes Täuschungspotenzial.
    • Einbezug von Unterstützungsmöglichkeiten.
  • Diskussion im Plenum
    • Implikationen von Prompts und Ergebnissen: Die Diskussion drehte sich um die Auswirkungen des Auflistens von Prompts im Gegensatz zu Ergebnissen bei der Beurteilung des Beitrags von KI und des Autors zur Textproduktion.
    • Vorschlag zur Darstellung: Es wurde vorgeschlagen, anstatt einzelner Prompts das Chatfenster als Ganzes zu teilen, um alle Aktionen vollständig darzustellen.
    • Möglichkeit der Täuschung: Fragen zur Ehrlichkeit und Vollständigkeit der Studierenden wurden erörtert, und die Möglichkeit der Täuschung wurde thematisiert.
    • Unklarheit über die Nutzung von KI-Informationen: Es gab Unklarheiten darüber, wie Lehrende Informationen über die KI-Nutzung durch Studierende verwenden und bewerten sollen.
    • Skepsis gegenüber etablierten Zitierweisen: Skepsis wurde hinsichtlich der Anwendung von herkömmlichen Zitierweisen auf KI-generierte Produkte geäußert.
    • Steuerung des KI-Gebrauchs in der Wissenschaft: Es wurde die Möglichkeit diskutiert, den KI-Gebrauch durch die Einhaltung von Reporting-Richtlinien großer Wissenschaftszeitschriften zu steuern.
    • Notwendigkeit zusätzlichen Materials: Die eventuelle Notwendigkeit, zusätzliche Unterlagen einzureichen, um die Nutzung von KI zu dokumentieren, wurde erwähnt.
    • Vorschlag für Kennzeichnungsform: Ein weiterer Vorschlag betraf die Kennzeichnung der KI durch Nennung des Modells, der verwendeten Version und des Datums der Anfrage.
Kennzeichungsvorschlag für KI-generierte Inhalte durch das HKM
  • Vorschlag des HKM
    • Vorschlag für eine mögliche Kennzeichnung:
      „Bei der Erstellung dieses Textes [bzw. Bildes, Programmcodes, Musikstücks oder Videos] wurde X [Name der KI-gestützten Anwendung] verwendet. Mit folgenden Prompts [Anweisungen oder Fragen an die KI] habe ich die KI gesteuert:  1._____, 2._____, 3._____."
  • Diskussion im Plenum
    • Implikationen des Auflistens von Prompts vs. Ergebnissen: Im Plenum wurde intensiv über die Konsequenzen diskutiert, die sich aus dem Auflisten von Prompts anstatt von Ergebnissen bei der Beurteilung des Beitrags von KI und des Autors zur Textproduktion ergeben.
    • Vorschlag zur Darstellung: Es wurde vorgeschlagen, das Chatfenster als Ganzes zu teilen, um eine vollständige Darstellung aller Aktionen zu gewährleisten.
    • Fragen zur Ehrlichkeit: Die Möglichkeit der Täuschung und die Bedeutung von Ehrlichkeit und Vollständigkeit durch die Studierenden wurden erörtert.
    • Unklarheit über den Umgang mit KI-Informationen: Unklarheiten wurden darüber ausgedrückt, was Lehrende mit Informationen über die KI-Nutzung durch Studierende anfangen sollen und wie sie diese bewerten oder nutzen sollen.
    • Skepsis gegenüber Zitierweisen: Es wurde Skepsis gegenüber der Anwendung etablierter Zitierweisen auf KI-Erzeugnisse geäußert.
    • Einfluss großer Wissenschaftszeitschriften: Die Möglichkeit, den Gebrauch von KI in der Wissenschaft durch Berücksichtigung von Reporting-Richtlinien großer Wissenschaftszeitschriften zu steuern, wurde diskutiert.
    • Notwendigkeit zusätzlichen Materials: Es wurde über die eventuelle Notwendigkeit gesprochen, zusätzliches Material einzureichen, um die Nutzung von KI zu dokumentieren.
    • Weiterer Vorschlag zur Kennzeichnung: Als weitere Kennzeichnungsform wurde vorgeschlagen, das Modell der KI, die verwendete Version und das Datum der Anfrage zu nennen.
Rechtliche Rahmenbedingungen beim Einsatz von KI-Anwendungen
  • Diskussionspunkte des HKM
    • Nach aktueller Rechtslage sind KI-basierte Produkte in der Regel nicht urheberrechtlich geschützt.
    • Nur eine persönliche geistige Schöpfung ist urheberrechtsfähig; KI kann daher nicht als Urheber gelten.
    • Nutzer:innen werden nicht automatisch Urheber der maschinell generierten Inhalte.
  • Diskussion im Plenum
    • Schöpfungshöhe des KI-Outputs: Die Frage wurde diskutiert, wann eine Bearbeitung des KI-Outputs eine "Schöpfungshöhe" erreicht und als urheberrechtlich geschützt gelten kann.
    • Bewertung des menschlichen Inputs: Eine Option wäre, die Bewertung von der Frage abhängig zu machen, ob die KI ohne menschlichen Input eine gute Antwort hätte erstellen können.
Allgemeine Diskussionspunkte des Plenums
  • Positionierung der Hochschulen: Dringlichkeit für die JLU und andere Hochschulen, eine klare Position zu diesem Thema zu finden und eventuell an das Ministerium heranzutreten.
  • Kommunikation und Abstimmung: Diskussion über den geeigneten Weg zur Kommunikation dieser Position und die Bedeutung von vorheriger Abstimmung zwischen Hochschulen.
  • Bedeutung von Daten und Forschung: Zweifel an der Fähigkeit, ohne weitere Daten und Forschung sinnvolle Aussagen zu treffen.
  • Dankbarkeit für Pilotprojekte: Dank für Projekte, die erste Datenpunkte sammeln und einen empirischen Diskussionsrahmen schaffen.
  • Aufforderung zur Analyse des HKM-Papiers: Empfehlung, das HKM-Papier gründlich zu lesen und nicht vorschnell zu kritisieren.
  • Vorschlag zur KI-Kennzeichnung: Die Idee wurde vorgeschlagen, die KI selbst nach einem Kennzeichnungsvorschlag ihrer Nutzung zu fragen.
Weitere Informationen
  • Das nächste Treffen wird voraussichtlich im September stattfinden. Link zur Terminabstimmung zu Beginn des Protokolls.

Zuletzt geändert: 8. Aug 2023, 3:54pm, Busse, Sebastian [gm1912]