Reiter
13. OAG-Treffen 28.05.2024
Datum: 28. Mai 2024, 14:00 - 15:30 Uhr
Protokollführung: Sebastian Busse (unterstützt durch Claude 3 Sonnet, https://claude.ai/)
Teilnehmende: Andreas Arlt, Anna Scholl, Darya Frantskevich, Frank Waldschmidt-Dietz, Joss von Hadeln, Marc Schetelig, Siegfried Schindler
Einführung in bildgenerative KI (Dr. Joss von Hadeln)
- Technische Hintergründe und Verwendung der Systeme
- Bildgenerative KI-Systeme nutzen Techniken des maschinellen Lernens, um völlig neue, authentisch wirkende visuelle Inhalte zu erzeugen.
- Das Ziel ist es, dass diese Inhalte von Menschen nicht von realen Fotos oder Bildern unterschieden werden können. Dafür werden riesige Datenmengen mit Bildern und zugehörigen Beschreibungen als Trainingsdaten genutzt. Aus diesen extrahieren die Systeme Vektorräume (Embeddings), die die Beziehungen und Muster der visuellen Elemente abbilden.
- Ein gängiger Ansatz sind sogenannte Diffusionsmodelle. Dabei werden hochaufgelöste Ausgangsbilder schrittweise deformiert, indem künstliches "Rauschen" hinzugefügt wird, bis nur noch eine Art visuelles Rauschen übrig bleibt. In der Trainingsphase lernen die Modelle dann, aus diesem Rauschen die Originalbilder wiederherzustellen. Später können völlig neue Inhalte aus zufälligem Rauschen rekonstruiert werden. Die einzelnen Pixel fungieren dabei als kleinste "Bausteine", die basierend auf den gelernten Mustern zu sinnvollen Bildern zusammengesetzt werden. Der entscheidende Faktor ist die Abbildung von Kontexten und Beziehungen in den Embeddings aus den Trainingsdaten.
- Es gibt verschiedene KI-Systeme wie DALL-E, Stable Diffusion oder Midjourney mit unterschiedlichen Stärken. Die Qualität der generierten Bilder hängt entscheidend von der Präzision der Prompts (Beschreibungen) ab. Teils sind sehr detaillierte Beschreibungen der gewünschten Bildinhalte, Komposition, Stilrichtung etc. notwendig. Bestimmte Dinge wie Verneinungen oder Ausschlusskriterien bereiten den Systemen aber Probleme. Viele haben auch Filter für bestimmte anstößige Inhalte eingebaut. Bei der Nutzung ist es wichtig, genau zu überlegen, was mit dem Bild vermittelt werden soll und den kreativen Fokus zu setzen.
- Technische und gesellschaftliche Herausforderungen
- Die aktuellen Systeme erzeugen Bilder von einer Qualität, die es für Menschen nahezu unmöglich macht, sie von realen Fotos zu unterscheiden. Dies wirft eine Reihe von Herausforderungen auf: Zum einen stellen sich rechtliche Fragen, wenn KI-Systeme im Stile bestehender Künstler oder Urheberrechtlich geschützter Motive arbeiten. Auch können sich in den Trainingsdaten enthaltene Verzerrungen wie Sexismus oder Rassismus in den Ausgaben widerspiegeln.
- Generell ist die Funktionsweise dieser "Black-Box-Systeme" intransparent. Es ist völlig unklar, nach welchen Kriterien bestimmte Ausgaben generiert werden. Dies öffnet die Tür für potenzielle Fälschungen und Desinformation, wenn es unmöglich ist, zwischen echten und KI-generierten Inhalten zu unterscheiden.
- Eine breite gesellschaftliche Diskussion ist notwendig, wie mit diesen Systemen umgegangen und ein Mindestmaß an Vertrauen und Authentizität aufrechterhalten werden kann.
Anschlussdiskussion
- Einfluss von KI auf die Forschung
- Es wurde die Befürchtung geäußert, dass durch den Einsatz von KI der wissenschaftliche Betrug zunehmen könnte. KI-Systeme könnten gefälschte Daten, manipulierte Bilder oder sogar komplett automatisch generierte Publikationen erstellen, die nicht mehr von menschlichen Arbeiten zu unterscheiden sind. Dies könnte das Vertrauen in die wissenschaftliche Integrität und Methodik erheblich beschädigen. Daher wurde eine strengere Qualitätskontrolle und Verifizierung von Inhalten gefordert, die von Universitäten veröffentlicht werden.
- Rolle der Universitäten und Forschenden
- Die Teilnehmer sahen die Universitäten in einer Bollwerkfunktion, um den drohenden Vertrauensverlust in die Wissenschaft abzuwenden. Ein Vorschlag war, Vertrauensnetzwerke zwischen Forschenden aufzubauen und die Peer-Review-Prozesse zu stärken, bei denen sich Fachkollegen gegenseitig prüfen. Das Konzept der "Pre-Registration" aus der Psychologie wurde erwähnt, bei dem Forschungsvorhaben im Voraus dokumentiert werden müssen, bevor Ergebnisse erzeugt werden. Insgesamt sollten Universitäten als vertrauenswürdige Institutionen Qualitätssiegel für seriöse Forschung entwickeln.
- Herausforderungen im digitalen Bereich
- Bedenken wurden laut bezüglich des Datenschutzes bei der bevorstehenden Umstellung auf Windows 11 und der Integration von KI-Systemen geäußert. Eine mögliche Alternative könnte die Nutzung von Linux-Betriebssystemen für mehr Unabhängigkeit sein. Jedoch würde dies Probleme bei der Administration und Kompatibilität mit spezialisierter Laborausrüstung mit sich bringen.
- Potenziale von KI
- Trotz der Bedenken wurden auch die Potenziale von KI angesprochen. KI-Systeme könnten bei der Bildbearbeitung, Grafikerstellung und Visualisierung eine große Zeitersparnis und Qualitätsverbesserung bringen. Es wurde die Idee diskutiert, mit Hilfe von KI anschauliche Lehrfilme und multimediale Lernszenarien zu erstellen. Auch KI-Bildanalyse könnte als Hilfsmittel für mehr Barrierefreiheit dienen, z.B. bei der Navigation für blinde Menschen.
- Erfahrungsaustausch zu KI-Tools
- Es wurden Erfahrungen mit unterschiedlichen KI-Tools zum Bild- und Texte generieren geteilt. Midjourney wurde aufgrund der umständlichen Bedienoberfläche über Discord kritisiert. Als einfachere Alternativen wurden Lexica.art, Lensa AI und Stable Diffusion empfohlen. Auch die Integration von KI in Adobe-Programmen wie der "Generative Fill" in Photoshop wurde als nützlich bewertet. Für die nächsten Treffen ist eine Übersicht über verschiedene Bild-Generierungs-Modelle geplant.
Weitere Informationen
- Um den praktischen Erfahrungsaustausch zu vertiefen, ist eine zusätzliche Präsenzveranstaltung für die OAG-Treffen geplant. Die Online-Meetings der Open Affinity Group werden im Juni/Juli pausieren und im August/September wieder aufgenommen. Über eine Terminabstimmung wird zeitnah über den Newsletter informiert.
Zuletzt geändert: 26. Jul 2024, 9:58am, Busse, Sebastian [gm1912]