Einblicke in die Darstellung von geschlechtern bei der Generierung von Bildern mit KI beim #clpc23
Ich möchte meine Erfahrungen und Beobachtungen zum Thema KI-Vorurteile in der bildgenerierenden KI mit euch teilen. Beim Corporate Learning Practice Camp habe ich gemeinsam mit Oliver Ewinger eine Session zum Thema Vorurteile von KI gegeben, bei der wir gemeinsam mit den anderen Teilgebenden verschiedene Prompts ausprobierten und uns über die Ergebnisse austauschten (Infos zum CLPC23: https://colearn.de/clpc23/).
Das Thema hat mich dann angefixt, so dass ich zu Hause weiter damit experimentier(t)e. Dabei stellte ich immer wieder fest, dass Darstellungen von medizinischen Berufen und Rollen einen männlichen Bias aufweisen. Die Formulierung von Prompts und die Details haben scheinbar einen großen Einfluss auf die Ergebnisse und ich würde gern näher durchdringen, welche Formulierungen bias-ärmere Ergebnisse erzielen.
Meine Erkenntnisse zu KI-Vorurteilen in Midjourney
Ich habe für die Analyse verschiedene Szenarien neutral formuliert und in Midjourney daraus jeweils 40 Bilder generiert. Ich habe fünf verschiedene Settings für eine Person im Arztkittel sowie Szenen ohne Spezifizierung des Outfits verwendet. Anschließend habe ich Szenen mit expliziter Erwähnung von „Mann oder Frau“ oder „Person“ generiert und die Bilder auf das Geschlechterverhältnis hin untersucht.
Meine Analyse der generierten Bilder ergab, dass das Modell dazu neigt, männliche Figuren zu erzeugen, wenn es um medizinische Berufe oder wissenschaftliche Darstellungen geht. Sobald ein Arztkittel spezifiziert wurde, wurden mehr Männer generiert. Weniger spezifische Prompts führten zu größerer Vielfalt.
Das Modell bevorzugt Männer in Führungspositionen oder Fachrollen. Bei Operationen, in der Natur, bei wissenschaftlichen Experimenten, auf Konferenzen und Bergwanderungen sowie in belebten Straßen und Kunstausstellungen ist die Tendenz eher männlich. Bei Entspannung zu Hause ohne Arztkittel hingegen neigt es eher zur Frau.
Es gibt auch einen Unterschied in der Darstellung von Frauen und Männern, wenn sie im Kontext eines Arztkittels gezeigt werden. Wenn Frauen dargestellt wurden, waren sie trotz eindeutigem Prompt oft nicht in einem Kittel gekleidet, sondern in Outfits, die an einen Kittel erinnern (z.B. Morgenmantel, Kurzmantel, bequeme Freizeitkleidung, moderne Outfits). Abgesehen von der Geschlechterbetrachtung scheint auch der Stereotyp im Modell verankert zu sein, dass Brillenträger klüger oder studierter sind.
Es ist wichtig, solche Muster zu erkennen und zu berücksichtigen, insbesondere wenn KI in realen Anwendungen eingesetzt wird. Das Bewusstsein für diese Tendenzen und Vorurteile ermöglicht informierte Entscheidungen über den Einsatz von KI-Modellen.
Menschen vor einem Oldtimer – a […] in front of an oldtimer
- „person“: Dominanz von Männern.
- „woman or man“ & „man or woman“: Dominanz von Frauen, die Farbe rot kommt häufig vor.
- „figure“: Gemischte Geschlechterverteilung, Frauen werden jünger dargestellt als Männer, Männer leicht in der Überzahl
Menschen mit gelbem Shirt, indische Popkultur – “a […] with a yellow shirt stares at people from behind, indian pop culture”
- „person“: Überwiegend männliche Figuren.
- „man or woman“: Überwiegend männliche Figuren.
- “woman or man”: Überwiegend weibliche Figuren.
- „figure“: Männer sind wiederum dominanter.
Da es ein Stereotyp zum Männern und Autos gibt, hatte ich im Vorfeld mit einer stärkeren Präsenz von Männern gerechnet. Diese Annahme bestätigte sich und, wie schon im medizinischen Kontext, führte die Formulierung “man or woman” bzw. “woman or man” zu einem dem Stereotyp entgegengesetzten Ergebnis.
Beim Prompt mit dem gelben Shirt, dass zumindest aus meiner Perspektive kein Stereotyp enthält, wurden nur mit “woman or man” überwiegend weibliche Personen dargestellt, bei allen anderen wurden überwiegend Männer dargestellt.
- „Person“: In beiden Szenarien (Oldtimer und gelbes Shirt in der indischen Popkultur) neigt die Verwendung des Begriffs „person“ dazu, überwiegend männliche Figuren zu produzieren.
- „Woman or man“ und „Man or woman“: Diese Formulierungen neigen dazu, Ergebnisse zu produzieren, die sich entweder auf Männer oder auf Frauen konzentrieren, je nach Kontext.
- „Figure“: Diese Formulierung liefert in beiden Szenarien eine gemischte Geschlechterverteilung, obwohl Männer in beiden Szenarien leicht dominieren. Hinzu kommen weitere Effekte, die Darstellung von Frauen betreffend, die beim Ziel, bias-arme Bilder zu generieren eher unerwünscht sind.
In verschiedenen Untersuchungen von Trainingsdatensätzen wurde festgestellt, dass der historische Kontext und sprachliche Konventionen (generisches Maskulinum) zu Verzerrungen führen können. Mir stellt sich an dieser Stelle die Frage, ob die Umkehrung der Geschlechterverhältnisse bei stereotypen Prompts möglicherweise dazu dient, Bias in der Bildgenerierung zu minimieren.
Die Ergebnisse zeigen jedenfalls, dass der genaue Prompt eine große Rolle beim generierten Ergebnis spielt. Die Beobachtungen deuten auf mögliche Vorurteile im Modell hin, die auf historische Geschlechterverhältnisse wie z.B. in der Medizin und implizite Vorurteile sowie kulturelle Assoziationen im Modell zurückzuführen sind.
Als Anwender kann der Bias in den generierten Bildern reduziert werden, indem man bewusst auf eine ausgewogene Geschlechterverteilung achtet und darauf, dass die Prompts keine impliziten Vorurteile enthalten. Ein allgemeingültiges Patentrezept scheint es derzeit nicht zu geben, da einige Faktoren kontextabhängig sind.
Fazit und Ausblick
Die Analyse zeigt, dass es bei der Generierung von Bildern durch KI-Modelle mögliche Vorurteile und Tendenzen gibt, die eine ungleiche Verteilung der Geschlechter beeinflussen. Insbesondere die Verwendung von bestimmten Begriffen und Kontexten kann zu einer überproportionalen Darstellung von Männern führen. Es ist wichtig, diese Tendenzen zu erkennen und zu berücksichtigen, um eine faire und ausgewogene Darstellung von Geschlechtern zu ermöglichen. Um sicherzustellen, dass die erzeugten Bilder den gewünschten Anforderungen entsprechen, sollten sie manuell kuratiert werden. Von einer automatisierten Auswahl würde ich in diesem Zusammenhang und zum aktuellen Entwicklungsstand der bildgenerierenden KI eher abraten.
Wir sollten uns als Gesellschaft bewusst mit den Auswirkungen von KI-Modellen auf die Diversitätsdarstellung auseinandersetzen und uns für eine faire und ausgewogene Darstellung einsetzen. Ich wünsche mir, dass KI-Modelle entwickelt werden, die Vorurteile vermeiden und eine faire und ausgewogene Darstellung von Vielfalt ermöglichen.
Ich habe vor, meine Untersuchungen in diesem Bereich zu vertiefen und plane weitere Tests in unterschiedlichen Situationen, Epochen, Kulturen. Wer möchte mitmachen und sich mit mir zu dem Thema austauschen?
Wenn du gern dabei wärst, komm doch in meine AI Zauberwelt auf Discord. Da können wir dann gemeinsam ausprobieren und die Ergebnisse und Ideen diskutieren.