Google hat mit dem eigenen Diversitätsfilter zu kämpfen

Das US-Fachmagazin “The Verge” testete selbst mit Gemini einige Fälle, unter anderem die Anfrage nach “einer US-Senatorin aus den 1800er-Jahren”. Das Ergebnis lieferte unter anderem schwarze und indigene Frauen. Die erste weibliche Senatorin war tatsächlich eine weiße Frau im Jahr 1922. Der Vorwurf, die KI-Bilder von Gemini würden im Wesentlichen die Geschichte der Rassen- und Geschlechterdiskriminierung auslöschen, wurde laut.

Mahlzeit,

Tja, kein Bildgenerator kann bei sowas gewinnen.

Für Leute, die mal schnell ein Bild als Stockphoto-Ersatz wollen, ist sowas wahrscheinlich ganz sinnvoll. Man will, dass bei Prompts wie “CEO” oder “Doctor” Bilder rauskommen, die abbilden, wie solche Leute tatsächlich aussehen könnten und eben nicht ein Stereotyp.

Aber dann soll es auch historisch korrekt sein. Manchmal wohl auch die gegenwärtige Realität abbilden.

Manche Sachen dürfen auch gar nicht abgebildet werden.

Das sind teils widersprüchliche Anforderungen, die einfach unerfüllbar sind. Teils sind diese Ansprüche auch einfach maßlos hoch.

De_Narm,

Ich sehe hier das gleiche Problem wie mit LLMs. Die Systeme wirken nach außen hin intelligent, weshalb Leute erwarten, dass sie es auch sind. Aber sie wissen gewisser Maßen nichts und denken absolut nicht.

Das System hat keinen Kontext. Wenn ich keine Rasse spezifiziere, dann bekommt der Prompt eine willkürliche Rasse zugeordnet und das war’s dann auch. Es ist ja auch keine Geschichtsrevision wenn ich bewusst einen schwarzen Bundeskanzler generieren lasse. Das System ist dumm und spuckt genau aus wonach ich frage - alles was nicht genau spezifiziert ist überlasse ich eben dem Zufall.

Es werden eben nur Bilder bzw. Texte generiert, keine wahren Aussagen.

Anbei sind da bestimmt noch viel mehr Kontextfehler, Stoffe oder Schnitte die es damals nicht gab werden getragen oder Objekte sind vor ihrer Erfindung zu sehen. Ein neuer weißer männlicher Senator aus der Zeit wird komplett erfunden. Aber kaum ist die Hautfarbe nicht absolut korrekt beschweren sich die Leute.

cron,

Google schreibt die Prompts aber gezielt um. Wenn du nach einem Bild von Jugendlichen fragst, erweitert Google den Prompt um diverse oder female. Das ist kein Fehler der KI, sondern ein bewusstes Setting.

De_Narm,

Ja, weil die Trainingsdaten in vielen Fällen einen Bias für “weiß” haben. Weder das Model noch die extra Layer für Diversität kann unterscheiden ob andere Hautfarben seltener oder historisch falsch sind. Muss es auch nicht. Du hast nicht explizit nach etwas gefragt, Google fügt etwas hinzu um den Bias auszugleichen. Ebenso wäre es okay mehr weiße und asiatische Spieler in einen Prompt zur NBA einzufügen. Solang sie nicht explizite Angaben aus meinem Prompt durch divers ersetzen sehe ich hier kein Problem außer Rassismus beim Nutzer. Wenn ich historisch akkurate Bilder generieren will, dann muss ich eben alles historisch akkurat in den Prompt schreiben.

Tiptopit,

Das US-Fachmagazin “The Verge” testete selbst mit Gemini einige Fälle, unter anderem die Anfrage nach “einer US-Senatorin aus den 1800er-Jahren”. Das Ergebnis lieferte unter anderem schwarze und indigene Frauen. Die erste weibliche Senatorin war tatsächlich eine weiße Frau im Jahr 1922.

Irgendwie erscheint der Zusatz, dass es die erste Senatorin erst 1922 gab nicht sinnhaft. Was soll mir die KI denn sonst geben? 404-Error Senatorin Not found? Wenn es keine Senatorinnen um 1800 gab, warum soll ein Bild davon nicht auch eine Farbige zeigen?

Das ganze scheint mir einfach ein Verständnisproblem zwischen dem Nutzer und dem Namen der Technik zu sein. KI besitzt halt keine allgemeine Intelligenz. Erinnert mich immer ein bisschen an einen Spruch meines damaligen Informatik-Lehrers an der Schule: Computer sind hochintelligent, aber sehr dumm dabei. Ich glaube das kann man auf KI ausweiten.

No_Change_Just_Money,

Mein Lehrer hat sowas immer “einen klassischen FbG” genannt

Fehler bedient Gerät

cron,

Da hast du recht, das ist tatsächlich kein besonders gutes Beispiel. Im Artikel sind noch mehr Bilder, z.B. auch die (asiatischen) Soldaten der deutschen Wehrmacht 1943.

Dieser Artikel zeigt noch mehr Beispiele, z.B. Bilder der englischen Königsfamilie.

Mahlzeit,

(asiatischen) Soldaten der deutschen Wehrmacht 1943

Ich habe mal von einem Deutschen mit asiatischem Vater (Japanisch?) gehört, der in die Wehrmacht eingezogen wurde. Der Junge war vorher zwangssterilisiert worden, wegen Rassereinheit. Er hat sich gefreut, dass er mit der Einberufung quasi als Deutscher akzeptiert worden war. Das war allerdings erst gegen Ende des Krieges, als die praktischen Fehler der Ideologie ziemlich klar waren.

Unter den Rotarmisten waren natürlich auch viele asiatisch aussehende Menschen, die in den östlichen Teilen des Sowjetimperium rekrutiert worden waren. Die sowjetischen Kriegsgefangen ließ die Wehrmacht hungern. Man wollte diese Menschen ja sowieso alle ermorden. Später im Krieg rekrutierte die Wehrmacht unter den Gefangenen Soldaten. Ich erinnere mich bei Cornelius Ryan gelesen zu haben, dass beim D-Day 2 Nepalesen(?) gefangen genommen wurden

cron,

Ich glaube, dass das ein schwieriges Problem ist. Einerseits sollen keine Vorurteile verstärkt werden, anderseits bringt es nix, wenn falsche Tatsachen suggeriert werden.

  • All
  • Subscribed
  • Moderated
  • Favorites
  • random
  • DreamBathrooms
  • magazineikmin
  • khanakhh
  • InstantRegret
  • rosin
  • Youngstown
  • ngwrru68w68
  • mdbf
  • slotface
  • normalnudes
  • Durango
  • kavyap
  • everett
  • cubers
  • megavids
  • GTA5RPClips
  • ethstaker
  • thenastyranch
  • osvaldo12
  • Leos
  • tester
  • tacticalgear
  • cisconetworking
  • modclub
  • anitta
  • provamag3
  • JUstTest
  • lostlight
  • All magazines