Wissen hoch N Themen
Gender-Bias in KI-übersetzten Amazon-Rezensionen

10. 06. 2025
Verfasst von: Ekaterina Lapshinova-Koltunski, Maja Popović

Gender-Bias in KI-übersetzten Amazon-Rezensionen

In der Grafik schaut eine Frau auf einen Laptop. Sie hält eine Kosmetikflasche in der Hand. Im Hintergrund sind zwei Kommentare zum Produkt angedeutet. © fuchsundhase, KI Firefly
Beim Onlinekaufen orientieren wir uns an Produktrezensionen. Hat es dabei einen Einfluss, ob die Bewertung von einer Frau oder einem Mann stammt? Werden die Kommentare von einer KI in unsere Sprache übersetzt, dominieren Worte in männlicher Form.

Würden Sie Kosmetik kaufen, die ein Mann empfiehlt? Oder ein Musikinstrument, das eine Frau bewertet? Es ist bekannt, dass die meisten KI-generierten Texte ein Bias haben – also Vorurteile widerspiegeln. Wie stark ist Gender-Bias – geschlechtsbezogene Stereotypisierung – in Rezensionen im Online-Handel ausgeprägt? Das untersucht ein Forschungsteam der Universität Hildesheim. Die Forscherinnen finden deutliche Tendenzen zu Gender- und Produkt-Bias in übersetzten Produktbewertungen.

Menschen und KI übersetzen nicht genderneutral

Viele Menschen kaufen heutzutage online ein und nutzen dafür Amazon oder ähnliche Portale. Bevor wir uns für ein Produkt entscheiden, lesen wir in der Regel Rezensionen, die von anderen Käuferinnen und Käufern verfasst wurden. Fremdsprachige Rezensionen werden dabei automatisch mithilfe von KI übersetzt. Die Forscherinnen Prof. Dr. Ekaterina Lapshinova-Koltunski von der Universität Hildesheim und Prof. Maja Popović, Dublin City University und IU Internationale Hochschule, haben humane und maschinelle Übersetzungen von Amazon-Produktrezensionen auf das Gender-Bias untersucht. Dabei lag der Fokus auf Übersetzungen aus dem Englischen ins Kroatische und Russische. In diesen und in anderen slawischen Sprachen haben viele Wörter eine Geschlechtsmarkierung. So wird spezifiziert, ob eine Frau oder ein Mann ein Produkt gekauft und bewertet hat. Allerdings ist das tatsächliche Geschlecht der Autoren oft unbekannt.

In KI-Übersetzungen dominiert die männliche Form

„Die Analyse ergab, dass sowohl in maschinellen als auch in humanen Übersetzungen das männliche Geschlecht vorherrscht – unabhängig vom tatsächlichen Geschlecht der Übersetzerinnen und Übersetzer“, berichtet Ekaterina Lapshinova-Koltunski. Dabei registrierten die Forscherinnen eine Tendenz, männliche oder weibliche Formen in Zusammenhang mit bestimmten Produkten zu nutzen. Zum Beispiel wurde keine einzige Rezension in den Produktkategorien „Terrasse, Wiese und Garten“ und „Musikinstrumente“ von KI in weiblicher Form übersetzt. „Generell enthalten KI-Übersetzungen viel mehr männliche Formen, was den Eindruck erschafft, dass nur Männer Produktrezensionen auf Amazon schreiben“, stellt die Übersetzungswissenschaftlerin fest, „das gilt selbst für Schönheitsprodukte.“ Menschen hingegen haben fast alle Kosmetikbewertungen so übersetzt, als ob sie von Frauen verfasst wurden.

In dem Balkendiagramm taucht keine Farben für Worte in rein weiblicher Form auf. © Popović & Lapshinova (2024, S. 28)
Werden Rezensionen zu Musikinstrumenten in Russisch und Kroatisch übersetzt, verwenden weder Menschen – Professoren und Studierende – noch KI-Modelle dabei die weibliche Form. Das erweckt den Eindruck, als sei keine Rezension von einer Frau verfasst. (Humane (prof, stud) und maschinelle (mt1, mt2, gpt) Übersetzungen ins Russische (ru) und Kroatische (hr); mixed = gemischte Formen, incl = Form berücksichtigt männlich und weiblich, masc = männlich, fem = weiblich)

Trainingstexte mit Bias verstärken Effekt

Die Forscherinnen weisen darauf hin, dass der untersuchte Datensatz noch nicht groß genug ist, um eindeutige Schlussfolgerungen zu ziehen. Allerdings sehen sie deutliche Tendenzen, die auf Gender- und Produkt-Bias hindeuten. „Das Bias in den KI-generierten Rezensionen stammt aus den human erstellten Texten, mit denen KI-Anwendungen trainiert werden“, erklärt Ekaterina Lapshinova-Koltunski. „Haben diese Trainingstexte Bias, so treten sie in den KI-generierten Texten noch stärker hervor.“ Aktuell untersuchen die Forscherinnen, ob sich das Gender-Bias mithilfe von Prompting (Vorgaben) reduzieren lässt, indem die Sprachmodelle aufgefordert werden, genderneutrale Übersetzungen zu produzieren. Erste Ergebnisse zeigen, dass die Algorithmen in diesem Fall tatsächlich weniger maskuline Formen verwenden, allerdings auch viele Fehler produzieren.

 

Hier finden Sie weitere Informationen:

Redaktioneller Hinweis: Dieser Text steht unter der CC BY 3.0 DE-Lizenz
Zitation: Lapshinova-Koltunski, E., & Popović, M. (2025). Gender-Bias in KI-übersetzten Amazon-Rezensionen. Wissen Hoch N. https://doi.org/10.60479/KY11-3440
Prof. Dr. Ekaterina Lapshinova-Koltunski
Prof. Dr. Ekaterina Lapshinova-Koltunski
Stiftung Universität Hildesheim, und Forschungsmanagement und Forschungsförderung
Adresse
Universitätsplatz 1
31141 Hildesheim
Stiftung Universität Hildesheim, und Forschungsmanagement und Forschungsförderung
Adresse
Universitätsplatz 1
31141 Hildesheim

Bestellen Sie unseren Newsletter.
Folgen Sie uns auf LinkedIn.
Abbonieren Sie unseren RSS-Feed.