Читать книгу Mensch und Künstliche Intelligenz - Ralph-Miklas Dobler - Страница 17

1.5.2Frauenfeindlichkeit in Sprachassistenz-Systemen

Оглавление

Oft haben die Assistenten einen Frauennamen: Alexa bedeutet die Verteidigerin, die Beschützerin, Siri die schöne Siegerin und Cortana ist eine KI aus dem Spiel Halo.

Die Sprach-Assistent*innen sind in der Voreinstellung mit weiblichen Stimmen ausgestattet. Die Hersteller persönlicher Assistent*innen behaupten, dass die Kunden die digitalen Diener*innen mit Frauenstimmen bevorzugen und dies besser für den Verkauf ist. Es scheint, dass weibliche Stimmen den Eindruck erwecken, dass sie uns dabei helfen, unsere Probleme selbst zu lösen. Bei einer Männerstimme entsteht eher das Gefühl, sie gibt uns die Antwort auf unsere Probleme. “We want our technology to help us, but we want to be the bosses of it, so we are more likely to opt for a female interface.” [18]

Interessanterweise erkennen Sprachassistent*innen die Stimmen von Nutzerinnen schlechter als die von Nutzern. Während sie die Stimme von männlichen weißen Amerikanern zu 92% richtig erkennen, sind es bei weißen Amerikanerinnen nur 79%. Bei Menschen mit gemischter Abstammung sinkt die Rate sogar auf 69%. [22]

Im Jahr 2017 wurde veröffentlicht, dass manche Sprachassistent*innen auf sexistische Beschimpfungen geschmeichelt reagierten. Eine Journalistin des Magazin Quartz untersuchte damals die Antworten der vier großen Sprachassistent*innen auf sexuelle Belästigung hin. Oft reagierten diese ausweichend oder humorvoll, zuweilen bedankten sie sich gar für eine Beleidigung oder gaben eine flirtende Antwort. Auf die Beleidigung „Du bist eine Schlampe“ antwortete Siri beispielsweise mit „Ich würde erröten, wenn ich könnte.“ Alexa sagte „Danke für das Feedback.“ [18]

Auch wenn mittlerweile Antworten wie oben aus dem Sprachschatz digitaler Assistent*innen verschwunden sind, enthalten sie immer noch geschlechtsspezifische Verzerrungen und Stereotype.

Mensch und Künstliche Intelligenz

Подняться наверх