Читать книгу Mensch und Künstliche Intelligenz - Ralph-Miklas Dobler - Страница 14

1.4Mögliche Quellen von Diskriminierung

Оглавление

Bilderkennungssysteme benötigen repräsentative Daten von vielen verschiedenen Menschen, um beispielsweise Hände und Gesichter unterschiedlicher Hautfarben zu erkennen oder um Melanome von harmlosen Leberflecken zu unterscheiden. Auch Sprachsysteme brauchen Input von vielen Personen, damit Personen mit Akzenten, Dialekten und Sprachbehinderungen genauso gut verstanden werden wie gesunde Muttersprachler. Die digitalen Assistenten Alexa, Siri oder Google Assistent versagen heute noch, wenn eine Person etwa stottert oder aufgrund anderer Behinderungen längere Pausen beim Sprechen von Befehlen einlegt. Pausen verleiten die Assistenten dazu anzunehmen, dass der Befehl zu Ende gesprochen wurde. A.s Effekt wird oft der falsche Befehl ausgeführt oder der Befehl gar nicht erkannt. Laut einem Bericht des Wall Street Journal arbeiten Amazon, Google und Apple daran, diese Probleme zu beheben. Die Firmen trainieren dazu ihre digitalen Assistenten mit Audiodateien, in denen Menschen mit Sprachstörungen die Befehle sprechen. Das spezielle Sprechmuster dieser Personen wird analysiert, so dass sich der digitale Assistent sozusagen darauf einstellen kann. [14]

Nach Katharina Zweig hängen die meisten Diskriminierungen mit der Datenlage zusammen:[13]

Diskriminierung ist explizit oder implizit in Daten enthalten und der Algorithmus identifiziert die damit korrelierenden Variablen (Beispiel Amazon Bewerber*innen Tool).

Diskriminierung durch fehlende Daten: es fehlen die Daten für Personen aus verschiedenen Bevölkerungsgruppen (Bilderkennungssoftware, überwiegend mit weißen Personen trainiert)

Diskriminierung durch Vorenthaltung sensitiver Daten: es könnten z.B. für alle Personen ein Teil der Daten fehlen.

Diskriminierung durch dynamisches Weiterlernen (Chatbot Tay)

Tay sollte auf Twitter mit Menschen interagieren, indem er lernte, worüber diese redeten, um dann eigene Beiträge zu liefern. Nach kurzer Zeit spuckte Tay rassistische und sexistische Tweets in die Welt, schrieb, wer alles zu hassen sei und wie recht Hitler gehabt hätte. Der Bot wurde nach der Veröffentlichung systematisch von organisierten Benutzern mit fremdenfeindlichen und diskriminierenden Konversationen gefüttert, so dass diese Ausdrucksweise gelernt und angewendet wurde.

Die meisten Diskriminierungen hängen zusammenfassend mit der Datenlage zusammen. Diskriminierungen können sich aber auch in späteren Phasen einschleichen, deshalb muss man auch das Ergebnis der KI-Systeme untersuchen.

Mensch und Künstliche Intelligenz

Подняться наверх