Читать книгу Mensch und Künstliche Intelligenz - Ralph-Miklas Dobler - Страница 12
1.3.4Fehlerhafte Klassifizierung durch Bildererkennung
ОглавлениеNormalerweise erkennt Googles Bilderkennungs-Software auf Fotos Gesichter sehr gut, zuverlässiger als Menschen und kann diese Gesichter sogar gruppieren und die gleiche Person auf anderen Fotos wiederfinden. Es kommt höchst selten vor, dass Menschen nicht erkannt oder als Gegenstände wahrgenommen werden. Doch 2015 war der Fehler etwas prekärer als bei anderen falschen Zuordnungen. Der Algorithmus erkannte dunkelhäutige Menschen nicht als Personen, sondern ordnete diese der Kategorie Gorillas zu. [11]
Der Grund dafür ist, dass diese Systeme mit überwiegend hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten, die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Ungleichheit, indem es diskriminiert.
Diskriminierung und Rassismus in KI-Systemen können nach Meinung der Forscherin Joy Buolamwini bestehende Vorurteile verfestigen. Joy Buolamwini, eine Forscherin am MIT, veröffentlichte 2018 zusammen mit Timnit Gebru die Ergebnisse eines Forschungsprojekts. [12] In dem Artikel wird eindrucksvoll gezeigt, dass die Produkte von Microsoft, IBM und dem chinesischen Unternehmen Face++ wesentlich schlechter darin sind, das Geschlecht einer Person zu bestimmen, wenn es sich um Frauen handelt, vor allem Frauen mit dunkler Haut. Zu Testzwecken hielt Joy Buolamwini ihr eigenes Gesicht in die Kamera – und wurde von vielen Systemen erst erkannt, als sie sich eine weiße Maske aufsetzte.