Читать книгу Mensch und Künstliche Intelligenz - Ralph-Miklas Dobler - Страница 23

1.6.3Empfehlungen der AG3 der Plattform Lernende Systeme

Оглавление

Die Autor*innen des Whitepapers der Arbeitsgruppe 3 für IT-Sicherheit, Privacy, Recht und Ethik der Plattform für KI stellen klar, dass KI nicht per se neutraler oder objektiver entscheidet als der Mensch. [6]

Die Autor*innen halten technische Ansätze um ethische Prinzipien in Software zu integrieren nicht für ausreichend. Begrenzen lassen sich die Diskriminierungsrisiken ihrer Ansicht nach durch folgende vier Ansätze

1. Erklärbarkeit und Überprüfung

KI-Entscheidungen sollten nachvollziehbar sein. Neben den technischen Herausforderungen gibt es aber weitere Probleme. Die Transparenz der Systeme ist kein Selbstzweck, auch Firmengeheimnisse sind wichtig für den technologischen Fortschritt.

Die Autor*innen schlagen eine unabhängige Instanz vor, die klärt, in welchem Maß und gegenüber welchen Akteuren Transparenz hergestellt wird. Diese Instanz sollte die Outputs lernender Systeme kontrollieren und bewerten. „Sie soll die Ergebnisse und von den Systemen selbst gegebenen Erklärungen mithilfe klar definierter Instrumente und Prinzipien auf Plausibilität überprüfen.“ [6]

Auch werden laufende Schulungen und Fortbildungen für Mitarbeiter*innen in Unternehmen, oder der öffentlichen Verwaltung, die die Systeme verwenden, vorgeschlagen.

2. Selektion der Kriterien

Als diskriminierend bewertete Merkmale wie etwa die ethnische Zugehörigkeit sollte aus dem Input für maschinelle Lernverfahren komplett gestrichen werden. Es bleibt aber das Problem, dass viele Merkmale als Vertreter für andere dienen können. „Generell setzt dieser Ansatz Einigkeit darüber voraus, welche Kriterien diskriminierend sind bzw. welche für uns derzeit noch nicht vorstellbaren Korrelationen akzeptabel sind.“ [6]

3. Gerechte Behandlung als Ziel maschinellen Lernens

„Eine weitere Möglichkeit wäre, eine gerechte Behandlung selbst wird zum Ziel maschineller Lernverfahren gemacht. Dann ginge es nicht mehr darum, möglichst effiziente oder genaue Klassifikationen zu ermöglichen, sondern eben möglichst gerechte.“ [6] Allerdings lassen sich unsere Vorstellungen von Gerechtigkeit und Fairness nicht formalisieren, dazu sind sie viel zu komplex. Und damit kann man diese auch nicht so einfach zum Lernziel von ML machen.

4. Effektiver Rechtsschutz und Rechtsdurchsetzung

Die Betroffenen selbst müssen über ihre Rechte informiert sein und in die Lage versetzt werden, ihre Rechte zu verteidigen oder vor Gericht einzufordern. Um die dadurch entstehenden finanziellen Aufwendungen abzufangen, könnte es eventuell eine Versicherung gegen Diskriminierung durch Lernende Systeme geben. „Den Staatlichen Behörden kommt die Aufgabe zu, einer rechtswidrigen Diskriminierung durch Selbstlernende Systeme entgegenzuwirken. Bei all diesen Maßnahmen sollte allerdings auf ein angemessenes Maß an Regulierung geachtet und Überregulierung vermieden werden.“ [6]

Mensch und Künstliche Intelligenz

Подняться наверх