Читать книгу Mensch und Künstliche Intelligenz - Ralph-Miklas Dobler - Страница 24
1.7Fazit
ОглавлениеDass Regulierungen und Gesetze zusätzlich zu den freiwilligen ethischen Leitlinien von Firmen, Berufsverbänden oder NGOs notwendig sind, zeigen die Entlassungen von Timnit Gebru und Margaret Mitchell durch Google. Timnit Gebru, die Leiterin der Abteilung für KI-Ethik bei Google, wurde von Google im Dezember 2020 entlassen. Auch die Entlassung Mitchells, der stellvertretenden Leiterin der KI-Ethik Abteilung, im Februar 2021 hatte mit Streitigkeiten über eine Forschungsarbeit zu tun. Untersucht wurden die Auswirkungen eines Maschine Learning-Modells zur Texterzeugung. Gebru und Kolleg*innen kritisierten die Gefahren, die von großen KI-Sprachmodellen ausgehen könnten. Sie zeigten auf, dass vorurteilsbehaftete und abwertende Sprache reproduziert werden könnte. Google soll Gebru aufgefordert haben, die Arbeit zurückzuziehen und nicht zu veröffentlichen, da durch die Arbeit Googles KI-Technologien zu negativ dargestellt würden. Mitchells Entlassung wurde mit mehreren Verstößen gegen Verhaltensregeln und Sicherheitsrichtlinien begründet. Mitchell selbst war über den Umgang der Firma mit Gebru besorgt. Für sie steht das Ausscheiden von Gebru in einem bedenklichen Zusammenhang mit Sexismus und Diskriminierung. Google bestätigte kürzlich interne Änderungen der Forschungsabteilung. Neue Strukturen und Richtlinien sollen zu einer verantwortungsbewussteren KI-Forschung führen. [26]
Die Association for Computing Machinery (ACM) hat 2018 ihre ethischen Leitlinien, den ACM Code of Ethics, erneuert. Ein Forscherteam um Andrew McNamara von der North Carolina State University führte eine Studie mit 63 Software-Engineering Studierenden und 105 professionellen Software-Entwicklern durch. Sie wollten herausfinden, ob Software-Entscheidungen durch Hinweise auf den ACM Code of Ethics beeinflusst würden. Leider stellten sie fest, dass auch explizite Hinweise, den ACM Code of Ethics bei den Entscheidungen zu berücksichtigen, ohne nennenswerte Effekte blieben. [32]
KI-Systeme sind, wie jede Technik an sich, weder gut noch böse. Heutige KI-Lösungen können schnell große Datenmengen durchsuchen und früher gezeigte Muster in neuen Daten effizient finden. Sie spiegeln wider, was in den Daten an Vorurteilen oder Stereotypen bereits enthalten ist. Es kommt auch immer darauf an, in welchem Kontext und wie sie angewendet werden. Eine KI für Bilderkennung kann, wie einleitend angesprochen, Hautkrebs erkennen, aber auch eingesetzt werden, um im militärischen Bereich angebliche Feinde zu identifizieren. Es gilt zu hinterfragen, wer entscheidet und wer verdient an den Systemen und ob sie verletzen, ausgrenzen oder belästigen. KI-Systeme selbst können nicht zwischen sinnvollen und sinnlosen Ergebnissen, zwischen fairen und diskriminierenden Resultaten unterscheiden. Sie sind nicht intelligent im menschlichen Sinn, sondern liefern lediglich Aussagen, die mit einer gewissen Wahrscheinlichkeit richtig oder auch falsch sind. Sie haben kein Bewusstsein und können nicht in einem größeren gesellschaftlichen, politischen oder humanitären Kontext „denken“. Es reicht daher nicht aus, die Lösung der Probleme alleine den Technologie-Firmen zu überlassen. Zumal deren Versuche und Lösungs-Ansätze, wie oben kurz skizziert, auch nicht immer zufriedenstellend sind. Die offenen Fragen und mögliche Lösungen betreffen nicht nur die Technologie-Industrie und die Politik, sondern uns als Gesellschaft, d.h. jede Einzelne, jeden Einzelnen, dessen Leben KI-Algorithmen beeinflussen.