Montag, 26. Dezember 2022

Voreingenommenheit von Algorithmen

Auszug aus https://www.silicon.de/41703666/datenethik-und-kuenstliche-intelligenz

„Was diese Vorurteile nach sich ziehen können, zeigt ein Fall beim Retail-Giganten Amazon. Das Unternehmen entwickelte einen Prototyp-Algorithmus unter Verwendung von Mitarbeiterdaten der letzten 10 Jahre, um eingehende Bewerbungen zu beurteilen und die besten Mitarbeiter:innen auf der Grundlage früherer Leistungsindikatoren einzustellen. KI ist eine Mustererkennungsmaschine, die auf Basis historischer Daten eine ganz bestimmte Aufgabe erfüllt. Dabei ist zu beachten, dass heute in Deutschland nur 17 Prozent der Beschäftigten im Technologiebereich weiblich sind. Wenn man ein KI-Modell mit 1.000 Datenpunkten von erfolgreichen Mitarbeiter:innen füttert und 83 Prozent dieser erfolgreichen Mitarbeiter:innen ein ähnliches Merkmal aufweisen, stellt sich die Frage, was dann das offensichtlichste Muster ist?

In diesem Fall zeigte das statistische Muster, dass mehr Männer als Frauen in ihrer Rolle erfolgreich waren. Dies lag daran, dass mehr Männer als Frauen tatsächlich in diesen Rollen beschäftigt waren. Während wir als Menschen wissen, dass dies ein eindeutiges und negatives Vorurteil ist, hat das KI-Modell Muster in den Daten, mit denen es gefüttert wurde, hervorgehoben – und letztlich Bewerbungen mit dem Begriff „Frauen“ oder „Frauenschachclub“ abgewertet. Amazon beendete das Projekt.“