Programmierte Ungleichheit: Algorithmen sind von Menschen gemacht – und übernehmen deren Vorurteile.
Presse/Medien: Presse / Medien
Quellenangaben
Titel | Programmierte Ungleichheit: Algorithmen sind von Menschen gemacht – und übernehmen deren Vorurteile. |
---|---|
Bekanntheitsgrad | National |
Medienbezeichnung/Outlet | Zeitung "Neues Deutschland" |
Medienformat | Web |
Land/Gebiet | Deutschland |
Datum der Veröffentlichung | 15.02.20 |
Beschreibung | Überraschend strich Bundesinnenminister Horst Seehofer (CSU) im Januar einen umstrittenen Gesetzesentwurf zur biometrischen Gesichtserkennung an 135 Bahnhöfen und 14 Flughäfen deutschlandweit - es seien »Fragen offen geblieben«. Doch an der Ausweitung verschiedener Überwachungsinstrumente soll festgehalten werden. Und die Zahl der mutmaßlichen Straftäter, die in Deutschland mit Gesichtserkennungssystemen über Algorithmen identifiziert werden, steigt stetig an. Dass Algorithmen aber alles andere als eindeutig funktionieren, zeigen viele Beispiele vor allem aus den USA. Im Jahr 2009 verbreitete sich rasend schnell das Video zweier Arbeitskolleg*innen, die sichtlich irritiert mit der Webcam einer renommierten Techfirma rangen. Die Gesichtserkennung konnte nur eine von beiden Personen erkennen, und zwar die weiße, nicht aber die Schwarze. Seifenspender geben in manchen Fällen Flüssigkeit nur an weiße Hände ab, und eine Software markierte einst das Foto eines Schwarzen Mannes als »Gorilla«. Diese und viele andere Beispiele einer algorithmischen Nicht- oder Fehlidentifizierung veranschaulichen, wie Algorithmen gesellschaftlich informiert sind: Sie operieren mit rassistischen und diskriminierenden Vorannahmen. |
Produzent/Autor | Neues Deutschland Druckerei und Verlag GmbH |
URL | https://www.neues-deutschland.de/artikel/1132898.algorithmen-programmierte-ungleichheit.html |
Personen | Nelly Yaa Pinkrah |