Rassismus

Gesichtserkennungssoftware kann Schwarze nicht von Gorillas unterscheiden - das ist peinlich und gefährlich

Wer ist das? Mit Gesichtern von Schwarzen bekundet die Künstliche Intelligenz Mühe.

Wer ist das? Mit Gesichtern von Schwarzen bekundet die Künstliche Intelligenz Mühe.

Microsoft, Amazon und IBM ziehen ihre Gesichtserkennung-Software zurück. Stösst der Überwachungsstaat an seine Grenzen?

Wer seine eigenen Fotos in der Google-Cloud gespeichert hat und nach «Bär» sucht, der bekommt alle Fotos zu sehen, die er einmal geknipst hat und auf dem das Tier zu sehen ist. Auch ein Foto der kleinen Tochter mit einem Teddybären ist womöglich dabei. Wer aber nach «Affe» sucht, dem werden keine Bilder gezeigt. Googles Algorithmen kennen keine Affen.

Die Software kann Schwarze Menschen nicht zu 100 Prozent von Gorillas unterscheiden. 2015 geschah eine solche Verwechslung tatsächlich. Seither kann man in der Applikation «Google Fotos» nicht mehr nach Affen suchen.

Was zeigt: Gesichtserkennungsalgorithmen sind nicht über jeden Zweifel erhaben. Vor allem funktionieren sie bei Schwarzen viel unzuverlässiger als bei Weissen.

Wer nur weiss sieht, erkennt nur weiss

Manchmal heisst es, dass die künstliche Intelligenz, die solchen Algorithmen zugrunde liegt, rassistisch sei. Das ist sie nicht, kann sie als Maschine nicht sein. Aber vielleicht ihre Programmierer. Denn diese trainieren die entsprechenden Algorithmen vor allem mit Bildern von weissen Männern. Deshalb erkennen sie (die Codes) Menschen mit schwarzer Hautfarbe und Frauen schlechter. Dem könnte man einfach entgegenwirken, indem man mehr Schwarze in die Datenbank aufnimmt. Doch Gesichtserkennung und Rassismus ist ein Minenfeld.

Letzte Woche hat Microsoft auf seinem Newsportal MSN.com zwei dunkelhäutige Sängerinnen der Popgruppe Littel Mix verwechselt. Der Clou dabei: Den Fehler machte kein Redaktor, denn beim Newsportal wurden diese weitgehend durch Roboterjournalisten ersetzt. Es war die künstliche Intelligenz der Software, welche einen Artikel, in dem die Sängerin Leigh-Ann Pinnock über ihre Erfahrungen mit Rassismus erzählt, mit einem Foto ihrer Bandkollegin Thirlwalls illustrierte.

Verwechslungen können schlimme Folgen haben

Solche Verwechslungen sind äusserst peinlich. Sie können aber auch schlimme Folgen haben. Nämlich, wenn Überwachungskameras mit Gesichtserkennungsalgorithmen einen Unschuldigen für einen gesuchten Straftäter halten. In den USA arbeitet die Polizei mit solchen Technologien – anders als in der Schweiz, wo das verboten ist.

Im Zuge der Proteste gegen Rassismus und Polizeigewalt, ist es nun diversen amerikanischen Tech-Firmen offenbar nicht mehr geheuer, dass ihre Software in Überwachungskameras und polizeilichen Datenbanken zum Einsatz kommt. IBM hat sich gänzlich aus dem Geschäft mit der Gesichtserkennung zurückgezogen. Microsoft will die US-Polizei nicht mehr damit beliefern. Und Amazon setzt die Zusammenarbeit mit den amerikanischen Ordnungshütern für ein Jahr aus.

«Die Unternehmen befürchten offenbar teure Klagen, wenn ihre Software Menschen verwechselt und diskriminiert», sagt Dirk Helbing, Professor für computerbasierte Sozialwissenschaften an der ETH Zürich. Gefordert sei aber ein richtiges Umdenken.

San Francisco etwa hat bereits letztes Jahr die Gesichtserkennung für Polizei und Behörde verboten. Überwachungskameras sind zwar weiterhin erlaubt, aber Software, die Gesichter erkennt und mit Datenbanken abgleicht, sind nicht zugelassen. Das ist deshalb bemerkenswert, weil San Francisco am nördlichen Ende des Silicon Valley liegt, wo Firmen wie Google, Facebook oder auch IBM beheimatet sind. Ausgerechnet aus dem technologischen Herzen Amerikas kommt der Widerstand gegen die Technologie.

Auch Google und Facebook haben die Möglichkeiten zur Gesichtserkennung aus Datenschutzgründen bewusst eingeschränkt. So kann man weder auf dem sozialen Netzwerk noch über Google selbst im Internet nach einem Gesicht suchen, von dem man eine Fotografie hat. Technisch wäre das leicht möglich. Doch nicht alles, was machbar ist, wird auch gemacht.

3000 vermisste Kinder konnten gefunden werden

Allerdings zeigen Beispiele aus Indien, wo Gesichtserkennung in öffentlichen Plätzen auch eingesetzt wird, dass die Technologie auch Vorteile haben kann. Laut Medienberichten wurden allein in New Delhi auf diese weise 3000 vermisste Kinder gefunden. Und in Amerika wurden dank der Technologie Verbrechen aufgeklärt: In Oklahoma etwa konnte ein mutmasslicher Kinderschänder nach über 20 Jahren Flucht geschnappt werden.

Wie bei jeder Technologie gibt es auch bei der Gesichtserkennung Licht- und Schattenseiten. Das gilt auch bei der herkömmlichen Überwachungskamera. Die Erschiessung des Schwarzen Rayshard Brooks durch einen Polizisten in Atlanta vom vergangenen Wochenende schlug deshalb so rasch hohe Wellen, weil sie von einer Überwachungskamera gefilmt wurde.

Meistgesehen

Artboard 1