Angesichts der Proteste gegen rassistische Polizeigewalt schränkt Amazon seine Kooperation mit der US-Behörde ein. Ein Jahr lang wird die Nutzung des Gesichtserkennungsprogramms „Rekognition“ durch die Polizei ausgesetzt. In dieser Zeit soll der amerikanische Kongress Gesetze für eine ethisch vertretbare Anwendung der Technologie verabschieden. Bereits vor wenigen Tagen hatte der IT-Konzern IBM angekündigt, keine Programme zur Gesichtserkennung mehr anzubieten.
Massenproteste als Auslöser
Schon in der Vergangenheit habe man von der Regierung klare Regeln für den verantwortungsvollen Einsatz der Software gefordert, heißt es im Amazon-Blog. Nun sehe es so aus, als könne sich der US-Kongress dieser Aufgabe stellen. Während eines zwölfmonatigen Moratoriums wird das Programm namens „Rekognition“ für die Nutzung durch die Polizei gesperrt. Damit will man den Abgeordneten ausreichend Zeit für den Gesetzgebungsprozess geben. Fachleute von Amazon sollen ihnen auf Anfrage beratend zur Seite stehen. Auf keinen Fall will der Konzern mit der Maßnahme die Suche nach vermissten Kindern oder die Verfolgung von Menschenhandel behindern. Einschlägige Organisationen dürfen deshalb weiterhin auf „Rekognition“ zurückgreifen.
Ethische Bedenken auch bei IBM
Amazons Moratorium folgt wenige Tage auf die Ankündigung des Technologie-Konzerns IBM, sich generell aus der Entwicklung von Gesichtserkennungs-Programmen zurückzuziehen. In einem Brief an den US-Senat begründet CEO Arvind Krishna dieses Vorgehen ebenfalls mit ethischen Bedenken. IBM-Software solle nicht für Massenüberwachung, die Erstellung von Rassenprofilen oder Verstöße gegen Menschenrechte eingesetzt werden. Das Unternehmen wolle aber gerne mit dem Kongress zusammenarbeiten, um mehr Rassengerechtigkeit zu erreichen. Notwendig dafür seien, so Krishna, eine Polizeireform, die Erweiterung von Bildungschancen und der verantwortungsbewusste Einsatz von Technologie.
Rassistische Software
Verschiedene Studien der vergangenen Jahre sind zu dem Ergebnis gekommen, dass Gesichtserkennungs-Software vor allem bei Frauen sowie bei Menschen dunkler Hautfarbe eine hohe Fehlerquote aufweist. Das könnte unter anderem daran liegen, dass die Programme vor allem mit den Fotos männlicher weißer Personen trainiert werden. Bei einem Test konnten Mitglieder des US-Kongresses die Konsequenzen erleben: 28 von ihnen, überwiegend schwarze Abgeordnete, wurden vom System fälschlicherweise als gesuchte Straftäter identifiziert.
Fazit
Zahlreiche Bürgerrechtsvereinigungen haben die Nutzung von Gesichtserkennungsprogrammen durch Polizei und Justiz in den vergangenen Jahren kritisiert. Bisher hatte Amazon den Einsatz seiner Software stets verteidigt. Wie viele Polizeibehörden „Rekognition“ tatsächlich nutzen, ist nicht bekannt.
Anzeige