Unabhängige News und Infos

Neue Studie erforscht Verzerrungen bei der Gesichtserkennung jenseits demografischer Merkmale um es „robuster“ zu entwickeln

Neue Studie erforscht Verzerrungen bei der Gesichtserkennung jenseits demografischer Merkmale um es „robuster“ zu entwickeln

Die bekannten Verzerrungen in Bezug auf Hautfarbe und Geschlecht sind nicht die einzigen Verzerrungen, die Gesichtserkennungssysteme aufweisen. Dies geht aus einer neuen Studie hervor, in der gefordert wird, die Entwicklung biometrischer Systeme für Gesichter zu verstärken, damit sie fair sind.

In der umfassenden Studie „A Comprehensive Study on Face Recognition Biases Beyond Demographics“ testete ein deutsch-spanisches Team die Gesichtserkennungsmodelle FaceNet und ArcFace mit dem MAAD-Gesichtsdatensatz, der mehr als 120 Millionen Attributannotationen für 3,3 Millionen Gesichtsbilder enthält, um festzustellen, ob die Modelle über explizite demografische Merkmale wie Alter, Geschlecht und Hautfarbe hinaus Verzerrungen liefern.

Das Team testete auch nicht explizite demografische Attribute wie Accessoires, Frisuren und Farben, Gesichtsformen, Gesichtsanomalien und Make-up.

Die frühzeitige Veröffentlichung des vollständigen Papiers, das bei der endgültigen Veröffentlichung noch überarbeitet werden könnte, enthält die Ergebnisse für die verschiedenen getesteten Attribute, wobei aufschlussreiche Diagramme für den Grad der Verzerrung sowohl für FaceNet als auch für ArcFace erstellt wurden, in denen die Attribute, die zu einer Verzerrung und damit zu einer Verschlechterung der biometrischen Erkennung führen, und diejenigen, die zu einer verbesserten Erkennungsleistung führen, dargestellt sind.

Ein Schnurrbart, ein Spitzbart, ein rundes Gesicht, eine vorgewölbte Stirn oder rosige Wangen sowie das Tragen von Lippenstift oder einer Brille können zu einer Verschlechterung der Erkennungsleistung führen. Graue Haare verbessern die Erkennungsleistung, ebenso wie ein Bart oder auch nur ein 5-Uhr-Schatten im Vergleich zu einem bartlosen Gesicht.

Die Autoren konnten einige der Gründe für die Ergebnisse erklären, aber nicht alle. „Die Ergebnisse dieser Arbeit zeigen deutlich, dass weitere Fortschritte notwendig sind, um Gesichtserkennungssysteme robuster, erklärbarer und gerechter zu machen. Wir hoffen, dass diese Ergebnisse zur Entwicklung robusterer und unvoreingenommener Gesichtserkennungslösungen führen“, heißt es abschließend in dem Papier.

AnyVision forderte kürzlich Unternehmen, die Biometrie- und KI-Algorithmen entwickeln, auf, demografische Verzerrungen zu beseitigen. Damit reagierte das Unternehmen auf den Aufruf des U.S. National Institute of Standards and Technology (NIST) zur öffentlichen Stellungnahme zu seiner vorgeschlagenen Methode zur Bewertung des Vertrauens der Nutzer in KI-Systeme. OpenAI hat demografische Verzerrungen in seinem neuen Computer-Vision-Modell zugegeben.