De Nombreux Systèmes de Reconnaissance Faciale Sont Biaisés, Selon Une étude Américaine

La majorité des systèmes commerciaux de reconnaissance faciale présentent des biais, selon une étude d’une agence fédérale publiée jeudi, soulignant des questions sur une technologie de plus en plus utilisée par les services de police et les agences fédérales pour identifier les criminels présumés.

Les systèmes ont faussement identifié les visages afro-américains et asiatiques 10 à 100 fois plus que les visages caucasiens, a rapporté jeudi le National Institute of Standards and Technology. Selon une étude, parmi une base de données de photos utilisées par les forces de l’ordre aux États-Unis, les taux d’erreur les plus élevés ont été identifiés dans l’identification des Amérindiens.

La technologie a également eu plus de difficulté à identifier les femmes que les hommes. Et il a faussement identifié les personnes âgées jusqu’à 10 fois plus que les adultes d’âge moyen.

Le nouveau rapport intervient à un moment où les législateurs et les groupes de défense des droits civils s’inquiètent de plus en plus de la prolifération de la reconnaissance faciale. Les partisans y voient un outil important pour attraper des criminels et traquer des terroristes. Les entreprises technologiques le commercialisent comme une commodité qui peut être utilisée pour aider à identifier les personnes sur les photos ou au lieu d’un mot de passe pour déverrouiller les smartphones.

Images d'une étude réalisée en 2013 sur des images faciales humaines en 3D
Images d’une étude réalisée en 2013 sur des images faciales humaines en 3D

Les experts en libertés civiles, cependant, avertissent que la technologie – qui peut être utilisée pour suivre des personnes à distance à leur insu – a le potentiel de conduire à une surveillance omniprésente, refroidissant la liberté de mouvement et la parole. Cette année, San Francisco, Oakland et Berkeley en Californie et les communautés de Somerville et Brookline du Massachusetts ont interdit l’utilisation gouvernementale de la technologie.

“Un faux match peut entraîner des vols manqués, de longs interrogatoires, des placements sur la liste de surveillance, des rencontres tendues avec la police, de fausses arrestations ou pire”, a déclaré Jay Stanley, analyste des politiques à l’American Civil Liberties Union, dans un communiqué. «Les agences gouvernementales, dont le FBI, les douanes et la protection des frontières et les forces de l’ordre locales, doivent immédiatement arrêter le déploiement de cette technologie dystopique.»

Le rapport fédéral est l’une des plus grandes études du genre. Les chercheurs ont eu accès à plus de 18 millions de photos d’environ 8,5 millions de personnes en provenance de clichés mug américains, de demandes de visa et de bases de données de passage des frontières.

L’Institut national des normes et de la technologie a testé 189 algorithmes de reconnaissance faciale de 99 développeurs, représentant la majorité des développeurs commerciaux. Ils comprenaient des systèmes de Microsoft, des sociétés de technologie biométrique comme Cognitec et Megvii, une société d’intelligence artificielle en Chine.

L’agence n’a pas testé les systèmes d’Amazon, Apple, Facebook et Google car ils n’ont pas soumis leurs algorithmes pour l’étude fédérale.

Le rapport fédéral confirme des études antérieures du MIT qui indiquaient que les systèmes de reconnaissance faciale de certaines grandes entreprises technologiques avaient des taux de précision beaucoup plus faibles dans l’identification des visages féminins et à peau plus foncée que les visages masculins blancs .

“Alors que certains chercheurs et fournisseurs de biométrie ont tenté de prétendre que le biais algorithmique n’est pas un problème ou a été surmonté, cette étude fournit une réfutation complète”, a déclaré Joy Buolamwini, chercheur au MIT Media Lab, qui a dirigé l’une des études faciales, dans un email. «Nous devons protéger l’intérêt public et stopper la prolifération de la surveillance faciale.»

Bien que l’utilisation de la reconnaissance faciale par les forces de l’ordre ne soit pas nouvelle, de nouvelles utilisations prolifèrent avec peu de surveillance indépendante ou d’examen public. La Chine a utilisé la technologie pour surveiller et contrôler les groupes ethniques minoritaires comme les Ouïghours. Cette année, les responsables de l’immigration et des douanes des États-Unis ont été critiqués pour avoir utilisé la technologie pour analyser les permis de conduire de millions de personnes à leur insu.

La technologie de reconnaissance faciale biaisée est particulièrement problématique dans l’application des lois car les erreurs peuvent conduire à de fausses accusations et à des arrestations. La nouvelle étude fédérale a révélé que le type d’algorithmes d’appariement facial utilisés dans l’application de la loi avait les taux d’erreur les plus élevés pour les femmes afro-américaines.

«Les conséquences pourraient être importantes», a déclaré Patrick Grother, informaticien au NIST, qui était le principal auteur du nouveau rapport. Il a dit qu’il espérait que cela inciterait les gens qui développent des algorithmes de reconnaissance faciale à «examiner les problèmes qu’ils pourraient avoir et comment ils pourraient les résoudre».

Mais s’assurer que ces systèmes sont équitables n’est qu’une partie de la tâche, a déclaré Maria De-Arteaga, chercheuse à l’Université Carnegie Mellon, spécialisée dans les systèmes algorithmiques. Alors que la reconnaissance faciale devient plus puissante, a-t-elle déclaré, les entreprises et les gouvernements doivent faire attention quand, où et comment ils sont déployés.

«Nous devons nous demander si nous voulons vraiment ces technologies dans notre société», a-t-elle déclaré.

Leave a Reply

Your email address will not be published. Required fields are marked *

Releated