fbpx

IA SCHOOL

Reconnaissance faciale et responsabilité sociale : une difficile alliance

Reconnaissance faciale et responsabilité sociale : une difficile alliance

Dans un contexte de haute tension et de manifestations contre le racisme et les violences policières partout dans le monde, la technologie de la reconnaissance faciale fait débat. Une technologie dont se sert notamment la police aux Etats-Unis, et qui a poussé plusieurs géants de la Tech à prendre des décisions fermes sur le sujet. Dernier en date, la firme américaine IBM, par le biais de son PDG Arvind Krishna, qui a annoncé qu’ils stoppent toute fabrication et mise en vente de systèmes de reconnaissance faciale, dans un futur proche. Une décision qui pousse à s’interroger sur la fiabilité de ces outils de reconnaissance faciale, et du besoin urgent d’une législation claire et éthique à ce sujet.

 

Reconnaissance faciale : sa fiabilité remise en cause

En 2018-2019, une étude appelée Gender Shades menée par deux chercheuses, apporte la preuve statistique que les systèmes de reconnaissance faciale des grands groupes américains ne parviennent pas à analyser correctement les visages des femmes et des personnes racisées. Par exemple, avec le système d’IBM, un homme blanc est reconnu à 99,7% et une femme noire à seulement 65,3%. De nombreuses études ont aussi démontré que la reconnaissance faciale présentait des biais liés à âge, au genre et à la couleur de visage présenté. Une dérive qui peut être utilisée pour la surveillance de masse et le profilage racial : Amazon a refusé l’utilisation de son outil de reconnaissance faciale Rekognition à la police pendant 1 an. Microsoft a lui aussi refusé de vendre ses outils tant qu’une loi nationale fondée sur les droits de l’Homme n’était pas mise en place. IBM quant à lui a annoncé se retirer de ce secteur.

 

Vers une réglementation juste et éthique ?

Si la reconnaissance faciale est une formidable avancée technologique, elle pose aussi des questions sur des valeurs clés de notre société : algorithmes profondément inégalitaires, surveillance de la population et atteinte aux libertés fondamentales des individus, siphonnage de données, etc… La liste des craintes est importante et réelle ! En France, depuis mai 2020, un système de reconnaissance faciale est mis en place dans la station Châtelet-Les Halles, afin de contrôler le port du masque par les usagers dans les transports en commun. Un dispositif assez opaque sur son fonctionnement, qui inquiète et dérange les défenseurs des libertés. L’utilisation de ce genre d’outil prend de plus en plus d’ampleur ces dernières années, et la crise du Covid-19 y contribue aussi largement. Caméras thermiques, drones de surveillances, caméras de détection… Tous ces dispositifs automatiques sont installés dans les villes de France, sans qu’il y ait un débat public.

 

Il est donc nécessaire que les États apportent une réponse claire, et prônent des régulations plus strictes au sujet de l’éthique des technologies de reconnaissance faciale. Pour la Ligue des Droits de l’Homme, “on ne gagne jamais en sécurité, quand on perd en libertés.” Il est donc nécessaire et vital de s’en préoccuper dès maintenant !

 

Ces questions vous intéressent ? Rejoignez l’IA School, et formez-vous aux métiers de l’intelligence Artificielle, avec un profil double – technique et business, très recherché par les différentes entreprises, et différents secteurs d’activités.

Fermer le menu