En France, une femme noire enceinte de huit mois victime des préjugés racistes de la reconnaissance faciale

0

La reconnaissance faciale : un système biaisé et discriminatoire

Porcha Woodruff, une femme enceinte de huit mois, a été arrêtée à tort pendant plus de onze heures dans un centre de détention de Detroit. Le système de reconnaissance faciale de la police l’a confondue avec une autre Afro-Américaine, l’accusant à tort de vol. Malheureusement, ce n’est pas un cas isolé. Les spécialistes de l’intelligence artificielle ont depuis longtemps mis en garde contre les biais sexistes et racistes présents dans les algorithmes. Par exemple, les systèmes de reconnaissance vocale ont du mal à reconnaître les voix des Afro-Américains en raison des données majoritairement composées de voix blanches. Ces biais ont des conséquences graves sur la vie des personnes injustement accusées.

Les conséquences dramatiques de la reconnaissance faciale

Porcha Woodruff est la sixième personne à subir les erreurs du système de reconnaissance faciale aux États-Unis, et la première femme. Malgré les avertissements des experts, les algorithmes continuent de reproduire les préjugés sexistes et racistes de leurs concepteurs, souvent des hommes blancs. Les conséquences de ces erreurs peuvent être dramatiques, comme en témoigne l’arrestation de Woodruff, qui a dû payer une caution de 100 000 dollars pour sortir de prison. Heureusement, son histoire s’est terminée sans drame, mais cela aurait pu être différent.

Des biais persistants malgré les avancées législatives

En France, une proposition de loi a été adoptée pour autoriser l’utilisation de la reconnaissance faciale dans des cas spécifiques, tels que la lutte contre le terrorisme ou la recherche de suspects dans des affaires criminelles graves. Cependant, les biais des algorithmes restent un problème majeur. Les erreurs de reconnaissance faciale sont fréquentes, comme en témoignent les trois plaintes déposées à Detroit après des arrestations erronées. Il est donc essentiel de continuer à sensibiliser sur ce sujet et à travailler sur l’amélioration des algorithmes pour éviter de nouvelles erreurs et injustices.

Mots clés : reconnaissance faciale, biais sexistes, biais racistes, intelligence artificielle, erreurs judiciaires, discrimination, préjugés, avancées législatives, sensibilisation, amélioration des algorithmes

Donnez votre avis et abonnez-vous pour plus d’infos

Vidéo du jour: