«Raciste»: des livreurs accusent l’algorithme d’Uber de leur licenciement

© Photo Pixabay / postcardtripLe livreur UberEats
Le livreur UberEats - Sputnik Afrique, 1920, 01.03.2021
S'abonner
Au Royaume-Uni, des livreurs d’Uber et Uber Eats appartenant à des minorités ethniques affirment avoir été licenciés à cause d’un logiciel de reconnaissance facial «raciste» qui n’est pas capable de reconnaître leur visage, rapporte le magazine Wired.

Une technologie de reconnaissance faciale défectueuse leur coûte leur moyen de subsistance, déplorent des livreurs d’Uber et Uber Eats au Royaume-Uni faisant partie des minorités ethniques qui ont témoigné au magazine Wired.

Des employés ayant effectué des milliers de livraisons avec un taux de satisfaction de 100% affirment qu’ils «ont été subitement exclus de la plateforme» par les algorithmes de Microsoft. Beaucoup ont plaidé afin de ne pas perdre leur emploi, en vain.

Chacun a reçu la même réponse indiquant que leur licenciement était «permanent et final» et qu’Uber espérait qu’ils comprendraient «la raison de la décision», écrit Wired.

Uber réagit

Contacté par le magazine, un porte-parole d’Uber a tenu à souligner que la suppression du compte d’un employé impliquait toujours un «examen humain» et que «tous ceux qui sont exclus peuvent nous contacter pour faire appel de la décision».

Cependant, le porte-parole n’a pas précisé si Uber avait déjà réalisé des audits concernant la pertinence de ses systèmes de vérification d’identité. Pour sa part, Microsoft n’a pas souhaité commenter.

Vérification d’identité

Pour sécuriser les trajets de leurs passagers, les livraisons de repas ou éviter la sous-location abusive de certains comptes, une fonction de vérification d’identité a été mise en place par Uber au cours de ces dernières années.

Ainsi, les chauffeurs et coursiers sont régulièrement invités à envoyer un selfie depuis leur mobile. Des algorithmes comparent ensuite cette photo au portrait associé dans la base de données d’Uber. Mais selon les employés, les algorithmes utilisés ne sont pas capables de les reconnaître correctement, les associant de fait à des fraudeurs.

Une étude rendue publique en 2018 par des spécialistes du MIT et de Microsoft a montré que l’algorithme utilisé par Uber s’avère être bien moins performant avec les personnes noires qu’avec les personnes blanches.

Fil d’actu
0
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала