https://fr.sputniknews.africa/20210906/un-algorithme-de-facebook-confond-des-personnes-noires-avec-des-singes-1046098563.html
Un algorithme de Facebook confond des personnes noires avec des singes
Un algorithme de Facebook confond des personnes noires avec des singes
Sputnik Afrique
Un algorithme de recommandation de Facebook a demandé à des utilisateurs s'ils souhaitaient voir d'autres «vidéos sur les primates» sous une vidéo d'un tabloïd... 06.09.2021, Sputnik Afrique
2021-09-06T16:03+0200
2021-09-06T16:03+0200
2021-09-06T16:05+0200
société
actualités
facebook
intelligence artificielle
vidéo
réseaux sociaux
racisme
https://cdn1.img.sputniknews.africa/img/07e5/06/0a/1045714462_0:160:3073:1888_1920x0_80_0_0_2d0f616f74adac6292caaeecc2134e89.jpg.webp
La vidéo du Daily Mail, vieille de plus d'un an, est intitulée «un homme blanc appelle les flics contre des hommes noirs à la marina». Elle ne montre que des personnes, pas de singes.En dessous, la question «voir plus de vidéos sur les primates ?» avec les options «Oui / Rejeter» s'est affichée sur l'écran de certains utilisateurs, d'après une capture d'écran diffusée sur Twitter par Darci Groves, une ancienne designer du géant des réseaux sociaux.«C'est scandaleux», a-t-elle commenté, appelant ses ex-collègues de Facebook à faire remonter l'affaire.Le groupe californien a désactivé l'outil de recommandation sur ce sujet «dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise», a-t-elle précisé.«Nous avons des progrès à faire»«Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire», a-t-elle continué.L'affaire souligne les limites des technologies d'intelligence artificielle, régulièrement mise en avant par la plateforme dans ses efforts pour construire un fil personnalisé à chacun de ses près de 3 milliards d'utilisateurs mensuels.Elle s'en sert aussi beaucoup dans la modération des contenus, pour identifier et bloquer des messages et images problématiques avant même qu'ils ne soient vus.Mais Facebook, comme ses concurrents, est régulièrement accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations.Le sujet suscite d'autant plus de tensions que de nombreuses organisations de la société civile accusent les réseaux sociaux et leurs algorithmes de contribuer à la division de la société américaine, dans le contexte des manifestations du mouvement «black Lives Matter» (les vies noires comptent).
Sputnik Afrique
feedback.fr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2021
AFP
https://cdn1.img.sputniknews.africa/img/102063/47/1020634774_0:0:2803:2804_100x100_80_0_0_42c86ed6674c26599431baa8919c38f8.jpg.webp
AFP
https://cdn1.img.sputniknews.africa/img/102063/47/1020634774_0:0:2803:2804_100x100_80_0_0_42c86ed6674c26599431baa8919c38f8.jpg.webp
Actus
fr_FR
Sputnik Afrique
feedback.fr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputniknews.africa/img/07e5/06/0a/1045714462_170:0:2901:2048_1920x0_80_0_0_b461b98558ceb71fc7db752d9846bf04.jpg.webpSputnik Afrique
feedback.fr@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
AFP
https://cdn1.img.sputniknews.africa/img/102063/47/1020634774_0:0:2803:2804_100x100_80_0_0_42c86ed6674c26599431baa8919c38f8.jpg.webp
société, actualités, facebook, intelligence artificielle, vidéo, réseaux sociaux, racisme
société, actualités, facebook, intelligence artificielle, vidéo, réseaux sociaux, racisme
Un algorithme de Facebook confond des personnes noires avec des singes
16:03 06.09.2021 (Mis à jour: 16:05 06.09.2021) Un algorithme de recommandation de Facebook a demandé à des utilisateurs s'ils souhaitaient voir d'autres «vidéos sur les primates» sous une vidéo d'un tabloïd britannique montrant des personnes noires, a révélé le New York Times vendredi.
La vidéo du Daily Mail, vieille de plus d'un an, est intitulée «un homme blanc appelle les flics contre des hommes noirs à la marina». Elle ne montre que des personnes, pas de singes.
En dessous, la question «voir plus de vidéos sur les primates ?» avec les options «Oui / Rejeter» s'est affichée sur l'écran de certains utilisateurs, d'après une capture d'écran diffusée sur Twitter par Darci Groves, une ancienne designer du géant des réseaux sociaux.
«C'est scandaleux», a-t-elle commenté, appelant ses ex-collègues de Facebook à faire remonter l'affaire.
«C'est clairement une erreur inacceptable», a réagi une porte-parole de Facebook, sollicitée par l'AFP. «Nous présentons nos excuses à quiconque a vu ces recommandations insultantes.»
Le groupe californien a désactivé l'outil de recommandation sur ce sujet «dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise», a-t-elle précisé.
«Nous avons des progrès à faire»
«Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire», a-t-elle continué.
L'affaire souligne les limites des technologies d'intelligence artificielle, régulièrement mise en avant par la plateforme dans ses efforts pour construire un fil personnalisé à chacun de ses près de 3 milliards d'utilisateurs mensuels.
Elle s'en sert aussi beaucoup dans la modération des contenus, pour identifier et bloquer des messages et images problématiques avant même qu'ils ne soient vus.
Mais
Facebook, comme ses concurrents, est régulièrement accusé de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations.
Le sujet suscite d'autant plus de tensions que de nombreuses organisations de la société civile accusent les réseaux sociaux et leurs algorithmes de contribuer à la division de la société américaine, dans le contexte des manifestations du mouvement «black Lives Matter» (les vies noires comptent).