Ecoutez Radio Sputnik
    Facebook

    Modération de contenus : «Facebook patauge complètement»

    CC0 / TheDigitalArtist
    Société
    URL courte
    Gaëlle Nicolle
    270

    Alors que Facebook a annoncé vouloir supprimer les fausses informations pouvant conduire à des actes violents, un journaliste révèle une modération à géométrie variable des contenus haineux. Le tout sur fond d’atermoiements de Mark Zuckerberg sur le négationnisme...

    Facebook a annoncé le 18 juillet 2018 vouloir supprimer les fausses informations, pouvant conduire à des actes violents, alors que jusqu'ici, le réseau social se contentait de leur donner moins de visibilité.

    Facebook-Gründer Mark Zuckerberg
    © Sputnik . Vladimir Astapkovich
    Le réseau a été critiqué en Birmanie et au Sri Lanka pour avoir laissé circuler des rumeurs et «fake news» (les musulmans auraient empoisonné de la nourriture consommée par des bouddhistes), sous forme de contenus inexacts, trompeurs, de photos truquées, qui ont pu contribuer à exacerber les violences.

    Mais ces contenus se distinguent des contenus haineux ou appels directs à la violence, qui sont déjà, en théorie, bannis de Facebook. «Il y a le problème de l'incitation, de l'intention», note Jean-Bernard Huyghe, directeur de recherche à l'IRIS, spécialiste de la communication, de la cyberstratégie et de l'intelligence économique.

    En termes philosophiques «ça revient à passer d'un constatif à un performatif». «Si on accuse une communauté d'un crime grave, il est possible qu'une autre communauté veuillent des représailles».

    « C'est sur cette ligne très subtile que Facebook va avoir beaucoup de mal à ne pas apparaitre comme une nouvelle forme de censure », et aussi de générer un effet «boomerang».

    «Si on interdit une information ou un discours, on leur donne le charme sulfureux de l'interdit», poursuit le chercheur, rappelant que Facebook censure déjà «énormément». «Sur un très volumineux flot d'échanges, il y a énormément de message ou photo retirées» qui entrent «dans des catégories de contenu très compliquées», à retirer, repérés par des algorithmes, des modérateurs, signalés par des usagers, des organisation de fact-cheking, des médias. Néanmoins, «Facebook patauge complètement».

    La modération, une activité à géométrie variable? Toujours plus prompt à cacher un téton, Facebook semble dégainer moins vite quand il s'agit de supprimer certains contenus haineux. C'est ce que laisse entendre le reportage «Facebook: Secrets of the social network», tourné par un journaliste de la chaine britannique Chanel 4, et diffusé le 17 juillet. Infiltré chez un sous-traitant de Facebook, chargé de modérer les contenus haineux de la plateforme, le journaliste a constaté que le réseau aurait laissé proliférer des discours haineux et des images assimilées à l'extrême-droite, pourtant contraires à son règlement. Ce procédé à un nom «shielded review»: ces pages, comme celles de l'activiste d'extrême-droite Tommy Robinson, ont beaucoup d'abonnés et, étant très visitées, génèrent «beaucoup de revenus pour Facebook», comme l'explique The Guardian… et restent donc en ligne plus longtemps.

    Dans a la foulée, Mark Zuckerberg a provoqué un tollé en expliquant pourquoi les propos négationnistes ne sont pas censurés sur la plateforme. Dans un entretien accordé au site spécialisé Recode (en anglais), mercredi 18 juillet, le PDG de Facebook a expliqué qu'il ne comptait pas censurer des propos qui auraient été tenus, selon lui, «sincèremen».

    «Mais il a toujours eu un problème auquel s'est confronté Facebook, c'est celui de la vérité. Au nom de la liberté d'expression, il a longtemps admis qu'on puisse tenir des propos que la plupart des gens tiendrait pour aberrant».

    En attendant, Facebook n'a pas encore trouvé la bonne recette contre les «fake news».

    Lire aussi:

    Royaume-Uni: les réseaux sociaux devront-ils répondre des publications qu’ils diffusent?
    Un grand censeur: les règles de modération des publications de Facebook dévoilées
    Facebook, un réseau social extrémiste pour le Times de Londres
    Tags:
    désinformation, contenu, réseaux sociaux, IRIS (Institut de Relations Internationales et Stratégiques), Facebook, Inc, Mark Zuckerberg
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik