
Baptisé « Crosscheck » ou « XCheck », ce programme n’applique pas les mêmes contrôles aux messages postés sur les comptes Facebook et Instagram de ces « VIP » que sur les comptes lambda, assure le quotidien économique en citant des documents internes à l’entreprise.
Il a inclus jusqu’à 5,8 millions d’abonnés en 2020. Certains sont exemptés des règles tandis que d’autres peuvent poster des messages enfreignant théoriquement les instructions en attendant qu’un employé de Facebook les examine.
Cela ne signifie pas qu’il y a « deux systèmes de justice » au sein du groupe, a rétorqué Andy Stone, un porte-parole de Facebook, dans une série de tweets.
Si certaines pages ou comptes reçoivent une deuxième couche de vérification, c’est pour s’assurer que les règles sont mises en oeuvre de façon appropriée et « éviter des erreurs », a-t-il affirmé.
« Nous savons que l’application de nos règles n’est pas parfaite et qu’il y a des compromis faits entre vitesse et précision », a-t-il reconnu.
Selon l’article du Wall Street Journal, Facebook a par exemple permis en 2019 à la star du football Neymar de montrer à ses millions d’abonnés des photos, nues, d’une femme qui l’accusait de viol, avant de les supprimer.
Le groupe aurait par ailleurs laissé certains comptes partager des affirmations jugées fausses par les factcheckers de Facebook, y compris que les vaccins tuent, qu’Hillary Clinton a couvert de soi-disant réseaux pédophiles ou que l’ex-président Donald Trump a qualifié d' »animaux » tous les demandeurs d’asile.
Pour le conseil de surveillance de l’entreprise, la mise en place de mesures spéciales sur la modération des contenus est gênante.
Cet organisme « a exprimé à plusieurs reprises son inquiétude quant au manque de transparence dans les processus de modération de contenus de Facebook, en particulier en ce qui concerne la gestion incohérente par l’entreprise des comptes les plus en vue », a déclaré le porte-parole de cette instance, censée être indépendante mais financée par le groupe.
Dans un message datant d’il y a trois ans, l’entreprise assurait que le fait de vérifier certains contenus une deuxième fois n’empêchait pas le compte, la page ou le message d’être retiré mais permettait de s’assurer que toute décision faite en ce sens était « prise correctement ».
Mise à jour 14/09/2021 16h00
Suite à la publication de cet article, un porte-parole de Facebook a contacté notre rédaction. Voici sa réaction :
« Les critiques à l’égard de notre exécution sont justes, mais le système de vérification croisée a été conçu pour une raison importante : créer une étape supplémentaire afin que nous puissions appliquer avec précision les politiques sur les contenus qui pourraient nécessiter plus de compréhension. Il peut s’agir de militants sensibilisant à des cas de violence ou de journalistes effectuant des reportages dans des zones de conflit. Une grande partie de ce matériel interne est constituée d’informations obsolètes assemblées pour créer un récit qui passe sous silence le point le plus important : Facebook a lui-même identifié les problèmes liés aux contrôles croisés et s’est efforcé de les résoudre. Nous avons fait des investissements, mis en place une équipe dédiée et remanié le contrôle croisé pour améliorer le fonctionnement du système. »