
« J’ai rarement vu ou entendu un témoin aussi crédible et convaincant sur un problème aussi épineux ». Les propos du sénateur démocrate, Richard Blumenthal, illustrent bien l’impression positive laissée par Frances Haugen, une ex-employée de Facebook, lors de son audition devant la chambre haute du Congrès des États-Unis cette semaine.
En à peine un mois, celle qui bénéficie du statut de lanceuse d’alerte, est à l’origine d’une série de révélations qui font tanguer la compagnie. Loin de s’appuyer sur des bruits de couloir, la jeune femme a empilé des dizaines de milliers de documents internes afin de démontrer la véracité de ses propos. Elle dénonce globalement le comportement du géant de la Tech qui ferait passer la recherche du profit au détriment des valeurs qu’il prétend pourtant défendre.
De la désinformation sur Facebook, à la toxicité d’Instagram, en passant par la modération à deux vitesses, une série d’informations ont tour à tour éclaboussé la firme de Mark Zuckerberg. Pour y voir plus clair, voici les principales accusations qui visent l’entreprise.
L’influence d’Instagram sur les adolescentes a-t-elle été minimisée par Facebook ?
C’est un rapport interne pour le moins accablant. Des chercheurs de l’entreprise sont arrivés à la conclusion qu’Instagram a des effets négatifs sur le bien-être des adolescents. Ainsi, un jeune sur cinq estime que le réseau social « nuit à son estime de soi ».
Dans le détail, on apprend ainsi que que 30% des adolescentes britanniques déclarent se sentir « mieux » ou « beaucoup mieux lorsqu’elles utilisent l’application, tandis que 23 % affirment qu’une connexion sur la plateforme les fait se sentir « un peu plus mal » et 2 % « vraiment très mal ».
Le document semble d’ailleurs souligner des effets spécifiques d’Instagram où l’apparence compte énormément. Comme le rappellent nos confrères du Monde, l’utilisation de l’embellissement des images y est bien plus fréquent que sur TikTok et Snapchat où les filtres sont plutôt employés à des fins humoristiques.
Jusqu’à la révélation de ce rapport, Facebook s’est toujours défendu en expliquant qu’il n’y avait aucun consensus sur le sujet de l’impact des réseaux sociaux sur les adolescents.
Dans la foulée de ces publications, Instagram a déclaré : « Nous travaillons de plus en plus sur les comparaisons de son corps avec celui des autres et l’image négative du corps. » Elle indique également réfléchir sur de nouvelles options pour réagir « quand nous voyons que les gens s’appesantissent sur certains types d’images ».
Pourtant, Facebook dispose déjà d’un arsenal de mesures pour répondre à ce problème qui lui a été suggéré par ses propres scientifiques. Les chercheurs proposent notamment de moins mettre en valeur les profils de stars et de privilégier les photos des amis et des proches, tout en rétrogradant les publications dédiées à la mode à la beauté.
Selon les documents fournis par Frances Haugen au Wall Street Journal, ces idées ont été écartées par un responsable qui a argumenté : « Les gens utilisent Instagram parce que c’est une compétition. C’est ça qui est amusant. »
De son côté, Mark Zuckerberg est revenu cette semaine dans un long message sur l’idée selon laquelle Facebook serait indifférent aux recherches internes qui concluent à la toxicité de ses réseaux sociaux :
Si nous voulions ignorer la recherche, pourquoi créerions-nous un programme d’études de pointe pour comprendre ces problèmes importants ? Si nous ne nous étions pas souciés de lutter contre les contenus préjudiciables, pourquoi embaucherions-nous autant de personnes qui s’y consacrent ?
Un changement d’algorithme à l’origine d’un accroissement de la désinformation
En 2018, Facebook a annoncé une modification de l’algorithme de recommandation du fil d’actualité. Il choisit les contenus auxquels chaque utilisateur est confronté. Ces changement étaient présentés comme un moyen de limiter les interactions avec les contenus produits par des professionnels pour montrer davantage de publications de nos proches. Tout cela étant justifié par des motifs de protection de la santé mentale. Selon un mémo interne dévoilé par Frances Haugen, il s’agissait en fait d’une stratégie visant à répondre à une baisse d’utilisation de la plateforme.
Les conséquences ont été assez problématiques, puisque les chercheurs ont rapidement observé que l’effet était inverse. On a donc assisté à la mise en avant de publications particulièrement incendiaires :
La désinformation, la toxicité et les contenus violents sont anormalement prévalents dans les contenus repartagés. (…) Notre approche a eu des effets collatéraux malsains sur d’importantes parties des contenus, notamment en politique et en actualité. Notre responsabilité est grandissante. Beaucoup d’interlocuteurs nous ont dit qu’ils craignaient, sur le long terme, les effets négatifs que peut avoir cet algorithme sur la démocratie.
“Facebook has realized that if they change the algorithm to be safer, people will spend less time on the site, they’ll click on less ads, they’ll make less money,” says Facebook whistleblower Frances Haugen. https://t.co/wbxxfgorNE pic.twitter.com/zpQIwcdatr
— 60 Minutes (@60Minutes) October 3, 2021
Ébranlé par ces documents rédigés par ses propres employés, Facebook a rapidement répondu par l’intermédiaire d’un porte-parole : « Un changement de classement est-il la source des divisions du monde ? Non. La recherche montre que certaines divisions partisanes dans notre société ont augmenté depuis plusieurs décennies, bien avant que des plateformes comme Facebook n’existent. Elle montre également qu’un engagement significatif avec les amis et la famille sur notre plateforme est meilleur pour le bien-être des gens que l’alternative. »
Cette semaine, Mark Zuckerberg a avancé une autre explication pour nier en bloc ces accusations : « L’argument selon lequel nous mettons délibérément en avant du contenu qui rend les gens en colère, pour des profits, est complètement illogique. Nous faisons de l’argent avec les publicités, et les annonceurs nous disent sans arrêt qu’ils ne veulent pas leurs publicités au côté de contenus nuisibles ou véhéments. Et je ne connais aucune compagnie technologique qui se fixe de développer des produits rendant les gens en colère ou déprimés. »
Une modération à deux vitesses qui pose question
Dans sa série d’enquêtes, le Wall Street Journal est également revenu sur l’existence du programme de modération « XCheck » que le réseau social applique à ses utilisateurs VIP. Concrètement, pas moins de 5,8 millions de personnes y sont inclus à travers le monde et parmi eux, des célébrités en tout genre et certains responsables politiques.
Ce traitement différencié pose question car alors qu’une personne lambda peut voir ses contenus supprimés de manière automatique par les algorithmes de la plateforme, les publications des membres du programme font l’objet d’une procédure distincte. Cela demande donc plus de temps et une vérification humaine. Des bévues en ont résulté et l’exemple du footballeur Neymar qui a partagé des photos nues de la femme l’accusait de viol, avant de les supprimer, est cité.
D’autres cas sont évoqués et notamment des posts de désinformation mentionnant le fait que les vaccins tuent qui sont restés en ligne très longtemps alors qu’ils sont systématiquement supprimés lorsqu’ils sont le fait d’un autre internaute.
La réponse du réseau social est ici venue d’Andy Stone, un porte-parole de l’entreprise. Il explique :
Comme nous l’avons dit en 2018 : ” La “vérification croisée” signifie simplement que certains contenus provenant de certaines pages ou de certains profils font l’objet d’une deuxième couche d’examen pour s’assurer que nous avons appliqué nos politiques correctement. ” Il n’y a pas deux systèmes de justice, c’est une tentative de protection contre les erreurs.