Les cadres de Facebook mettent fin aux efforts pour rendre le site moins divisé

Cette présentation allait au cœur d’une question qui poursuit Facebook presque depuis sa fondation : Sa plateforme aggrave-t-elle la polarisation et les comportements tribaux ?

La réponse qu’elle a trouvée, dans certains cas, était oui.

Facebook avait donné le coup d’envoi d’un effort interne pour comprendre comment sa plateforme façonnait le comportement des utilisateurs et comment l’entreprise pourrait remédier aux préjudices potentiels. Le directeur général Mark Zuckerberg avait, en public et en privé, exprimé son inquiétude face au “sensationnalisme et à la polarisation”.

Publicité

Mais en fin de compte, l’intérêt de Facebook était éphémère. M. Zuckerberg et d’autres cadres supérieurs ont largement mis de côté la recherche fondamentale, selon des documents internes inédits et des personnes familières avec l’effort, et ont affaibli ou bloqué les efforts visant à appliquer ses conclusions aux produits Facebook.

Le chef de la politique de Facebook, Joel Kaplan, qui a joué un rôle central dans l’examen minutieux des changements proposés, a soutenu à l’époque que les efforts visant à rendre les conversations sur la plate-forme plus civiles étaient “paternalistes”, ont déclaré des personnes familières avec ses commentaires.

Mark Zuckerberg, PDG de Facebook, à droite, avec Joel Kaplan, chef des politiques de Facebook, en 2018.

Mark Zuckerberg, PDG de Facebook, à droite, avec Joel Kaplan, chef des politiques de Facebook, en 2018.

Photo : Christophe Morin/Bloomberg News

Une autre préoccupation, selon eux et d’autres, était que certains changements proposés auraient affecté de manière disproportionnée les utilisateurs et les éditeurs conservateurs, à un moment où l’entreprise faisait face à des accusations de partialité politique de la part de la droite.

Facebook a révélé peu de détails sur l’effort et a divulgué peu de choses sur ce qu’il est devenu. En 2020, les questions que l’effort a cherché à aborder sont encore plus aiguës, alors qu’une élection présidentielle chargée se profile et que Facebook a été un conduit pour les théories du complot et les joutes partisanes sur la pandémie de coronavirus.

Publicité

En substance, Facebook est sous le feu des critiques pour avoir rendu le monde plus divisé. Beaucoup de ses propres experts semblaient être d’accord – et croire que Facebook pouvait atténuer de nombreux problèmes. L’entreprise a choisi de ne pas le faire.

M. Kaplan, dans une interview récente, a déclaré que lui et d’autres cadres avaient approuvé certains changements destinés à améliorer les discussions civiques. Dans d’autres cas où des propositions ont été bloquées, a-t-il dit, il essayait “d’instiller une certaine discipline, une certaine rigueur et une certaine responsabilité dans le processus” alors qu’il vérifiait l’efficacité et les conséquences involontaires potentielles des changements apportés au fonctionnement de la plateforme.

En interne, le processus de vérification a gagné un surnom : “Mangez vos légumes.”

Les Américains s’éloignaient les uns des autres sur des questions sociétales fondamentales bien avant la création des médias sociaux, des décennies d’enquêtes du Pew Research Center l’ont montré. Mais 60 % des Américains pensent que les plus grandes entreprises technologiques du pays contribuent à diviser davantage le pays, tandis que seulement 11 % croient qu’elles l’unissent, selon un sondage Gallup-Knight réalisé en mars.

Publicité

Au sein de Facebook, ” il y a eu cette période d’introspection après 2016 qui m’a semblé être cette période de vraiment sincérité, “Oh mec, et si nous avions vraiment gâché le monde ?”. “, a déclaré Eli Pariser, codirecteur de Civic Signals, un projet qui vise à construire des espaces numériques plus sains, et qui a parlé aux responsables de Facebook de la polarisation.

M. Pariser a déclaré que cela a commencé à changer après mars 2018, lorsque Facebook s’est retrouvé dans l’eau chaude après avoir révélé que Cambridge Analytica, la startup d’analyse politique, a obtenu de manière inappropriée des données Facebook sur des dizaines de millions de personnes. Le changement a pris de l’ampleur depuis, a-t-il déclaré : “Le pendule interne a basculé très fort vers ‘les médias nous détestent quoi que nous fassions, alors fermons les écoutilles’. “

Signe de la distance parcourue par l’entreprise, M. Zuckerberg a déclaré en janvier qu’il se dresserait “contre ceux qui disent que les nouveaux types de communautés qui se forment sur les médias sociaux nous divisent.” Les personnes qui l’ont entendu parler en privé ont dit qu’il soutient que les médias sociaux ont peu de responsabilité dans la polarisation.

Il soutient que la plateforme est en fait un gardien de la liberté d’expression, même lorsque le contenu est répréhensible – une position qui a motivé la décision de Facebook de ne pas vérifier les faits dans les publicités politiques avant l’élection de 2020.

Publicité

‘Équipes d’intégrité’

Facebook a lancé ses recherches sur les contenus et les comportements qui divisent à un moment où il était aux prises avec la question de savoir si sa mission de “connecter le monde” était bonne pour la société.

Régler le problème de la polarisation serait difficile, exigeant que Facebook repense certains de ses produits de base. Plus particulièrement, le projet a forcé Facebook à réfléchir à la façon dont il donnait la priorité à “l’engagement des utilisateurs” – une métrique impliquant le temps passé, les “likes”, les partages et les commentaires qui, pendant des années, a été le pilier de son système.

Promu par Chris Cox, chef des produits de Facebook à l’époque et principal adjoint de M. Zuckerberg, le travail a été effectué pendant une grande partie de 2017 et 2018 par des ingénieurs et des chercheurs affectés à un groupe de travail interjuridictionnel baptisé “Common Ground” et des employés dans des “équipes d’intégrité” nouvellement créées et intégrées dans l’entreprise.

Des écrans montrant des messages sur les médias sociaux pendant une audience de la Commission du renseignement de la Chambre des représentants en 2017.

Des écrans montrant des messages sociaux-médiatiques lors d’une audience de la Commission du renseignement de la Chambre des représentants en 2017.

Photo : Andrew Harrer/Bloomberg News

Même avant la création des équipes en 2017, les chercheurs de Facebook avaient trouvé des signes de problèmes. Une présentation de 2016 qui nomme comme auteur une chercheuse et sociologue de Facebook, Monica Lee, a constaté que les contenus extrémistes prospéraient dans plus d’un tiers des grands groupes politiques allemands sur la plateforme. Submergés de contenus racistes, conspirationnistes et pro-russes, ces groupes étaient influencés de manière disproportionnée par un sous-ensemble d’utilisateurs hyperactifs, note la présentation. La plupart d’entre eux étaient privés ou secrets.

Le nombre élevé de groupes extrémistes était préoccupant, indique la présentation. Pire encore, Facebook s’est rendu compte que ses algorithmes étaient responsables de leur croissance. La présentation de 2016 indique que “64% de toutes les adhésions à des groupes extrémistes sont dues à nos outils de recommandation” et que la plupart de l’activité provenait des algorithmes “Groupes que vous devriez rejoindre” et “Découvrir” de la plateforme : “Nos systèmes de recommandation font croître le problème.”

Mme Lee, qui reste chez Facebook, n’a pas répondu aux demandes de renseignements. Facebook a refusé de répondre aux questions sur la façon dont il a abordé le problème dans la présentation, qui, selon d’autres employés, n’étaient pas propres à l’Allemagne ou au produit Groupes. Dans une présentation lors d’une conférence internationale sur la sécurité en février, M. Zuckerberg a déclaré que l’entreprise essaie de ne pas recommander les groupes qui enfreignent ses règles ou sont polarisants.

“Nous avons beaucoup appris depuis 2016 et ne sommes pas la même entreprise aujourd’hui”, a déclaré une porte-parole de Facebook. “Nous avons mis en place une équipe d’intégrité robuste, renforcé nos politiques et nos pratiques pour limiter les contenus préjudiciables, et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer.” En février, Facebook a annoncé un financement de 2 millions de dollars pour des propositions de recherche indépendantes sur la polarisation.

L’équipe Common Ground a cherché à s’attaquer directement au problème de la polarisation, ont déclaré des personnes familières avec l’équipe. Les scientifiques de données impliqués dans l’effort ont constaté que certains groupes d’intérêt – souvent des groupes basés sur des passe-temps sans alignement idéologique explicite – ont rassemblé des personnes de différents horizons de manière constructive. D’autres groupes semblaient incuber des pulsions de lutte, de diffusion de faussetés ou de diabolisation d’une population d’étrangers.

Partagez vos pensées

Que devraient faire Facebook et les autres géants des médias sociaux, le cas échéant, pour réduire la polarisation parmi leurs utilisateurs ? Participez à la conversation ci-dessous.

Dans le respect de l’engagement de neutralité de Facebook, les équipes ont décidé que Facebook ne devait pas policer les opinions des gens, arrêter les conflits sur la plateforme ou empêcher les gens de former des communautés. La vilification de ses adversaires était le problème, selon un document interne de l’équipe.

“Nous n’allons explicitement pas construire des produits qui tentent de changer les croyances des gens”, indique un document de 2018. “Nous nous concentrons sur les produits qui augmentent l’empathie, la compréhension et l’humanisation de ‘l’autre côté’. “

Les questions brûlantes

Une proposition visait à sauver les conversations dans les groupes déraillés par des questions brûlantes, selon les personnes familières avec l’équipe et les documents internes. Si deux membres d’un groupe Facebook consacré à la parentalité se disputaient au sujet des vaccinations, les modérateurs pouvaient créer un sous-groupe temporaire pour accueillir la dispute ou limiter la fréquence des publications sur le sujet afin d’éviter une guerre de mots publique.

Une autre idée, selon les documents, était de peaufiner les algorithmes de recommandation pour suggérer un plus large éventail de groupes Facebook que ceux que les gens rencontrent habituellement.

La construction de ces fonctionnalités et la lutte contre la polarisation pourraient se faire au prix d’un engagement plus faible, a averti l’équipe de Common Ground dans un document de mi-2018, décrivant certaines de ses propres propositions comme “anti-croissance” et exigeant que Facebook “prenne une position morale.”

Prendre des mesures exigerait que Facebook forme des partenariats avec des universitaires et des organisations à but non lucratif pour donner de la crédibilité aux changements affectant la conversation publique, dit le document. Cela devenait difficile alors que l’entreprise se débattait dans des controverses après l’élection présidentielle de 2016.

“Les gens ne nous font pas confiance”, disait une présentation créée à l’été 2018.

Chris Cox, précédemment chef des produits de Facebook, en 2018.

Chris Cox, précédemment chef des produits de Facebook, en 2018.

Photo : stephen lam/Reuters

Les ingénieurs et les scientifiques des données des équipes d’intégrité de Facebook – au premier rang desquels les scientifiques qui ont travaillé sur le newsfeed, le flux de publications et de photos qui accueille les utilisateurs lorsqu’ils visitent Facebook – sont arrivés au problème de la polarisation de manière indirecte, selon des personnes familières avec les équipes. Chargés de lutter contre les fausses nouvelles, le spam, le clickbait et les utilisateurs inauthentiques, les employés ont cherché des moyens de diminuer la portée de ces maux. Une première découverte : Les mauvais comportements provenaient de manière disproportionnée d’un petit pool d’utilisateurs hyperpartisans.

Une deuxième découverte aux États-Unis a vu une plus grande infrastructure de comptes et d’éditeurs à l’extrême droite qu’à l’extrême gauche. Des observateurs extérieurs documentaient le même phénomène. L’écart signifiait que même des actions apparemment apolitiques, telles que la réduction de la diffusion des titres clickbait – du type “Vous ne croirez pas ce qui s’est passé ensuite” – affectaient davantage le discours conservateur que le contenu libéral dans son ensemble.

Ceci a été difficile à vendre à M. Kaplan, ont dit les personnes qui l’ont entendu discuter des propositions de Common Ground et Integrity. Un ancien chef de cabinet adjoint de George W. Bush, M. Kaplan est devenu plus impliqué dans les décisions de classement du contenu après les allégations de 2016 selon lesquelles Facebook avait supprimé les articles d’actualité tendance des médias conservateurs. Un examen interne n’a pas corroboré les allégations de partialité, a déclaré au Congrès Colin Stretch, alors conseiller général de Facebook, mais les dommages à la réputation de Facebook parmi les conservateurs avaient été faits.

M. Zuckerberg au Capitole pour des audiences du Congrès en 2018.

M. Zuckerberg au Capitole pour des audiences du Congrès en 2018.

Photo : Erin Scott/Zuma Press

Chaque nouvelle initiative importante en matière de classement d’intégrité devait obtenir l’approbation des responsables de l’ingénierie, mais aussi des représentants des départements de politique publique, juridique, marketing et relations publiques.

Lindsey Shepard, une ancienne directrice du marketing produit de Facebook qui a aidé à mettre en place le processus Eat Your Veggies, a déclaré qu’il était né de ce qu’elle croyait être des préoccupations raisonnables que des ingénieurs trop zélés pourraient laisser leur politique influencer la plate-forme.

“Les ingénieurs qui étaient habitués à avoir de l’autonomie ont peut-être un peu trop tourné” après l’élection de 2016 pour répondre aux défauts perçus de Facebook, a-t-elle dit. Les réunions ont permis de garder cela sous contrôle. “À la fin de la journée, si nous ne parvenions pas à un consensus, nous encadrions les différents points de vue, puis ils étaient soulevés auprès de Mark.”

Des projets sabordés

Une désapprobation de l’équipe de M. Kaplan ou du service de communication de Facebook pouvait saborder un projet, ont déclaré des personnes familières avec l’effort. Des critiques négatives de l’équipe politique ont tué les efforts visant à construire un système de classification pour le contenu hyperpolarisé. De même, le processus Eat Your Veggies a mis fin aux efforts visant à supprimer le clickbait sur la politique plus que sur d’autres sujets.

Les initiatives qui ont survécu étaient souvent affaiblies. M. Cox a courtisé Carlos Gomez Uribe, ancien responsable du système de recommandation de Netflix Inc, pour diriger l’équipe d’intégrité du fil d’actualité en janvier 2017. En quelques mois, M. Uribe a commencé à faire pression pour réduire l’impact démesuré des utilisateurs hyperactifs.

Selon les mesures basées sur l’engagement de Facebook, un utilisateur qui aime, partage ou commente 1 500 contenus a plus d’influence sur la plateforme et ses algorithmes que celui qui interagit avec seulement 15 publications, ce qui permet aux “super-partageurs” de noyer les utilisateurs moins actifs. Les comptes ayant un engagement hyperactif étaient en moyenne beaucoup plus partisans que les utilisateurs normaux de Facebook, et ils étaient plus susceptibles d’avoir un comportement suspect, apparaissant parfois sur la plateforme jusqu’à 20 heures par jour et adoptant un comportement de type spam. Ce comportement suggérait que certains d’entre eux étaient soit des personnes travaillant en équipe, soit des bots.

Une proposition défendue par l’équipe de M. Uribe, appelée “Sparing Sharing”, aurait réduit la diffusion de contenus favorisés de manière disproportionnée par les utilisateurs hyperactifs, selon les personnes qui en ont connaissance. Ses effets seraient plus marqués sur les contenus favorisés par les utilisateurs d’extrême droite et d’extrême gauche. Les utilisateurs du milieu du spectre gagneraient en influence.

Sheryl Sandberg, directrice de l'exploitation de Facebook, lors d'une audience de la commission du renseignement du Sénat, 2018.

Sheryl Sandberg, directrice de l’exploitation de Facebook, lors d’une audience de la commission du renseignement du Sénat, 2018.

Photo : jim lo scalzo/EPA/

M. Uribe l’appelait “le visage heureux”, ont dit certaines personnes. Les data scientists de Facebook pensaient que cela pourrait renforcer les défenses de la plateforme contre le spam et les efforts de manipulation coordonnée du type de ceux entrepris par la Russie pendant l’élection de 2016.

M. Kaplan et d’autres cadres supérieurs de Facebook ont repoussé cette idée au motif qu’elle pourrait nuire à une hypothétique troupe de scouts, ont déclaré des personnes familières avec ses commentaires. Supposons, leur a demandé M. Kaplan, que les filles deviennent des super-partenaires de Facebook pour promouvoir des biscuits ? Réduire la portée des utilisateurs les plus dévoués de la plateforme les contrecarrerait injustement, a-t-il dit.

M. Kaplan, dans la récente interview, a dit qu’il ne se souvenait pas d’avoir soulevé l’exemple des Girl Scouts, mais qu’il s’inquiétait de l’effet sur les éditeurs qui se trouvaient avoir des followings enthousiastes.

Le débat est remonté jusqu’à M. Zuckerberg, qui a entendu les deux parties lors d’une brève réunion, ont dit des personnes briefées à ce sujet. Sa réponse : Faites-le, mais réduisez la pondération de 80 %. M. Zuckerberg a également signalé qu’il se désintéressait de l’effort de recalibrage de la plateforme au nom du bien social, ont-ils dit, demandant qu’on ne lui apporte plus quelque chose de ce genre.

M. Uribe a quitté Facebook et l’industrie technologique dans l’année. Il a refusé de discuter en détail de son travail chez Facebook, mais a confirmé son plaidoyer en faveur de la proposition Sparing Sharing. Il a déclaré avoir quitté Facebook en raison de sa frustration à l’égard des cadres de l’entreprise et de leur focalisation étroite sur la façon dont les changements d’intégrité affecteraient la politique américaine. Alors que des propositions comme la sienne affectaient de manière disproportionnée les conservateurs aux États-Unis, il a dit, dans d’autres pays, c’était le contraire.

Des archives

Dans un discours à l’Université de Georgetown, Mark Zuckerberg a discuté de la façon dont Facebook a renforcé les contrôles sur les personnes qui peuvent diffuser des publicités politiques tout en préservant son engagement envers la liberté d’expression. VIDÉO : FACEBOOK / PHOTO : NICK WASS/ASSOCIATED PRESS (Publié initialement le 17 octobre 2019) The Wall Street Journal Interactive Edition

D’autres projets ont connu le sort de Sparing Sharing : affaiblis, mais pas tués. Les victoires partielles comprenaient des efforts pour promouvoir les articles d’actualité recueillant l’engagement d’une large base d’utilisateurs, et pas seulement des partisans, et des pénalités pour les éditeurs qui partageaient à plusieurs reprises de fausses nouvelles ou dirigeaient les utilisateurs vers des pages provoquées par la publicité.

Le bras de fer a été résolu en partie par la furie croissante du scandale Cambridge Analytica. Lors d’une réorganisation de l’équipe newsfeed de Facebook en septembre 2018, les responsables ont dit aux employés que les priorités de l’entreprise passaient “du bien sociétal à la valeur individuelle”, ont déclaré des personnes présentes lors de la discussion. Si les utilisateurs voulaient voir ou publier régulièrement du contenu hostile sur des groupes qu’ils n’aimaient pas, Facebook ne le supprimerait pas si le contenu ne violait pas spécifiquement les règles de l’entreprise.

Siège social de Facebook à Menlo Park, en Californie, ce mois-ci.

Le siège social de Facebook à Menlo Park, en Californie, ce mois-ci.

Photo : john g. mabanglo/EPA/

M. Cox a quitté l’entreprise quelques mois plus tard après des désaccords concernant le pivot de Facebook vers la messagerie privée cryptée. Il n’avait pas gagné la plupart des combats dans lesquels il s’était engagé sur le classement d’intégrité et les changements de produits Common Ground, ont dit les personnes impliquées dans l’effort, et son départ a laissé les autres membres du personnel travaillant sur ces projets sans un défenseur de haut niveau.

L’équipe Common Ground s’est dissoute. Les équipes d’intégrité existent toujours, bien que de nombreux cadres supérieurs aient quitté l’entreprise ou se soient dirigés vers la plateforme Instagram de Facebook.

M. Zuckerberg a annoncé en 2019 que Facebook retirerait le contenu violant des normes spécifiques mais, dans la mesure du possible, adopterait une approche non interventionniste pour policer le matériel ne violant pas clairement ses normes.

“Vous ne pouvez pas imposer la tolérance de haut en bas”, a-t-il déclaré dans un discours prononcé en octobre à l’université de Georgetown. “Elle doit venir des gens qui s’ouvrent, partagent leurs expériences et développent une histoire commune pour la société dont nous avons tous le sentiment de faire partie. C’est ainsi que nous progressons ensemble.”

Écrire à Jeff Horwitz à l’adresse [email protected] et à Deepa Seetharaman à l’adresse [email protected]

.

Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *