Ejecutivos de Facebook clausuran esfuerzos para hacer el sitio menos divisivo

Esa presentación llegó al corazón de una pregunta que persigue a Facebook casi desde su fundación: ¿Su plataforma agrava la polarización y el comportamiento tribal?

La respuesta que encontró, en algunos casos, fue que sí.

Facebook había puesto en marcha un esfuerzo interno para entender cómo su plataforma daba forma al comportamiento de los usuarios y cómo la compañía podría abordar los daños potenciales. El presidente ejecutivo, Mark Zuckerberg, había expresado en público y en privado su preocupación por el “sensacionalismo y la polarización”

Publicidad
Pero al final, el interés de Facebook fue fugaz. El Sr. Zuckerberg y otros altos ejecutivos archivaron en gran medida la investigación básica, según documentos internos no informados anteriormente y personas familiarizadas con el esfuerzo, y debilitaron o bloquearon los esfuerzos para aplicar sus conclusiones a los productos de Facebook.

El jefe de política de Facebook, Joel Kaplan, que desempeñó un papel central en el examen de los cambios propuestos, argumentó en ese momento que los esfuerzos para hacer que las conversaciones en la plataforma fueran más civiles eran “paternalistas”, dijeron personas familiarizadas con sus comentarios.

El consejero delegado de Facebook, Mark Zuckerberg, a la derecha, con el jefe de políticas de Facebook, Joel Kaplan, en 2018.

El consejero delegado de Facebook, Mark Zuckerberg, a la derecha, con el jefe de políticas de Facebook, Joel Kaplan, en 2018.

Foto: Christophe Morin/Bloomberg News

Otra preocupación, dijeron ellos y otros, fue que algunos cambios propuestos habrían afectado desproporcionadamente a los usuarios y editores conservadores, en un momento en que la compañía enfrentó acusaciones de la derecha de sesgo político.

Facebook reveló pocos detalles sobre el esfuerzo y ha divulgado poco sobre lo que se convirtió. En 2020, las cuestiones que el esfuerzo intentó abordar son aún más agudas, ya que se avecinan unas elecciones presidenciales cargadas y Facebook ha sido un conducto para las teorías de la conspiración y el enfrentamiento partidista sobre la pandemia del coronavirus.

Publicidad

En esencia, Facebook está bajo fuego por hacer que el mundo esté más dividido. Muchos de sus propios expertos parecían estar de acuerdo y creer que Facebook podía mitigar muchos de los problemas. La compañía decidió no hacerlo.

El Sr. Kaplan, en una entrevista reciente, dijo que él y otros ejecutivos habían aprobado ciertos cambios destinados a mejorar el debate cívico. En otros casos en los que se bloquearon las propuestas, dijo, estaba tratando de “inculcar cierta disciplina, rigor y responsabilidad en el proceso” mientras examinaba la eficacia y las posibles consecuencias no deseadas de los cambios en el funcionamiento de la plataforma.

En el ámbito interno, el proceso de investigación se ganó un apodo: “Cómete las verduras”.

Los estadounidenses se estaban distanciando en cuestiones sociales fundamentales mucho antes de la creación de las redes sociales, según han demostrado décadas de encuestas del Pew Research Center. Pero el 60% de los estadounidenses cree que las mayores empresas tecnológicas del país están contribuyendo a dividirlo aún más, mientras que solo el 11% cree que lo están uniendo, según una encuesta de Gallup-Knight realizada en marzo.

Publicidad
En Facebook, “hubo este período de examen de conciencia después de 2016 que me pareció este período de realmente sincero, ‘Oh hombre, ¿y si realmente estropeamos el mundo? “, dijo Eli Pariser, codirector de Civic Signals, un proyecto que tiene como objetivo construir espacios digitales más saludables, y que ha hablado con funcionarios de Facebook sobre la polarización.

El Sr. Pariser dijo que eso comenzó a cambiar después de marzo de 2018, cuando Facebook se metió en agua caliente después de revelar que Cambridge Analytica, la startup de análisis político, obtuvo indebidamente datos de Facebook sobre decenas de millones de personas. El cambio ha ganado impulso desde entonces, dijo: “El péndulo interno osciló con mucha fuerza hacia ‘los medios nos odian hagamos lo que hagamos, así que vamos a cerrar las escotillas’. “

En una señal de lo lejos que se ha movido la empresa, el Sr. Zuckerberg dijo en enero que se levantaría “contra los que dicen que los nuevos tipos de comunidades que se forman en los medios sociales nos están dividiendo.” Las personas que lo han escuchado hablar en privado dijeron que argumenta que los medios sociales tienen poca responsabilidad en la polarización.

Afirma que la plataforma es, de hecho, un guardián de la libertad de expresión, incluso cuando el contenido es objetable, una posición que impulsó la decisión de Facebook de no verificar los hechos de la publicidad política antes de las elecciones de 2020.

Publicidad
Equipos de integridad’

Facebook lanzó su investigación sobre el contenido y el comportamiento divisivo en un momento en el que estaba lidiando con si su misión de “conectar el mundo” era buena para la sociedad.

Arreglar el problema de la polarización sería difícil, requiriendo que Facebook replanteara algunos de sus productos principales. En particular, el proyecto obligó a Facebook a considerar cómo priorizaba el “compromiso del usuario”, una métrica que incluye el tiempo de permanencia, los “me gusta”, los “compartidos” y los “comentarios”, que durante años había sido el pilar de su sistema.

Promovido por Chris Cox, director de producto de Facebook en ese momento y uno de los principales adjuntos de Mr. Zuckerberg, el trabajo fue llevado a cabo durante gran parte de 2017 y 2018 por ingenieros e investigadores asignados a un grupo de trabajo interjurisdiccional apodado “Common Ground” y por empleados de los recién creados “Equipos de Integridad” integrados en la empresa.

Pantalla que muestra las publicaciones en redes sociales durante una audiencia del Comité de Inteligencia de la Cámara de Representantes en 2017.

Pantallas que muestran publicaciones en las redes sociales durante una audiencia del Comité de Inteligencia de la Cámara de Representantes en 2017.

Foto: Andrew Harrer/Bloomberg News

Incluso antes de la creación de los equipos en 2017, los investigadores de Facebook habían encontrado indicios de problemas. Una presentación de 2016 que nombra como autora a una investigadora y socióloga de Facebook, Monica Lee, encontró que el contenido extremista prosperaba en más de un tercio de los grandes grupos políticos alemanes en la plataforma. Inundados de contenidos racistas, conspirativos y prorrusos, los grupos estaban desproporcionadamente influenciados por un subconjunto de usuarios hiperactivos, señala la presentación. La mayoría de ellos eran privados o secretos.

El elevado número de grupos extremistas era preocupante, según la presentación. Peor fue la constatación de Facebook de que sus algoritmos eran los responsables de su crecimiento. La presentación de 2016 afirma que “el 64% de todas las uniones a grupos extremistas se deben a nuestras herramientas de recomendación” y que la mayor parte de la actividad procedía de los algoritmos “Grupos a los que deberías unirte” y “Descubre” de la plataforma: “Nuestros sistemas de recomendación hacen crecer el problema”

La señora Lee, que sigue en Facebook, no respondió a las preguntas. Facebook se negó a responder a preguntas sobre cómo abordó el problema en la presentación, que otros empleados dijeron que no eran exclusivos de Alemania o del producto Grupos. En una presentación en una conferencia internacional de seguridad en febrero, el Sr. Zuckerberg dijo que la compañía trata de no recomendar grupos que rompen sus reglas o son polarizantes.

“Hemos aprendido mucho desde 2016 y no somos la misma compañía hoy”, dijo una portavoz de Facebook. “Hemos creado un sólido equipo de integridad, hemos reforzado nuestras políticas y prácticas para limitar el contenido dañino y hemos utilizado la investigación para entender el impacto de nuestra plataforma en la sociedad para seguir mejorando.” Facebook anunció en febrero una financiación de 2 millones de dólares para propuestas de investigación independientes sobre la polarización.

El equipo de Common Ground trató de abordar el problema de la polarización directamente, dijeron personas familiarizadas con el equipo. Los científicos de datos que participaron en el esfuerzo descubrieron que algunos grupos de interés -a menudo grupos basados en aficiones sin una alineación ideológica explícita- reunían a personas de diferentes orígenes de forma constructiva. Otros grupos parecían incubar impulsos de lucha, difusión de falsedades o demonización de una población ajena.

Comparte tus pensamientos

¿Qué deberían hacer Facebook y otros gigantes de las redes sociales, si es que hacen algo, para reducir la polarización entre sus usuarios? Únete a la conversación a continuación.

En consonancia con el compromiso de Facebook con la neutralidad, los equipos decidieron que Facebook no debería vigilar las opiniones de la gente, detener los conflictos en la plataforma o impedir que la gente forme comunidades. El vilipendio de los oponentes era el problema, según un documento interno del equipo.

“Explícitamente no vamos a construir productos que intenten cambiar las creencias de la gente”, dice un documento de 2018. “Estamos centrados en productos que aumenten la empatía, la comprensión y la humanización del ‘otro lado’. “

Cuestiones candentes

Una de las propuestas buscaba salvar las conversaciones en grupos descarrilados por cuestiones candentes, según las personas familiarizadas con el equipo y los documentos internos. Si dos miembros de un grupo de Facebook dedicado a la crianza de los hijos se pelean sobre las vacunas, los moderadores podrían establecer un subgrupo temporal para albergar la discusión o limitar la frecuencia de las publicaciones sobre el tema para evitar una guerra de llamas pública.

Otra idea, según los documentos, era ajustar los algoritmos de recomendación para sugerir una gama más amplia de grupos de Facebook que la gente encontraría normalmente.

Construir estas características y combatir la polarización podría tener un costo de menor compromiso, advirtió el equipo de Common Ground en un documento de mediados de 2018, describiendo algunas de sus propias propuestas como “anti-crecimiento” y requiriendo que Facebook “tome una postura moral”.

Tomar medidas requeriría que Facebook formara asociaciones con académicos y organizaciones sin fines de lucro para dar credibilidad a los cambios que afectan la conversación pública, dice el documento. Esto se estaba volviendo difícil a medida que la compañía se hundía en las controversias después de las elecciones presidenciales de 2016.

“La gente no confía en nosotros”, decía una presentación creada en el verano de 2018.

Chris Cox, anteriormente jefe de producto de Facebook, en 2018.

Chris Cox, anteriormente jefe de producto de Facebook, en 2018.

Foto: stephen lam/Reuters

Los ingenieros y científicos de datos de los equipos de integridad de Facebook -el principal de ellos, los científicos que trabajaron en newsfeed, el flujo de publicaciones y fotos que recibe a los usuarios cuando visitan Facebook- llegaron al problema de la polarización de forma indirecta, según personas familiarizadas con los equipos. Los empleados, a los que se les pidió que combatieran las noticias falsas, el spam, el clickbait y los usuarios no auténticos, buscaron formas de reducir el alcance de estos males. Uno de los primeros descubrimientos: El mal comportamiento procedía de forma desproporcionada de un pequeño grupo de usuarios hiperpartidistas.

Un segundo hallazgo en Estados Unidos fue la existencia de una mayor infraestructura de cuentas y editores de extrema derecha que de extrema izquierda. Observadores externos documentaron el mismo fenómeno. La brecha significaba que incluso las acciones aparentemente apolíticas, como la reducción de la difusión de los titulares clickbait -en la línea de “No creerás lo que pasó a continuación”-, afectaban más al discurso conservador que al contenido liberal en conjunto.

Eso fue una venta difícil para el Sr. Kaplan, dijeron las personas que lo escucharon hablar de las propuestas de Common Ground e Integrity. El Sr. Kaplan, que fue jefe de gabinete adjunto de George W. Bush, se involucró más en las decisiones de clasificación de contenidos después de que en 2016 se denunciara que Facebook había suprimido las noticias de tendencia de los medios conservadores. Una revisión interna no corroboró las acusaciones de parcialidad, dijo el entonces consejero general de Facebook, Colin Stretch, al Congreso, pero el daño a la reputación de Facebook entre los conservadores ya estaba hecho.

El señor Zuckerberg en el Capitolio para las audiencias del Congreso en 2018.

El señor Zuckerberg en el Capitolio para las audiencias del Congreso en 2018.

Foto: Erin Scott/Zuma Press

Cada nueva iniciativa significativa de rango de integridad tenía que buscar la aprobación no solo de los directores de ingeniería, sino también de los representantes de los departamentos de política pública, legal, marketing y relaciones públicas.

Lindsey Shepard, exdirectora de marketing de productos de Facebook que ayudó a establecer el proceso de “Cómete las verduras”, dijo que surgió de lo que ella creía que eran preocupaciones razonables de que los ingenieros demasiado entusiastas pudieran dejar que su política influyera en la plataforma.

“Los ingenieros que estaban acostumbrados a tener autonomía tal vez se excedieron un poco” después de las elecciones de 2016 para abordar los defectos percibidos de Facebook, dijo. Las reuniones ayudaron a mantener eso bajo control. “Al final del día, si no llegábamos a un consenso, enmarcábamos los diferentes puntos de vista y luego se los planteábamos a Mark”.

Proyectos truncados

La desaprobación del equipo del Sr. Kaplan o del departamento de comunicaciones de Facebook podía truncar un proyecto, dijeron personas familiarizadas con el esfuerzo. Las revisiones negativas del equipo de políticas acabaron con los esfuerzos para crear un sistema de clasificación de contenidos hiperpolarizados. Del mismo modo, el proceso de “Cómete las verduras” frenó los esfuerzos para suprimir el clickbait sobre política más que sobre otros temas.

Las iniciativas que sobrevivieron a menudo se debilitaron. El Sr. Cox cortejó a Carlos Gómez Uribe, ex jefe del sistema de recomendación de Netflix Inc., para que dirigiera el Equipo de Integridad de las noticias en enero de 2017. En pocos meses, el Sr. Uribe comenzó a presionar para reducir el enorme impacto que tenían los usuarios hiperactivos.

De acuerdo con las métricas basadas en el compromiso de Facebook, un usuario que le gusta, comparte o comenta 1.500 piezas de contenido tiene más influencia en la plataforma y sus algoritmos que uno que interactúa con sólo 15 publicaciones, lo que permite que los “supercompartidores” ahoguen a los usuarios menos activos. Las cuentas con una participación hiperactiva eran mucho más partidistas de media que los usuarios normales de Facebook, y eran más propensas a comportarse de forma sospechosa, apareciendo a veces hasta 20 horas al día en la plataforma e incurriendo en comportamientos similares al spam. El comportamiento sugería que algunos eran personas que trabajaban por turnos o bots.

Una propuesta que el equipo del Sr. Uribe defendió, llamada “Sparing Sharing”, habría reducido la difusión de contenidos desproporcionadamente favorecidos por los usuarios hiperactivos, según personas familiarizadas con ella. Sus efectos serían mayores en los contenidos favorecidos por los usuarios de extrema derecha e izquierda. Los usuarios de medio camino ganarían influencia.

La directora de operaciones de Facebook, Sheryl Sandberg, en una audiencia del Comité de Inteligencia del Senado, 2018.

La directora de operaciones de Facebook, Sheryl Sandberg, en una audiencia del Comité de Inteligencia del Senado, 2018.

Foto: jim lo scalzo/EPA/

El Sr. Uribe lo llamó “la cara feliz”, dijeron algunas personas. Los científicos de datos de Facebook creían que podría reforzar las defensas de la plataforma contra el spam y los esfuerzos de manipulación coordinados del tipo que Rusia emprendió durante las elecciones de 2016.

El Sr. Kaplan y otros altos ejecutivos de Facebook se opusieron alegando que podría perjudicar a una hipotética tropa de Girl Scouts, dijeron personas familiarizadas con sus comentarios. Supongamos, les preguntó el Sr. Kaplan, que las niñas se convirtieran en supercompartidoras de Facebook para promocionar galletas. Mitigar el alcance de los usuarios más dedicados de la plataforma los frustraría injustamente, dijo.

El Sr. Kaplan en la reciente entrevista dijo que no recordaba haber planteado el ejemplo de las Girl Scouts, pero que le preocupaba el efecto sobre los editores que resultaban tener seguidores entusiastas.

El debate llegó hasta el Sr. Zuckerberg, que escuchó a ambas partes en una breve reunión, dijeron personas informadas al respecto. Su respuesta: Hazlo, pero reduce la ponderación en un 80%. El Sr. Zuckerberg también señaló que estaba perdiendo el interés en el esfuerzo de recalibrar la plataforma en nombre del bien social, dijeron, pidiendo que no le trajeran algo así de nuevo.

El Sr. Uribe dejó Facebook y la industria de la tecnología dentro del año. No quiso hablar en detalle de su trabajo en Facebook, pero confirmó su defensa de la propuesta Sparing Sharing. Dijo que dejó Facebook debido a su frustración con los ejecutivos de la compañía y su estrecho enfoque en cómo los cambios de integridad afectarían a la política estadounidense. Mientras que propuestas como la suya afectaban desproporcionadamente a los conservadores en EE.UU., dijo, en otros países ocurría lo contrario.

De los archivos

En un discurso en la Universidad de Georgetown, Mark Zuckerberg habló de las formas en que Facebook ha reforzado los controles sobre quién puede publicar anuncios políticos, al tiempo que ha preservado su compromiso con la libertad de expresión. VÍDEO: FACEBOOK / FOTO: NICK WASS/ASSOCIATED PRESS (Publicado originalmente el 17 de octubre de 2019) The Wall Street Journal Edición Interactiva

Otros proyectos corrieron la misma suerte de Sparing Sharing: debilitados, no muertos. Las victorias parciales incluyeron los esfuerzos para promover las historias de noticias que obtuvieran el compromiso de una amplia base de usuarios, no solo de los partidarios, y las sanciones para los editores que compartieran repetidamente noticias falsas o dirigieran a los usuarios a las páginas con publicidad.

El tira y afloja se resolvió en parte por el creciente furor sobre el escándalo de Cambridge Analytica. En una reorganización de septiembre de 2018 del equipo de newsfeed de Facebook, los directivos dijeron a los empleados que las prioridades de la compañía se estaban alejando “del bien social hacia el valor individual”, dijeron personas presentes en la discusión. Si los usuarios querían ver o publicar rutinariamente contenido hostil sobre grupos que no les gustaban, Facebook no lo suprimiría si el contenido no violaba específicamente las reglas de la compañía.

La sede de Facebook en Menlo Park, California, este mes.

La sede de Facebook en Menlo Park, California, este mes.

Foto: john g. mabanglo/EPA/

El Sr. Cox dejó la compañía varios meses después tras los desacuerdos sobre el giro de Facebook hacia la mensajería privada encriptada. No había ganado la mayoría de las peleas en las que se había involucrado en la clasificación de integridad y en los cambios de producto de Common Ground, dijeron personas involucradas en el esfuerzo, y su salida dejó a los restantes empleados que trabajaban en esos proyectos sin un defensor de alto nivel.

El equipo de Common Ground se disolvió. Los equipos de integridad siguen existiendo, aunque muchos miembros del personal de alto nivel dejaron la empresa o se dirigieron a la plataforma Instagram de Facebook.

El Sr. Zuckerberg anunció en 2019 que Facebook retiraría el contenido que violara normas específicas, pero que, en la medida de lo posible, adoptaría un enfoque de no intervención para vigilar el material que no violara claramente sus normas.

“No se puede imponer la tolerancia de arriba abajo”, dijo en un discurso en octubre en la Universidad de Georgetown. “Tiene que venir de la gente que se abre, que comparte experiencias y que desarrolla una historia compartida para la sociedad de la que todos nos sentimos parte. Así es como progresamos juntos”

Escribe a Jeff Horwitz en [email protected] y a Deepa Seetharaman en [email protected]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *