Facebook Executives Shut Down Efforts to Make the Site Less Divisive

Diese Präsentation ging einer Frage auf den Grund, die Facebook fast seit seiner Gründung verfolgt: Verschlimmert seine Plattform Polarisierung und Stammesverhalten?

Die Antwort, die sie fand, war in einigen Fällen ja.

Facebook hatte eine interne Anstrengung gestartet, um zu verstehen, wie seine Plattform das Nutzerverhalten prägt und wie das Unternehmen mögliche Schäden angehen könnte. Chief Executive Mark Zuckerberg hatte öffentlich und privat seine Besorgnis über “Sensationslust und Polarisierung” geäußert.

Werbung

Aber am Ende war das Interesse von Facebook flüchtig. Zuckerberg und andere leitende Angestellte legten die Grundlagenforschung weitgehend auf Eis, wie aus bisher unveröffentlichten internen Dokumenten und von Personen, die mit den Bemühungen vertraut sind, hervorgeht, und schwächten oder blockierten Bemühungen, die Schlussfolgerungen auf Facebook-Produkte anzuwenden.

Facebook-Politikchef Joel Kaplan, der eine zentrale Rolle bei der Prüfung der vorgeschlagenen Änderungen spielte, argumentierte damals, dass Bemühungen, Konversationen auf der Plattform ziviler zu gestalten, “paternalistisch” seien, so Personen, die mit seinen Kommentaren vertraut sind.

Facebook-CEO Mark Zuckerberg, rechts, mit Facebook-Politikchef Joel Kaplan im Jahr 2018.

Facebook-CEO Mark Zuckerberg, rechts, mit Facebook-Politikchef Joel Kaplan im Jahr 2018.

Foto: Christophe Morin/Bloomberg News

Eine weitere Sorge, die sie und andere äußerten, war, dass einige der vorgeschlagenen Änderungen konservative Nutzer und Verleger unverhältnismäßig stark betroffen hätten, und das zu einer Zeit, in der das Unternehmen mit Vorwürfen der politischen Voreingenommenheit von rechts konfrontiert war.

Facebook gab nur wenige Details über die Bemühungen preis und hat wenig darüber verraten, was daraus wurde. Im Jahr 2020 sind die Fragen, die die Bemühungen anzusprechen versuchten, noch akuter, da eine aufgeladene Präsidentschaftswahl bevorsteht und Facebook ein Kanal für Verschwörungstheorien und parteipolitisches Sparring über die Coronavirus-Pandemie war.

Werbung

Im Wesentlichen steht Facebook unter Beschuss, weil es die Welt noch mehr gespalten hat. Viele seiner eigenen Experten schienen dem zuzustimmen – und zu glauben, dass Facebook viele der Probleme entschärfen könnte. Das Unternehmen entschied sich dagegen.

Mr. Kaplan sagte kürzlich in einem Interview, dass er und andere Führungskräfte bestimmten Änderungen zugestimmt hätten, die die zivile Diskussion verbessern sollten. In anderen Fällen, in denen Vorschläge blockiert wurden, sagte er, er habe versucht, “eine gewisse Disziplin, Strenge und Verantwortung in den Prozess einzuführen”, während er die Effektivität und mögliche unbeabsichtigte Folgen von Änderungen an der Funktionsweise der Plattform überprüfte.

Intern verdiente sich der Überprüfungsprozess einen Spitznamen: “Eat Your Veggies.”

Die Amerikaner drifteten in grundlegenden gesellschaftlichen Fragen schon lange vor der Entstehung der sozialen Medien auseinander, wie jahrzehntelange Umfragen des Pew Research Center zeigen. Aber 60 % der Amerikaner glauben, dass die größten Tech-Unternehmen des Landes dazu beitragen, das Land weiter zu spalten, während nur 11 % glauben, dass sie es vereinen, so eine Gallup-Knight-Umfrage vom März.

Werbung

Bei Facebook “gab es diese Zeit der Gewissensprüfung nach 2016, die mir wie eine Periode des wirklich aufrichtigen ‘Oh Mann, was, wenn wir wirklich die Welt versaut haben?’ erschien. “, sagte Eli Pariser, Co-Direktor von Civic Signals, einem Projekt, das darauf abzielt, gesündere digitale Räume zu schaffen, und der mit Facebook-Offiziellen über Polarisierung gesprochen hat.

Mr. Pariser sagte, dass sich das nach März 2018 zu ändern begann, als Facebook in heißes Wasser geriet, nachdem bekannt wurde, dass Cambridge Analytica, das politische Analyse-Startup, unrechtmäßig Facebook-Daten über Dutzende von Millionen von Menschen erhalten hat. Seitdem hat die Veränderung an Dynamik gewonnen, sagte er: “Das interne Pendel schwang sehr stark nach dem Motto ‘Die Medien hassen uns, egal was wir tun, also lasst uns einfach die Klappe halten.’ “

Als Zeichen dafür, wie weit sich das Unternehmen bewegt hat, sagte Zuckerberg im Januar, er werde sich “gegen diejenigen stellen, die sagen, dass neue Arten von Gemeinschaften, die sich in sozialen Medien bilden, uns spalten.” Leute, die ihn privat sprechen hörten, sagten, dass er argumentiert, dass die sozialen Medien wenig Verantwortung für die Polarisierung tragen.

Er argumentiert, dass die Plattform in der Tat ein Hüter der freien Rede ist, selbst wenn der Inhalt anstößig ist – eine Position, die Facebooks Entscheidung antrieb, politische Werbung vor der Wahl 2020 nicht auf Fakten zu überprüfen.

Werbung

‘Integrity Teams’

Facebook startete seine Forschung zu spalterischen Inhalten und Verhalten in einem Moment, in dem es sich mit der Frage auseinandersetzte, ob seine Mission, “die Welt zu verbinden”, gut für die Gesellschaft sei.

Das Problem der Polarisierung zu beheben, würde schwierig sein und erforderte von Facebook, einige seiner Kernprodukte zu überdenken. Vor allem zwang das Projekt Facebook dazu, die Priorisierung des “Nutzer-Engagements” zu überdenken – eine Kennzahl, die die verbrachte Zeit, “Likes”, “Shares” und “Kommentare” einbezieht und die jahrelang die Stütze des Systems war.

Angeführt von Chris Cox, dem damaligen Chief Product Officer von Facebook und obersten Stellvertreter von Mr. Zuckerberg, wurde die Arbeit an dem Projekt durchgeführt. Die Arbeit wurde über weite Teile der Jahre 2017 und 2018 von Ingenieuren und Forschern durchgeführt, die einer gerichtsübergreifenden Arbeitsgruppe mit dem Namen “Common Ground” zugeordnet waren, sowie von Mitarbeitern in neu geschaffenen “Integrity Teams”, die rund um das Unternehmen eingebettet waren.

Displays, die Social-Media-Posts während einer Anhörung des Geheimdienstausschusses des Repräsentantenhauses im Jahr 2017 zeigen.

Displays zeigen Social-Media-Posts während einer Anhörung des House Intelligence Committee im Jahr 2017.

Foto: Andrew Harrer/Bloomberg News

Bereits vor der Gründung der Teams im Jahr 2017 hatten Facebook-Forscher Anzeichen für Probleme gefunden. Eine Präsentation aus dem Jahr 2016, die als Autorin die Facebook-Forscherin und Soziologin Monica Lee nennt, fand heraus, dass extremistische Inhalte in mehr als einem Drittel der großen deutschen politischen Gruppen auf der Plattform gedeihen. Überschwemmt mit rassistischen, verschwörungsorientierten und pro-russischen Inhalten, wurden die Gruppen überproportional von einer Untergruppe hyperaktiver Nutzer beeinflusst, so die Präsentation. Die meisten von ihnen waren privat oder geheim.

Die hohe Anzahl extremistischer Gruppen sei besorgniserregend, heißt es in der Präsentation. Noch schlimmer war die Erkenntnis, dass Facebooks Algorithmen für deren Wachstum verantwortlich waren. In der Präsentation aus dem Jahr 2016 heißt es, dass “64 % aller Beitritte zu extremistischen Gruppen auf unsere Empfehlungs-Tools zurückzuführen sind” und dass die meisten Aktivitäten von den Algorithmen “Gruppen, denen Sie beitreten sollten” und “Entdecken” der Plattform ausgingen: “Unsere Empfehlungssysteme lassen das Problem wachsen.”

Frau Lee, die bei Facebook bleibt, reagierte nicht auf Anfragen. Facebook lehnte es ab, auf Fragen zu antworten, wie es das Problem in der Präsentation angesprochen hat, von dem andere Mitarbeiter sagten, es sei nicht einzigartig für Deutschland oder das Produkt Groups. In einer Präsentation auf einer internationalen Sicherheitskonferenz im Februar sagte Zuckerberg, das Unternehmen versuche, keine Gruppen zu empfehlen, die gegen seine Regeln verstoßen oder polarisierend sind.

“Wir haben seit 2016 viel gelernt und sind heute nicht mehr das gleiche Unternehmen”, sagte eine Facebook-Sprecherin. “Wir haben ein robustes Integritätsteam aufgebaut, unsere Richtlinien und Praktiken gestärkt, um schädliche Inhalte einzuschränken, und Forschung eingesetzt, um die Auswirkungen unserer Plattform auf die Gesellschaft zu verstehen, damit wir uns weiter verbessern können.” Facebook kündigte im Februar eine Finanzierung in Höhe von 2 Millionen Dollar für unabhängige Forschungsvorschläge zum Thema Polarisierung an.

Das Team von Common Ground habe versucht, das Problem der Polarisierung direkt anzugehen, sagten Personen, die mit dem Team vertraut sind. Datenwissenschaftler, die an dem Projekt beteiligt waren, fanden heraus, dass einige Interessengruppen – oft Hobby-Gruppen ohne explizite ideologische Ausrichtung – Menschen mit unterschiedlichen Hintergründen konstruktiv zusammenbrachten. Andere Gruppen schienen Impulse auszubrüten, um zu kämpfen, Unwahrheiten zu verbreiten oder eine Population von Außenseitern zu dämonisieren.

Share Your Thoughts

Was sollten Facebook und andere Social-Media-Giganten tun, um die Polarisierung unter ihren Nutzern zu reduzieren, wenn überhaupt? Beteiligen Sie sich an der Diskussion unten.

Im Einklang mit Facebooks Verpflichtung zur Neutralität haben die Teams entschieden, dass Facebook nicht die Meinungen der Menschen überwachen, Konflikte auf der Plattform unterbinden oder Menschen daran hindern sollte, Gemeinschaften zu bilden. Die Verunglimpfung der eigenen Gegner sei das Problem, heißt es in einem internen Dokument des Teams.

“Wir werden explizit keine Produkte bauen, die versuchen, die Überzeugungen der Menschen zu ändern”, heißt es in einem Dokument von 2018. “Wir konzentrieren uns auf Produkte, die Empathie, Verständnis und Vermenschlichung der ‘anderen Seite’ erhöhen. “

Brennpunktthemen

Ein Vorschlag zielte darauf ab, Unterhaltungen in Gruppen zu retten, die durch brisante Themen entgleisten, so die mit dem Team und internen Dokumenten vertrauten Personen. Wenn zwei Mitglieder einer Facebook-Gruppe, die sich mit Elternschaft befasst, über Impfungen streiten, könnten die Moderatoren eine temporäre Untergruppe einrichten, um den Streit zu moderieren oder die Häufigkeit von Postings zu dem Thema zu begrenzen, um einen öffentlichen Flame War zu vermeiden.

Eine andere Idee, so zeigen die Dokumente, war es, die Empfehlungsalgorithmen zu optimieren, um eine größere Auswahl an Facebook-Gruppen vorzuschlagen, als die Leute normalerweise vorfinden würden.

Die Entwicklung dieser Funktionen und der Kampf gegen die Polarisierung könnten mit einem geringeren Engagement einhergehen, warnte das Common Ground-Team in einem Dokument von Mitte 2018, in dem es einige seiner eigenen Vorschläge als “wachstumsfeindlich” bezeichnete und von Facebook verlangte, “eine moralische Haltung einzunehmen”

Das Ergreifen von Maßnahmen würde es erforderlich machen, dass Facebook Partnerschaften mit Akademikern und Non-Profit-Organisationen eingeht, um den Veränderungen, die die öffentliche Konversation beeinflussen, Glaubwürdigkeit zu verleihen, heißt es in dem Dokument. Das sei schwierig geworden, als sich das Unternehmen nach der Präsidentschaftswahl 2016 durch Kontroversen schleppte.

“Die Menschen vertrauen uns nicht”, heißt es in einer Präsentation, die im Sommer 2018 erstellt wurde.

Chris Cox, zuvor Chief Product Officer von Facebook, im Jahr 2018.

Chris Cox, zuvor Chief Product Officer von Facebook, im Jahr 2018.

Foto: stephen lam/Reuters

Die Ingenieure und Datenwissenschaftler in Facebooks Integritäts-Teams – allen voran die Wissenschaftler, die am Newsfeed gearbeitet haben, dem Strom von Beiträgen und Fotos, der Nutzer begrüßt, wenn sie Facebook besuchen – sind laut Personen, die mit den Teams vertraut sind, indirekt auf das Problem der Polarisierung gestoßen. Mit dem Auftrag, Fake News, Spam, Clickbait und inauthentische Nutzer zu bekämpfen, suchten die Mitarbeiter nach Wegen, die Reichweite solcher Übel zu vermindern. Eine frühe Entdeckung: Schlechtes Verhalten kam überproportional von einem kleinen Pool von überparteilichen Nutzern.

Eine zweite Erkenntnis in den USA war eine größere Infrastruktur von Accounts und Publishern auf der extremen Rechten als auf der extremen Linken. Externe Beobachter dokumentierten das gleiche Phänomen. Die Kluft bedeutete, dass selbst scheinbar unpolitische Maßnahmen wie die Verringerung der Verbreitung von Clickbait-Schlagzeilen – nach dem Motto “Sie werden nicht glauben, was als Nächstes passiert ist” – konservative Redebeiträge insgesamt stärker beeinflussten als liberale Inhalte.

Das war ein harter Brocken für Herrn Kaplan, sagten Leute, die ihn über die Vorschläge von Common Ground und Integrity diskutieren hörten. Als ehemaliger stellvertretender Stabschef von George W. Bush wurde Kaplan mehr in Entscheidungen über die Rangfolge von Inhalten involviert, nachdem es 2016 Vorwürfe gab, Facebook habe “trending news stories” von konservativen Seiten unterdrückt. Eine interne Überprüfung habe die Vorwürfe der Voreingenommenheit nicht bestätigt, sagte der damalige Chefsyndikus von Facebook, Colin Stretch, vor dem Kongress, aber der Schaden für den Ruf von Facebook bei den Konservativen sei angerichtet worden.

Mr. Zuckerberg auf dem Capitol Hill für Kongressanhörungen im Jahr 2018.

Mr. Zuckerberg auf dem Capitol Hill für Kongressanhörungen im Jahr 2018.

Photo: Erin Scott/Zuma Press

Jede bedeutende neue Integritäts-Initiative musste nicht nur die Zustimmung der technischen Manager einholen, sondern auch von Vertretern der Abteilungen für Public Policy, Recht, Marketing und Public Relations.

Lindsey Shepard, eine ehemalige Produktmarketing-Direktorin von Facebook, die dabei half, den “Eat Your Veggies”-Prozess aufzusetzen, sagte, dass dieser aus der ihrer Meinung nach begründeten Sorge entstand, dass übereifrige Ingenieure ihre Politik auf die Plattform einwirken lassen könnten.

“Ingenieure, die es gewohnt waren, Autonomie zu haben, haben nach der Wahl 2016 vielleicht ein wenig überdreht”, um die wahrgenommenen Fehler von Facebook zu beheben, sagte sie. Die Meetings halfen, das in Schach zu halten. “

Gescheiterte Projekte

Die Ablehnung von Herrn Kaplans Team oder der Kommunikationsabteilung von Facebook könnte ein Projekt zum Scheitern bringen, sagten Personen, die mit den Bemühungen vertraut sind, und sie sagten: “Am Ende des Tages, wenn wir keinen Konsens erreichten, würden wir die verschiedenen Standpunkte zusammenfassen und sie dann Mark vorlegen. Negative Bewertungen des Policy-Teams haben die Bemühungen um ein Klassifizierungssystem für hyperpolarisierende Inhalte beendet. Ebenso hat der “Eat Your Veggies”-Prozess die Bemühungen, Clickbait über Politik zu unterdrücken, mehr als bei anderen Themen zum Erliegen gebracht.

Initiativen, die überlebt haben, waren oft geschwächt. Carlos Gomez Uribe, ehemaliger Leiter des Empfehlungssystems von Netflix Inc., wurde im Januar 2017 von Cox als Leiter des Newsfeed Integrity Teams abgeworben. Innerhalb weniger Monate begann Herr Uribe damit, den übergroßen Einfluss hyperaktiver Nutzer zu reduzieren.

Nach den auf Engagement basierenden Metriken von Facebook hat ein Nutzer, der 1.500 Inhalte mag, teilt oder kommentiert, mehr Einfluss auf die Plattform und ihre Algorithmen als einer, der mit nur 15 Beiträgen interagiert, wodurch “Super-Sharer” weniger aktive Nutzer übertönen können. Konten mit hyperaktivem Engagement waren im Durchschnitt weitaus parteiischer als normale Facebook-Nutzer, und sie verhielten sich häufiger verdächtig, indem sie manchmal bis zu 20 Stunden am Tag auf der Plattform erschienen und ein spamähnliches Verhalten an den Tag legten. Das Verhalten deutete darauf hin, dass es sich bei einigen entweder um Personen handelte, die in Schichten arbeiteten, oder um Bots.

Ein Vorschlag, für den sich das Team von Herrn Uribe einsetzte, genannt “Sparing Sharing”, hätte die Verbreitung von Inhalten, die von hyperaktiven Nutzern unverhältnismäßig stark bevorzugt wurden, reduziert, so Personen, die damit vertraut sind. Die Auswirkungen wären am stärksten bei Inhalten, die von Nutzern der extremen Rechten und Linken bevorzugt werden. Nutzer aus der Mitte würden an Einfluss gewinnen.

Facebook COO Sheryl Sandberg bei einer Anhörung des Geheimdienstausschusses des Senats, 2018.

Facebook COO Sheryl Sandberg bei einer Anhörung des Geheimdienstausschusses des Senats, 2018.

Foto: jim lo scalzo/EPA/

Mr. Uribe nannte es “das glückliche Gesicht”, sagten einige der Anwesenden. Facebooks Datenwissenschaftler glaubten, dass es die Verteidigung der Plattform gegen Spam und koordinierte Manipulationsversuche, wie sie Russland während der Wahl 2016 unternommen hat, stärken könnte.

Herr Kaplan und andere leitende Facebook-Führungskräfte wehrten sich mit der Begründung, dass es einer hypothetischen Pfadfindergruppe schaden könnte, sagten Personen, die mit seinen Kommentaren vertraut sind. Nehmen wir an, fragte Herr Kaplan, dass die Mädchen Facebook-Super-Sharer werden, um für Kekse zu werben? Die Reichweite der engagiertesten Nutzer der Plattform zu schmälern, würde sie auf unfaire Weise ausbremsen, sagte er.

Herr Kaplan sagte in dem kürzlichen Interview, dass er sich nicht daran erinnere, das Pfadfinder-Beispiel erwähnt zu haben, aber er sei besorgt über die Auswirkungen auf Verleger, die zufällig begeisterte Anhänger haben.

Die Debatte wurde an Herrn Zuckerberg herangetragen, der sich beide Seiten in einem kurzen Treffen anhörte, sagten Personen, die damit vertraut sind. Seine Antwort: Macht es, aber kürzt die Gewichtung um 80%. Herr Zuckerberg signalisierte auch, dass er das Interesse an den Bemühungen verliert, die Plattform im Namen des sozialen Wohls neu zu kalibrieren, sagten sie, und baten darum, dass sie ihm so etwas nicht noch einmal bringen.

Herr Uribe verließ Facebook und die Tech-Industrie innerhalb des Jahres. Er lehnte es ab, über seine Arbeit bei Facebook im Detail zu sprechen, bestätigte aber sein Eintreten für den Vorschlag des Sparing Sharing. Er sagte, er verließ Facebook aufgrund seiner Frustration mit den Führungskräften des Unternehmens und ihrem engen Fokus darauf, wie Integritätsänderungen die amerikanische Politik beeinflussen würden. Während Vorschläge wie der seine die Konservativen in den USA unverhältnismäßig stark beeinflussen würden,

Aus den Archiven

In einer Rede an der Georgetown University diskutierte Mark Zuckerberg die Art und Weise, wie Facebook die Kontrollen darüber verschärft hat, wer politische Anzeigen schalten darf, während er sich gleichzeitig für die Meinungsfreiheit einsetzt. VIDEO: FACEBOOK / FOTO: NICK WASS/ASSOCIATED PRESS (Ursprünglich veröffentlicht am 17. Oktober 2019) The Wall Street Journal Interactive Edition

Andere Projekte trafen das Schicksal von Sparing Sharing: geschwächt, nicht getötet. Zu den Teilsiegen gehörten Bemühungen, Nachrichten zu fördern, die Engagement von einer breiten Nutzerbasis und nicht nur von Parteigängern erhalten, sowie Strafen für Publisher, die wiederholt falsche Nachrichten teilten oder Nutzer auf werbefinanzierte Seiten leiteten.

Das Tauziehen wurde zum Teil durch die wachsende Wut über den Cambridge-Analytica-Skandal gelöst. Bei einer Reorganisation des Newsfeed-Teams von Facebook im September 2018 teilten die Manager den Mitarbeitern mit, dass sich die Prioritäten des Unternehmens “weg vom gesellschaftlichen Nutzen hin zum individuellen Wert” verlagerten, sagten Personen, die bei der Diskussion anwesend waren. Wenn Nutzer routinemäßig feindselige Inhalte über Gruppen, die sie nicht mögen, ansehen oder posten wollten, würde Facebook dies nicht unterdrücken, wenn der Inhalt nicht ausdrücklich gegen die Regeln des Unternehmens verstößt.

Facebook-Hauptquartier in Menlo Park, Calif,

Das Hauptquartier von Facebook in Menlo Park, Calif, diesen Monat.

Foto: john g. mabanglo/EPA/

Mr. Cox verließ das Unternehmen einige Monate später nach Meinungsverschiedenheiten über Facebooks Schwenk hin zu privaten verschlüsselten Nachrichten. Er hatte die meisten Kämpfe, die er in Bezug auf das Integritätsranking und die Produktänderungen von Common Ground ausgefochten hatte, nicht gewonnen, sagten Leute, die an den Bemühungen beteiligt waren, und sein Weggang ließ die verbleibenden Mitarbeiter, die an solchen Projekten arbeiteten, ohne einen hochrangigen Fürsprecher zurück.

Das Common Ground-Team löste sich auf. Die Integritäts-Teams existieren noch, obwohl viele leitende Mitarbeiter das Unternehmen verlassen haben oder zu Facebooks Instagram-Plattform gegangen sind.

Mr. Zuckerberg kündigte 2019 an, dass Facebook Inhalte, die gegen bestimmte Standards verstoßen, herunternehmen würde, aber wo möglich einen “hands-off”-Ansatz bei der Kontrolle von Material, das nicht eindeutig gegen seine Standards verstößt, verfolgen würde.

“Man kann Toleranz nicht von oben nach unten auferlegen”, sagte er im Oktober in einer Rede an der Georgetown University. “Sie muss von Menschen kommen, die sich öffnen, Erfahrungen austauschen und eine gemeinsame Geschichte für die Gesellschaft entwickeln, der wir uns alle zugehörig fühlen. So können wir gemeinsam Fortschritte machen.”

Schreiben Sie an Jeff Horwitz unter [email protected] und Deepa Seetharaman unter [email protected]

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.