Facebook Executives Shut Down Efforts to Make the Site Less Divisive

Ta prezentacja poszła do serca pytania dogging Facebook prawie od jego powstania: Czy jego platforma pogłębia polaryzację i zachowania plemienne?

Odpowiedź, którą znalazł, w niektórych przypadkach, było tak.

Facebook rozpoczął wewnętrzny wysiłek, aby zrozumieć, jak jego platforma ukształtowała zachowania użytkowników i jak firma może zająć się potencjalnymi szkodami. Szef Mark Zuckerberg miał w publicznych i prywatnych wyraził obawy o “sensacji i polaryzacji.”

Reklama

Ale w końcu, Facebook zainteresowanie było ulotne. Pan Zuckerberg i inni wyżsi rangą dyrektorzy w dużej mierze odłożył na półkę podstawowych badań, zgodnie z wcześniej nieopublikowanych dokumentów wewnętrznych i osób zaznajomionych z wysiłkiem, i osłabione lub zablokowane wysiłki, aby zastosować swoje wnioski do produktów Facebook.

Facebook szef polityki Joel Kaplan, który odegrał kluczową rolę w weryfikacji proponowanych zmian, twierdził w tym czasie, że wysiłki, aby rozmowy na platformie bardziej cywilne były “paternalistyczne”, powiedział ludzie zaznajomieni z jego komentarzy.

Facebook CEO Mark Zuckerberg, po prawej, z szefem polityki Facebooka Joelem Kaplanem w 2018 roku.

Facebook CEO Mark Zuckerberg, po prawej, z szefem polityki Facebooka Joelem Kaplanem w 2018 r.

Fot: Christophe Morin/Bloomberg News

Inną obawą, oni i inni powiedzieli, było to, że niektóre proponowane zmiany nieproporcjonalnie wpłynęłyby na konserwatywnych użytkowników i wydawców, w czasie, gdy firma stanęła w obliczu oskarżeń z prawej strony o stronniczość polityczną.

Facebook ujawnił niewiele szczegółów na temat wysiłku i ujawnił niewiele o tym, co się z nim stało. W 2020 roku, pytania, które wysiłek starał się rozwiązać są jeszcze bardziej dotkliwe, jak naładowane wybory prezydenckie i Facebook był przewodnikiem dla teorii spiskowych i sparing partyzancki o pandemii koronawirusów.

Reklama

W istocie, Facebook jest pod ostrzałem za co świat bardziej podzielony. Wielu z jego własnych ekspertów wydawało się zgadzać – i wierzyć, że Facebook może złagodzić wiele problemów. Firma zdecydowała się nie.

Pan Kaplan w ostatnim wywiadzie powiedział, że on i inni dyrektorzy zatwierdzili pewne zmiany mające na celu poprawę dyskusji obywatelskiej. W innych przypadkach, w których propozycje zostały zablokowane, powiedział, że stara się “wprowadzić dyscyplinę, rygor i odpowiedzialność do procesu”, ponieważ sprawdzał skuteczność i potencjalne niezamierzone konsekwencje zmian w sposobie działania platformy.

Wewnętrznie, proces weryfikacji zyskał przydomek: “Jedz swoje warzywa.”

Amerykanie oddalali się od siebie w fundamentalnych kwestiach społecznych na długo przed powstaniem mediów społecznościowych, wykazały dekady badań Pew Research Center. Ale 60% Amerykanów uważa, że największe firmy technologiczne w kraju pomagają dalej dzielić kraj, podczas gdy tylko 11% uważa, że go jednoczą, zgodnie z sondażem Gallup-Knight w marcu.

Reklama

Na Facebooku, “Był ten okres poszukiwania duszy po 2016 roku, który wydawał mi się tym okresem naprawdę szczerego, ‘O człowieku, co jeśli naprawdę zepsuliśmy świat?’ “, powiedział Eli Pariser, współdyrektor Civic Signals, projektu, który ma na celu budowanie zdrowszych przestrzeni cyfrowych, i który rozmawiał z urzędnikami Facebooka o polaryzacji.

Pan Pariser powiedział, że zaczęło się to zmieniać po marcu 2018 roku, kiedy Facebook dostał się do gorącej wody po ujawnieniu, że Cambridge Analytica, startup polityczno-analityczny, niewłaściwie uzyskał dane z Facebooka o dziesiątkach milionów ludzi. Zmiana nabrała tempa od tego czasu, powiedział: “Wahadło wewnętrzne huśtawka naprawdę mocno do ‘media nienawidzi nas bez względu na to, co robimy, więc niech po prostu batten down luków’. “

Na znak tego, jak daleko firma się posunęła, pan Zuckerberg w styczniu powiedział, że stanie “przeciwko tym, którzy mówią, że nowe rodzaje społeczności tworzących się w mediach społecznościowych dzielą nas”. Ludzie, którzy słyszeli go mówić prywatnie powiedział, że twierdzi, social media ponosi niewielką odpowiedzialność za polaryzację.

On twierdzi, że platforma jest w rzeczywistości strażnikiem wolności słowa, nawet jeśli treść jest sprzeciw – stanowisko, które doprowadziło do decyzji Facebook nie do sprawdzania faktów reklamy politycznej przed 2020 wyborów.

Reklama
“Zespoły ds. integralności”

Facebook rozpoczął badania nad treściami i zachowaniami powodującymi podziały w momencie, w którym zastanawiał się, czy jego misja “łączenia świata” jest dobra dla społeczeństwa.

Usunięcie problemu polaryzacji będzie trudne i będzie wymagało od Facebooka przemyślenia niektórych z jego podstawowych produktów. Przede wszystkim, projekt zmusił Facebook do rozważenia, jak to priorytetowe “zaangażowanie użytkownika” – metryka obejmująca czas spędzony, lubi, akcji i komentarzy, które przez lata były lodestar jego systemu.

Championed przez Chrisa Coxa, szef produktu Facebook w czasie i zastępca najwyższego do Mr. Zuckerberga, praca została przeprowadzona przez większość 2017 i 2018 przez inżynierów i badaczy przypisanych do międzywydziałowej grupy zadaniowej o nazwie “Common Ground” i pracowników w nowo utworzonych “Zespołach Integralności” osadzonych wokół firmy.

Wyświetlacze pokazujące posty social-media podczas przesłuchania House Intelligence Committee w 2017 roku.

Wyświetlacze pokazujące posty social-media podczas przesłuchania House Intelligence Committee w 2017 roku.

Photo: Andrew Harrer/Bloomberg News

Nawet przed powstaniem zespołów w 2017 roku badacze Facebooka znaleźli oznaki kłopotów. Prezentacja z 2016 roku, która wymienia jako autora badacza Facebooka i socjologa, Monicę Lee, znalazła ekstremistyczne treści kwitnące w ponad jednej trzeciej dużych niemieckich grup politycznych na platformie. Grupy te, przepełnione treściami rasistowskimi, spiskowymi i prorosyjskimi, były pod nieproporcjonalnie dużym wpływem podzbioru nadpobudliwych użytkowników – czytamy w prezentacji. Większość z nich była prywatna lub tajne.

Wysoka liczba grup ekstremistycznych było niepokojące, prezentacja mówi. Gorsze było uświadomienie sobie przez Facebooka, że jego algorytmy były odpowiedzialne za ich wzrost. Prezentacja z 2016 roku stwierdza, że “64% wszystkich przyłączeń do grup ekstremistycznych wynika z naszych narzędzi rekomendacji” i że większość aktywności pochodziła z algorytmów platformy “Groups You Should Join” i “Discover”: “Nasze systemy rekomendacji powiększają problem.”

Ms. Lee, która pozostaje w Facebooku, nie odpowiedziała na pytania. Facebook odmówił odpowiedzi na pytania o to, jak to adresowane problem w prezentacji, które inni pracownicy powiedzieli nie były unikalne dla Niemiec lub produktu Grupy. W prezentacji na międzynarodowej konferencji bezpieczeństwa w lutym, pan Zuckerberg powiedział, że firma stara się nie polecać grup, które łamią swoje zasady lub są polaryzujące.

“Nauczyliśmy się wiele od 2016 roku i nie są tą samą firmą dzisiaj,” rzeczniczka Facebooka powiedział. “Zbudowaliśmy solidny zespół ds. Integralności, wzmocniliśmy nasze polityki i praktyki, aby ograniczyć szkodliwe treści, i wykorzystaliśmy badania, aby zrozumieć wpływ naszej platformy na społeczeństwo, więc nadal się poprawiamy”. Facebook w lutym ogłosił 2 miliony dolarów w finansowaniu niezależnych propozycji badawczych na temat polaryzacji.

Zespół Common Ground starał się bezpośrednio zmierzyć z problemem polaryzacji, powiedziały osoby zaznajomione z zespołem. Naukowcy zajmujący się badaniem danych odkryli, że niektóre grupy zainteresowań – często hobbystyczne, bez wyraźnego ideologicznego powiązania – konstruktywnie łączą ludzi z różnych środowisk. Inne grupy okazały się inkubować impulsy do walki, szerzenia fałszu lub demonizowania populacji outsiderów.

Podziel się swoimi przemyśleniami

Co Facebook i inni giganci mediów społecznościowych powinni zrobić, jeśli w ogóle, aby zmniejszyć polaryzację wśród swoich użytkowników? Dołącz do dyskusji poniżej.

Podtrzymując zobowiązanie Facebooka do neutralności, zespoły zdecydowały, że Facebook nie powinien kontrolować opinii ludzi, powstrzymywać konfliktów na platformie, ani uniemożliwiać ludziom tworzenia społeczności. Szkalowanie swoich przeciwników było problemem, według jednego z wewnętrznych dokumentów zespołu.

“Wyraźnie nie zamierzamy budować produktów, które próbują zmienić przekonania ludzi”, stwierdza jeden z dokumentów z 2018 roku. “Skupiamy się na produktach, które zwiększają empatię, zrozumienie i humanizację ‘drugiej strony’. “

Hot-button issues

Jedna z propozycji miała na celu ratowanie rozmów w grupach wykolejonych przez gorące tematy, według osób zaznajomionych z zespołem i wewnętrznymi dokumentami. Jeśli dwóch członków grupy Facebook poświęcony rodzicielstwa walczył o szczepieniach, moderatorzy mogą ustanowić tymczasowy podgrupy do gospodarza argumentu lub ograniczyć częstotliwość delegowania na temat, aby uniknąć publicznego flame war.

Inny pomysł, dokumenty pokazują, było dostroić algorytmy rekomendacji sugerować szerszy zakres grup Facebook niż ludzie będą normalnie spotkać.

Budowanie tych funkcji i zwalczanie polaryzacji może odbyć się kosztem mniejszego zaangażowania, zespół Common Ground ostrzegł w dokumencie z połowy 2018 roku, opisując niektóre z własnych propozycji jako “anty-wzrostowe” i wymagające od Facebooka “zajęcia moralnego stanowiska.”

Podjęcie działań wymagałoby od Facebooka nawiązania partnerstwa z naukowcami i organizacjami non-profit, aby uwiarygodnić zmiany wpływające na konwersację publiczną, czytamy w dokumencie. Stało się to trudne, gdy firma prześlizgiwała się przez kontrowersje po wyborach prezydenckich w 2016 r.

“Ludzie nam nie ufają” – głosiła prezentacja stworzona latem 2018 r.

Chris Cox, wcześniej chief product officer Facebooka, w 2018 roku.

Chris Cox, wcześniej chief product officer Facebooka, w 2018 roku.

Photo: stephen lam/Reuters

Inżynierowie i naukowcy zajmujący się danymi w zespołach ds. integralności Facebooka – wśród nich, naukowcy, którzy pracowali nad newsfeedem, strumieniem postów i zdjęć, które witają użytkowników, gdy odwiedzają Facebooka – doszli do problemu polaryzacji pośrednio, według osób zaznajomionych z zespołami. Poproszeni o walkę z fake news, spamem, clickbaitem i nieautentycznymi użytkownikami, pracownicy szukali sposobów na zmniejszenie zasięgu tych bolączek. Jedno z wczesnych odkryć: Złe zachowanie pochodziło nieproporcjonalnie od małej puli hiperpartyzanckich użytkowników.

Drugie odkrycie w USA widziało większą infrastrukturę kont i wydawców na skrajnej prawicy niż na skrajnej lewicy. Zewnętrzni obserwatorzy dokumentowali to samo zjawisko. Luka oznaczała, że nawet pozornie apolityczne działania, takie jak ograniczenie rozprzestrzeniania się clickbaitowych nagłówków w stylu “Nie uwierzycie, co się stało”, miały większy wpływ na wypowiedzi konserwatystów niż na treści liberalne.

To było trudne do sprzedania dla pana Kaplana, powiedzieli ludzie, którzy słyszeli, jak omawiał propozycje Common Ground i Integrity. Były zastępca szefa personelu do George W. Bush, Pan Kaplan stał się bardziej zaangażowany w treści-ranking decyzji po 2016 zarzutów Facebook miał tłumione trendów wiadomości historie z konserwatywnych punktów. Wewnętrzny przegląd nie uzasadnia roszczeń stronniczości, Facebook ówczesny radca prawny Colin Stretch powiedział Kongresowi, ale szkody dla reputacji Facebooka wśród konserwatystów zostały wykonane.

Pan Zuckerberg na Capitol Hill na przesłuchania kongresowe w 2018 r.

Pan Zuckerberg na Capitol Hill na przesłuchania kongresowe w 2018 r.

Fot: Erin Scott/Zuma Press

Każda nowa znacząca inicjatywa z zakresu integrity-ranking musiała zabiegać o aprobatę nie tylko menedżerów inżynieryjnych, ale także przedstawicieli działów public policy, prawnego, marketingu i public-relations.

Lindsey Shepard, były dyrektor marketingu produktów Facebooka, który pomógł stworzyć proces Eat Your Veggies, powiedział, że powstał z tego, co wierzyła, że były uzasadnione obawy, że nadgorliwi inżynierowie mogą pozwolić ich polityka wpływa na platformę.

“Inżynierowie, którzy byli przyzwyczajeni do posiadania autonomii może over-rotated trochę” po wyborach w 2016 roku, aby zająć się Facebook postrzegane wady, powiedziała. Spotkania pomogły utrzymać to w ryzach. “Pod koniec dnia, jeśli nie osiągnęliśmy konsensusu, stworzylibyśmy ramy dla różnych punktów widzenia, a następnie zostałyby one podniesione do Marka.”

Zatrzymane projekty

Niezgoda od zespołu pana Kaplana lub działu komunikacji Facebooka może zatrzeć projekt, powiedział ludzie zaznajomieni z wysiłkiem. Negatywne recenzje zespołu polityki zabił wysiłki w celu zbudowania systemu klasyfikacji dla hiperpolaryzacji treści. Podobnie, proces Eat Your Veggies zamknąć wysiłki, aby stłumić clickbait o polityce więcej niż na inne tematy.

Inicjatywy, które przetrwały były często osłabione. Pan Cox wooed Carlos Gomez Uribe, były szef systemu rekomendacji Netflix Inc, do prowadzenia zespołu integralności newsfeed w styczniu 2017 roku. W ciągu kilku miesięcy, Pan Uribe zaczął naciskać, aby zmniejszyć nadmierny wpływ hiperaktywnych użytkowników miał.

Pod Facebook zaangażowania oparte metryki, użytkownik, który lubi, akcji lub komentarzy na 1,500 sztuk treści ma większy wpływ na platformie i jej algorytmów niż ten, który współdziała tylko z 15 postów, pozwalając “super-dzielników” zagłuszyć mniej aktywnych użytkowników. Konta z hiperaktywnym zaangażowaniem były znacznie bardziej partyzanckie niż zwykli użytkownicy Facebooka, i były bardziej prawdopodobne, aby zachowywać się podejrzanie, czasami pojawiając się na platformie aż 20 godzin dziennie i angażując się w spam jak zachowanie. Zachowanie sugerowało, że niektórzy z nich byli albo ludźmi pracującymi na zmiany, albo botami.

Jedna z propozycji, za którą opowiadał się zespół pana Uribe, zwana “oszczędnym dzieleniem się”, zmniejszyłaby rozprzestrzenianie się treści nieproporcjonalnie preferowanych przez nadpobudliwych użytkowników, według osób zaznajomionych z nią. Jego efekty byłyby najsilniejsze w przypadku treści preferowanych przez użytkowników ze skrajnej prawicy i lewicy. Użytkownicy o średnim zasięgu zyskaliby wpływy.

Facebook COO Sheryl Sandberg na przesłuchaniu Senackiej Komisji Wywiadu, 2018.

Facebook COO Sheryl Sandberg na przesłuchaniu Senackiej Komisji Wywiadu, 2018.

Photo: jim lo scalzo/EPA/

Pan Uribe nazwał to “szczęśliwą twarzą”, powiedziało kilka osób. Facebook naukowcy dane wierzyli, że może wzmocnić platformę obrony przed spamem i skoordynowanych wysiłków manipulacji rodzaju Rosja podjęła podczas 2016 election.

Mr Kaplan i inne starsze kierownictwo Facebook odepchnął na podstawie może zaszkodzić hipotetycznego harcerza oddział, powiedział ludzie zaznajomieni z jego uwag. Załóżmy, Pan Kaplan zapytał ich, że dziewczyny stały się Facebook super-sharers promować ciasteczka? Łagodzenie zasięgu platformy najbardziej oddanych użytkowników byłoby niesprawiedliwe udaremnić im.

Pan Kaplan w ostatnim wywiadzie powiedział, że nie pamięta podnosząc przykład Girl Scout, ale był zaniepokojony wpływem na wydawców, którzy zdarzyło się mieć entuzjastyczne followings.

Debata została kopnięta do pana Zuckerberga, który usłyszał obie strony w krótkim spotkaniu, powiedział ludzie poinformowani o tym. Jego odpowiedź: Zrób to, ale wyciąć wagi o 80%. Pan Zuckerberg również zasygnalizował, że traci zainteresowanie wysiłkiem, aby przekalibrować platformę w imię dobra społecznego, powiedzieli, prosząc, aby nie przynieść mu coś takiego ponownie.

Pan Uribe opuścił Facebook i przemysł technologiczny w ciągu roku. Odmówił omówienia swojej pracy w Facebooku w szczegółach, ale potwierdził swoje poparcie dla propozycji Sparing Sharing. Powiedział, że opuścił Facebook z powodu jego frustracji z kierownictwem firmy i ich wąskie skupienie się na tym, jak zmiany integralności wpłynie na amerykańską politykę. Podczas gdy propozycje takie jak jego nieproporcjonalnie wpływa konserwatystów w USA, powiedział, w innych krajach było odwrotnie.

Z archiwów

W przemówieniu na Uniwersytecie Georgetown, Mark Zuckerberg omówił sposoby Facebook zacieśnił kontrolę nad tym, kto może uruchomić reklamy polityczne, zachowując jednocześnie swoje zaangażowanie w wolność słowa. VIDEO: FACEBOOK / FOT: NICK WASS/ASSOCIATED PRESS (Originally published Oct. 17, 2019) The Wall Street Journal Interactive Edition

Inne projekty spotkały los Sparing Sharing: osłabione, nie zabite. Częściowe zwycięstwa obejmowały wysiłki mające na celu promowanie newsów zbierających zaangażowanie od szerokiej bazy użytkowników, a nie tylko partyzantów, oraz kary dla wydawców, którzy wielokrotnie udostępniali fałszywe wiadomości lub kierowali użytkowników do stron ad-choked.

Tug of war został rozwiązany częściowo przez rosnącą furorę nad skandalem Cambridge Analytica. We wrześniu 2018 r. reorganizacja zespołu newsfeed Facebooka, menedżerowie powiedzieli pracownikom, że priorytety firmy przesuwają się “z dala od dobra społecznego do wartości indywidualnej”, powiedzieli ludzie obecni przy dyskusji. Jeśli użytkownicy chcieliby rutynowo przeglądać lub publikować wrogie treści o grupach, których nie lubili, Facebook nie tłumiłby tego, jeśli treści nie naruszałyby konkretnie zasad firmy.

Kwatera główna Facebooka w Menlo Park, Kalifornia, w tym miesiącu.

Kwatera główna Facebooka w Menlo Park, Kalifornia, w tym miesiącu.

Zdjęcie: john g. mabanglo/EPA/

Pan Cox opuścił firmę kilka miesięcy później po nieporozumieniach dotyczących zwrotu Facebooka w kierunku prywatnych szyfrowanych wiadomości. Nie wygrał większość walk, w które się zaangażował na rankingu uczciwości i Common Ground zmiany produktów, ludzie zaangażowani w wysiłek powiedział, a jego odejście pozostawił pozostałych pracowników pracujących na tych projektach bez adwokata wysokiego szczebla.

The Common Ground zespół rozwiązany. The Integrity Teams nadal istnieją, choć wielu starszych pracowników opuściło firmę lub skierowało się na platformę Instagram Facebooka.

Pan Zuckerberg ogłosił w 2019 roku, że Facebook zdejmie treści naruszające określone standardy, ale tam, gdzie to możliwe, przyjmie podejście “hands-off” do pilnowania materiałów, które nie naruszają wyraźnie jego standardów.

“Nie można narzucić tolerancji odgórnie”, powiedział w październikowym przemówieniu na Uniwersytecie Georgetown. “Musi ona pochodzić od ludzi otwierających się, dzielących się doświadczeniami i tworzących wspólną historię społeczeństwa, której wszyscy czujemy się częścią. W ten sposób wspólnie dokonujemy postępu.”

Pisz do Jeffa Horwitza na [email protected] i Deepa Seetharaman na [email protected]

Leave a Comment

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *