I dirigenti di Facebook hanno interrotto gli sforzi per rendere il sito meno divisivo

Quella presentazione è andata al cuore di una domanda che perseguita Facebook quasi dalla sua fondazione: La sua piattaforma aggrava la polarizzazione e il comportamento tribale?

La risposta che ha trovato, in alcuni casi, è stata sì.

Facebook ha iniziato uno sforzo interno per capire come la sua piattaforma ha plasmato il comportamento degli utenti e come la società potrebbe affrontare i potenziali danni. L’amministratore delegato Mark Zuckerberg aveva espresso in pubblico e in privato la preoccupazione per il “sensazionalismo e la polarizzazione”.

Pubblicità

Ma alla fine, l’interesse di Facebook è stato fugace. Zuckerberg e altri alti dirigenti hanno in gran parte accantonato la ricerca di base, secondo documenti interni non riportati in precedenza e persone che hanno familiarità con lo sforzo, e hanno indebolito o bloccato gli sforzi per applicare le sue conclusioni ai prodotti di Facebook.

Il capo della politica di Facebook Joel Kaplan, che ha svolto un ruolo centrale nel vagliare i cambiamenti proposti, ha sostenuto al momento che gli sforzi per rendere le conversazioni sulla piattaforma più civili erano “paternalistiche”, ha detto persone che hanno familiarità con i suoi commenti.

Il CEO di Facebook Mark Zuckerberg, a destra, con il capo della politica di Facebook Joel Kaplan nel 2018.

Facebook CEO Mark Zuckerberg, a destra, con il capo della politica di Facebook Joel Kaplan nel 2018.

Foto: Christophe Morin/Bloomberg News

Un’altra preoccupazione, loro e altri hanno detto, era che alcuni cambiamenti proposti avrebbero colpito in modo sproporzionato gli utenti e gli editori conservatori, in un momento in cui la società ha affrontato le accuse da destra di pregiudizi politici.

Facebook ha rivelato pochi dettagli sullo sforzo e ha divulgato poco su ciò che ne è conseguito. Nel 2020, le domande che lo sforzo ha cercato di affrontare sono ancora più acute, mentre si profila un’elezione presidenziale carica e Facebook è stato un canale per le teorie di cospirazione e lo sparring partigiano sulla pandemia del coronavirus.

Pubblicità

In sostanza, Facebook è sotto tiro per rendere il mondo più diviso. Molti dei suoi stessi esperti sembravano essere d’accordo – e credere che Facebook potesse mitigare molti dei problemi. L’azienda ha scelto di non farlo.

Il signor Kaplan in una recente intervista ha detto che lui e altri dirigenti hanno approvato alcuni cambiamenti destinati a migliorare la discussione civica. In altri casi in cui le proposte sono state bloccate, ha detto, stava cercando di “instillare un po’ di disciplina, rigore e responsabilità nel processo” mentre esaminava l’efficacia e le potenziali conseguenze indesiderate delle modifiche al funzionamento della piattaforma.

Internamente, il processo di controllo si è guadagnato un soprannome: “Eat Your Veggies.”

Gli americani erano alla deriva su questioni sociali fondamentali ben prima della creazione dei social media, decenni di indagini del Pew Research Center hanno dimostrato. Ma il 60% degli americani pensa che le più grandi aziende tecnologiche del paese stiano aiutando a dividere ulteriormente il paese, mentre solo l’11% crede che lo stiano unendo, secondo un sondaggio Gallup-Knight di marzo.

Pubblicità

A Facebook, “C’è stato questo periodo di ricerca dell’anima dopo il 2016 che mi sembrava questo periodo di davvero sincero, ‘Oh amico, e se avessimo davvero incasinato il mondo? “Ha detto Eli Pariser, co-direttore di Civic Signals, un progetto che mira a costruire spazi digitali più sani, e che ha parlato con i funzionari di Facebook sulla polarizzazione.

Il signor Pariser ha detto che ha iniziato a cambiare dopo marzo 2018, quando Facebook è entrato in acqua calda dopo aver rivelato che Cambridge Analytica, la startup di analisi politica, ha ottenuto impropriamente i dati di Facebook su decine di milioni di persone. Il cambiamento ha guadagnato slancio da allora, ha detto: “Il pendolo interno ha oscillato molto duramente verso ‘i media ci odiano, non importa quello che facciamo, quindi chiudiamo i battenti’. “

In un segno di quanto l’azienda si sia mossa, il signor Zuckerberg a gennaio ha detto che avrebbe preso posizione “contro coloro che dicono che i nuovi tipi di comunità che si formano sui social media ci stanno dividendo”. Le persone che lo hanno sentito parlare in privato hanno detto che sostiene che i social media hanno poca responsabilità per la polarizzazione.

Sostiene che la piattaforma è in realtà un guardiano della libertà di parola, anche quando il contenuto è discutibile – una posizione che ha guidato la decisione di Facebook di non controllare i fatti della pubblicità politica prima delle elezioni del 2020.

Pubblicità

‘Integrity Teams’

Facebook ha lanciato la sua ricerca sui contenuti e i comportamenti divisivi in un momento in cui era alle prese con la questione se la sua missione di “connettere il mondo” fosse un bene per la società.

Fixing the polarization problem would be difficult, requiring Facebook to rethink some of its core products. In particolare, il progetto ha costretto Facebook a considerare come ha dato priorità al “coinvolgimento degli utenti” – una metrica che coinvolge il tempo trascorso, i “mi piace”, le condivisioni e i commenti che per anni era stato il caposaldo del suo sistema.

Promosso da Chris Cox, il chief product officer di Facebook all’epoca e un importante vice di Mr. Zuckerberg, il lavoro è stato svolto per gran parte del 2017 e del 2018 da ingegneri e ricercatori assegnati a una task force intergiurisdizionale soprannominata “Common Ground” e dipendenti in “Integrity Teams” di nuova creazione incorporati in tutta l’azienda.

Display che mostra i post dei social media durante un'udienza della House Intelligence Committee nel 2017.

Display che mostra i post dei social media durante un’udienza della Commissione Intelligence della Camera nel 2017.

Foto: Andrew Harrer/Bloomberg News

Anche prima della creazione delle squadre nel 2017, i ricercatori di Facebook avevano trovato segni di problemi. Una presentazione del 2016 che nomina come autore una ricercatrice e sociologa di Facebook, Monica Lee, ha trovato contenuti estremisti che prosperano in più di un terzo dei grandi gruppi politici tedeschi sulla piattaforma. Sommersi da contenuti razzisti, cospirativi e filorussi, i gruppi erano sproporzionatamente influenzati da un sottoinsieme di utenti iperattivi, nota la presentazione. La maggior parte di loro erano privati o segreti.

L’alto numero di gruppi estremisti era preoccupante, dice la presentazione. Peggio ancora era la consapevolezza di Facebook che i suoi algoritmi erano responsabili della loro crescita. La presentazione del 2016 afferma che “il 64% di tutte le adesioni a gruppi estremisti sono dovute ai nostri strumenti di raccomandazione” e che la maggior parte dell’attività proveniva dagli algoritmi della piattaforma “Groups You Should Join” e “Discover”: “I nostri sistemi di raccomandazione fanno crescere il problema.”

La signora Lee, che rimane a Facebook, non ha risposto alle richieste di informazioni. Facebook ha rifiutato di rispondere alle domande su come ha affrontato il problema nella presentazione, che altri dipendenti hanno detto che non era unico per la Germania o il prodotto Groups. In una presentazione a una conferenza internazionale sulla sicurezza nel mese di febbraio, il signor Zuckerberg ha detto che la società cerca di non raccomandare i gruppi che violano le sue regole o sono polarizzanti.

“Abbiamo imparato molto dal 2016 e non siamo la stessa azienda oggi”, ha detto una portavoce di Facebook. “Abbiamo costruito un robusto team di integrità, rafforzato le nostre politiche e pratiche per limitare i contenuti dannosi, e usato la ricerca per capire l’impatto della nostra piattaforma sulla società in modo da continuare a migliorare.” Facebook a febbraio ha annunciato 2 milioni di dollari di finanziamenti per proposte di ricerca indipendenti sulla polarizzazione.

Il team Common Ground ha cercato di affrontare direttamente il problema della polarizzazione, ha detto persone che hanno familiarità con il team. Gli scienziati di dati coinvolti nello sforzo hanno scoperto che alcuni gruppi di interesse – spesso gruppi basati su hobby senza un esplicito allineamento ideologico – hanno portato persone di diversa provenienza insieme in modo costruttivo. Altri gruppi sembravano incubare impulsi per combattere, diffondere falsità o demonizzare una popolazione di estranei.

Condividi i tuoi pensieri

Cosa dovrebbero fare Facebook e altri giganti dei social media, se c’è qualcosa, per ridurre la polarizzazione tra i loro utenti? Unisciti alla conversazione qui sotto.

In linea con l’impegno di Facebook alla neutralità, i team hanno deciso che Facebook non dovrebbe controllare le opinioni delle persone, fermare i conflitti sulla piattaforma o impedire alle persone di formare comunità. La diffamazione dei propri oppositori era il problema, secondo un documento interno del team.

“Non abbiamo esplicitamente intenzione di costruire prodotti che tentano di cambiare le convinzioni delle persone”, afferma un documento del 2018. “Siamo concentrati su prodotti che aumentano l’empatia, la comprensione e l’umanizzazione dell'”altra parte”. “

Temi caldi

Una proposta ha cercato di salvare le conversazioni nei gruppi deragliati da temi caldi, secondo le persone che hanno familiarità con il team e i documenti interni. Se due membri di un gruppo Facebook dedicato alla genitorialità litigavano sulle vaccinazioni, i moderatori potevano stabilire un sottogruppo temporaneo per ospitare la discussione o limitare la frequenza dei post sull’argomento per evitare una guerra di fuoco pubblica.

Un’altra idea, i documenti mostrano, era quella di modificare gli algoritmi di raccomandazione per suggerire una gamma più ampia di gruppi Facebook che le persone incontrerebbero normalmente.

Costruire queste caratteristiche e combattere la polarizzazione potrebbe avere un costo di minore impegno, il team di Common Ground ha avvertito in un documento di metà 2018, descrivendo alcune delle sue proposte come “anti-crescita” e richiedendo a Facebook di “prendere una posizione morale.”

Agire richiederebbe a Facebook di formare partnership con accademici e organizzazioni non profit per dare credibilità ai cambiamenti che riguardano la conversazione pubblica, dice il documento. Questo stava diventando difficile mentre l’azienda arrancava nelle controversie dopo le elezioni presidenziali del 2016.

“La gente non si fida di noi”, diceva una presentazione creata nell’estate del 2018.

Chris Cox, precedentemente chief product officer di Facebook, nel 2018.

Chris Cox, precedentemente chief product officer di Facebook, nel 2018.

Foto: stephen lam/Reuters

Gli ingegneri e gli scienziati di dati dei team di integrità di Facebook – primo fra tutti, gli scienziati che hanno lavorato su newsfeed, il flusso di post e foto che accoglie gli utenti quando visitano Facebook – sono arrivati al problema della polarizzazione in modo indiretto, secondo persone che hanno familiarità con i team. Richiesti di combattere fake news, spam, clickbait e utenti inautentici, i dipendenti hanno cercato modi per diminuire la portata di questi mali. Una prima scoperta: Il cattivo comportamento proveniva in modo sproporzionato da un piccolo pool di utenti iperpartitici.

Una seconda scoperta negli Stati Uniti ha visto una maggiore infrastruttura di account ed editori di estrema destra che di estrema sinistra. Osservatori esterni stavano documentando lo stesso fenomeno. Il divario significava che anche azioni apparentemente apolitiche come la riduzione della diffusione di titoli clickbait – sulla falsariga di “Non crederete a quello che è successo dopo” – hanno colpito il discorso conservatore più del contenuto liberale in aggregato.

Questo è stato un duro colpo per il signor Kaplan, ha detto la gente che lo ha sentito discutere le proposte Common Ground e Integrity. Un ex vice capo del personale di George W. Bush, il signor Kaplan è diventato più coinvolto nelle decisioni di classificazione dei contenuti dopo le accuse del 2016, Facebook aveva soppresso le notizie di tendenza da parte di punti vendita conservatori. Una revisione interna non ha dimostrato le affermazioni di parzialità, l’allora consigliere generale di Facebook Colin Stretch ha detto al Congresso, ma il danno alla reputazione di Facebook tra i conservatori era stato fatto.

Il signor Zuckerberg a Capitol Hill per le audizioni del Congresso nel 2018.

Il signor Zuckerberg a Capitol Hill per le audizioni del Congresso nel 2018.

Foto: Erin Scott/Zuma Press

Ogni nuova iniziativa significativa in materia di integrità ha dovuto cercare l’approvazione non solo dei responsabili dell’ingegneria ma anche dei rappresentanti dei dipartimenti di politica pubblica, legale, marketing e pubbliche relazioni.

Lindsey Shepard, un ex direttore del marketing dei prodotti di Facebook che ha contribuito a impostare il processo Eat Your Veggies, ha detto che è nato da ciò che credeva fossero ragionevoli preoccupazioni che gli ingegneri troppo zelanti potessero lasciare che la loro politica influenzasse la piattaforma.

“Gli ingegneri che erano abituati ad avere autonomia forse hanno ruotato un po’ troppo” dopo le elezioni del 2016 per affrontare i difetti percepiti di Facebook, ha detto. Le riunioni hanno aiutato a tenere tutto sotto controllo. “Alla fine della giornata, se non si raggiungeva il consenso, inquadravamo i diversi punti di vista, e poi venivano portati a Mark.”

Progetti bloccati

La disapprovazione del team del signor Kaplan o del dipartimento di comunicazione di Facebook potrebbe far fallire un progetto, ha detto persone che hanno familiarità con lo sforzo. Le revisioni negative del policy-team hanno ucciso gli sforzi per costruire un sistema di classificazione per i contenuti iperpolarizzati. Allo stesso modo, il processo Eat Your Veggies ha chiuso gli sforzi per sopprimere il clickbait sulla politica più che su altri argomenti.

Le iniziative che sono sopravvissute sono state spesso indebolite. Il signor Cox ha corteggiato Carlos Gomez Uribe, ex capo del sistema di raccomandazione di Netflix Inc. Nel giro di pochi mesi, il signor Uribe ha iniziato a spingere per ridurre l’impatto fuori misura che gli utenti iperattivi avevano.

Secondo le metriche basate sull’impegno di Facebook, un utente che ama, condivide o commenta 1.500 pezzi di contenuto ha più influenza sulla piattaforma e i suoi algoritmi di uno che interagisce con solo 15 messaggi, permettendo ai “super-condivisori” di soffocare gli utenti meno attivi. Gli account con impegno iperattivo erano molto più partigiani in media rispetto ai normali utenti di Facebook, ed erano più propensi a comportarsi in modo sospetto, a volte apparendo sulla piattaforma fino a 20 ore al giorno e impegnandosi in comportamenti simili allo spam. Il comportamento suggeriva che alcuni fossero persone che lavoravano a turni o bot.

Una proposta sostenuta dal team del signor Uribe, chiamata “Sparing Sharing”, avrebbe ridotto la diffusione di contenuti sproporzionatamente favoriti dagli utenti iperattivi, secondo le persone che hanno familiarità con essa. I suoi effetti sarebbero stati più pesanti sui contenuti favoriti dagli utenti di estrema destra e sinistra. Gli utenti di mezza tacca avrebbero guadagnato influenza.

Facebook COO Sheryl Sandberg a un'audizione della Commissione Intelligence del Senato, 2018.

Facebook COO Sheryl Sandberg a un’audizione della Commissione Intelligence del Senato, 2018.

Foto: jim lo scalzo/EPA/

Il signor Uribe lo chiamava “la faccia felice”, hanno detto alcune persone. Gli scienziati dei dati di Facebook credevano che avrebbe potuto rafforzare le difese della piattaforma contro lo spam e gli sforzi coordinati di manipolazione del tipo che la Russia ha intrapreso durante le elezioni del 2016.

Il signor Kaplan e altri dirigenti senior di Facebook hanno respinto l’idea sulla base che potrebbe danneggiare un ipotetico gruppo di Girl Scout, ha detto persone che hanno familiarità con i suoi commenti. Supponiamo, ha chiesto loro Kaplan, che le ragazze siano diventate super-sharer di Facebook per promuovere i biscotti? Mitigare la portata degli utenti più dedicati della piattaforma li ostacolerebbe ingiustamente, ha detto.

Il signor Kaplan nella recente intervista ha detto che non ricorda di aver sollevato l’esempio delle Girl Scout, ma era preoccupato per l’effetto sugli editori che hanno seguito con entusiasmo.

Il dibattito è stato portato al signor Zuckerberg, che ha sentito entrambe le parti in una breve riunione, ha detto persone informate sull’argomento. La sua risposta: Fallo, ma taglia la ponderazione dell’80%. Il signor Zuckerberg ha anche segnalato che stava perdendo interesse nello sforzo di ricalibrare la piattaforma in nome del bene sociale, hanno detto, chiedendo di non portargli di nuovo qualcosa del genere.

Il signor Uribe ha lasciato Facebook e l’industria tecnologica entro l’anno. Ha rifiutato di discutere il suo lavoro a Facebook in dettaglio, ma ha confermato il suo sostegno alla proposta Sparing Sharing. Ha detto di aver lasciato Facebook a causa della sua frustrazione con i dirigenti dell’azienda e la loro stretta attenzione su come i cambiamenti di integrità avrebbero influenzato la politica americana. Mentre le proposte come la sua hanno colpito in modo sproporzionato i conservatori negli Stati Uniti, ha detto, in altri paesi era vero il contrario.

Dagli archivi

In un discorso alla Georgetown University, Mark Zuckerberg ha discusso i modi in cui Facebook ha rafforzato i controlli su chi può fare pubblicità politica, pur mantenendo il suo impegno per la libertà di parola. VIDEO: FACEBOOK / FOTO: NICK WASS/ASSOCIATED PRESS (Originariamente pubblicato il 17 ottobre 2019) The Wall Street Journal Interactive Edition

Altri progetti hanno incontrato il destino di Sparing Sharing: indebolito, non ucciso. Le vittorie parziali includevano gli sforzi per promuovere le storie di notizie che raccolgono l’impegno di un’ampia base di utenti, non solo i partigiani, e le sanzioni per gli editori che hanno ripetutamente condiviso notizie false o indirizzato gli utenti a pagine ad-choked.

Il tiro alla fune è stato risolto in parte dal crescente furore sullo scandalo di Cambridge Analytica. In una riorganizzazione del settembre 2018 del team newsfeed di Facebook, i manager hanno detto ai dipendenti che le priorità dell’azienda si stavano spostando “dal bene della società al valore individuale”, hanno detto le persone presenti alla discussione. Se gli utenti volevano visualizzare o pubblicare abitualmente contenuti ostili su gruppi che non piacevano, Facebook non li avrebbe soppressi se il contenuto non violava specificamente le regole della società.

Sede di Facebook a Menlo Park, California, questo mese.

La sede di Facebook a Menlo Park, in California, questo mese.

Foto: john g. mabanglo/EPA/

Il signor Cox ha lasciato l’azienda diversi mesi dopo, dopo disaccordi riguardanti il passaggio di Facebook alla messaggistica privata criptata. Non aveva vinto la maggior parte delle lotte in cui si era impegnato sulla classifica di integrità e sui cambiamenti del prodotto Common Ground, hanno detto le persone coinvolte nello sforzo, e la sua partenza ha lasciato i restanti collaboratori che lavorano su tali progetti senza un sostenitore di alto livello.

Il team Common Ground si è sciolto. L’Integrity Teams esiste ancora, anche se molti membri dello staff senior hanno lasciato l’azienda o si sono diretti verso la piattaforma Instagram di Facebook.

Il signor Zuckerberg ha annunciato nel 2019 che Facebook avrebbe eliminato i contenuti che violano gli standard specifici, ma dove possibile avrebbe adottato un approccio hands-off per controllare il materiale che non viola chiaramente i suoi standard.

“Non si può imporre la tolleranza dall’alto verso il basso”, ha detto in un discorso di ottobre alla Georgetown University. “Deve venire dalle persone che si aprono, condividono le esperienze e sviluppano una storia condivisa per la società di cui tutti ci sentiamo parte. È così che facciamo progressi insieme.”

Scrivete a Jeff Horwitz su [email protected] e Deepa Seetharaman su [email protected]

Leave a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *