I Facebook Files, spiegati

Dopo lo scandalo di Cambridge Analytica, i Facebook Files potrebbero essere un nuovo momento di svolta per la storia dei social media. Il Wall Street Journal è venuto in possesso di documenti interni di Facebook che dimostrano come a Menlo Park fossero pienamente consapevoli dell’impatto, spesso negativo, delle proprie piattaforme: Facebook, appunto, e Instagram. Cosa ancora peggiore: nonostante questo, tuttavia, hanno fatto ben poco per risolvere i problemi che sono emersi di volta in volta.

Negli Stati Uniti, proprio per questo, molti hanno cominciato a paragonare questo comportamento a quello di Big Tobacco, cioè il gruppo delle aziende più grandi dell’industria del tabacco. Nel 1996 Big Tobacco fu travolta dalle dichiarazioni del whistleblower Jeffrey Wigand: venne fuori che, mentre in pubblico si negava la pericolosità del tabacco, ricerche interne dimostravano il contrario. I Facebook Files dimostrano che, dentro Facebook, c’è la chiara consapevolezza dei problemi e dei danni che i propri social media possano causare.

Ecco alcune delle rivelazioni dei Facebook Files

  • 5,8 milioni di VIP sono inseriti nel sistema XCheck, uno scudo che permette a queste persone di agire indisturbate su Facebook. XCheck, che potremmo definire il tribunale speciale di Facebook, permette a una élite di persone di pubblicare e non vedersi rimuovere contenuti che violano le regole della piattaforma. Una lista parziale delle persone incluse in XCheck comprende Neymar, Donald Trump (prima del ban), ovviamente Mark Zuckerberg e anche il cane influencer Doug The Pug.
  • Facebook ha prove che Instagram fa male a ragazze e ragazzi. Ricerche interne hanno evidenziato che il 32% delle ragazze adolescenti sostiene che, quando si sentono a disagio per il loro corpo, Instagram le fa sentire peggio. Sempre secondo queste ricerche, inoltre, 13% degli adolescenti britannici e 6% di quelli americani che hanno riportato pensieri suicidi li fanno risalire a Instagram. Facebook, in una nota pubblicata sul proprio blog, ha comunque sottolineato che non esiste ancora un’opinione unanime nella comunità scientifica riguardo l’impatto dei social media sulla salute mentale.
  • Nel 2018 Facebook sarebbe diventato un posto più cattivo. I motivi sono legati a cambiamenti dell’algoritmo che, in teoria, avrebbero dovuto favorire le interazioni tra amici e familiari. I documenti interni dimostrano che la mossa era pensata per frenare il drastico calo dell’engagement che si stava verificando. Il risultato fu comunque che gli stessi meccanismi che dovevano premiare le «meaningful social interactions» hanno favorito la diffusione dell’odio. Il team di un partito politico, non citato nei documenti di Facebook, aveva segnalato che era passato a pubblicare 8 contenuti negativi su 10 rispetto ai 5 su 10 del periodo precedente all’aggiornamento dell’algoritmo.
  • Il 90% degli utenti di Facebook non vive negli Stati Uniti o in Canada, ma solo il 13% del tempo dei moderatori è dedicato a rimuovere informazioni false fuori dagli Stati Uniti. Ciò nonostante Facebook sappia che nei paesi in sviluppo la piattaforma venga usata, tra le altre cose, per incitare la violenza o addirittura favorire il traffico di esseri umani.

Breve storia della percezione di Internet

È da relativamente poco che stiamo iniziando a guardare al lato negativo di Internet. Per anni, molti anni, Internet e tutto ciò che c’era al suo interno era visto come qualcosa di innocuo. Un passatempo per nerd o comunque una «forza del bene». Su YouTube ho recuperato questa «Kids’ Guide to the Internet» del 1997:

Guardarlo quasi venticinque anni dopo è abbastanza curioso. Al di là del teatrino cringe, è da notare come di Internet siano messi in luce solo e soltanto aspetti positivi. È una pubblicità di fine anni Novanta, che ci ricorda anche come la rete fosse un posto molto diverso, senza social network. La narrativa di Internet come forza del bene e della Silicon Valley come luogo delle meraviglie, popolata da novelli Leonardo animati da intenti nobili, è durata almeno fino agli anni Dieci del Duemila. (Fa un certo effetto scrivere «anni Dieci del Duemila»). Il picco è stato toccato durante la Primavera araba.

A un decennio di distanza il peso di Facebook e Twitter in quelle rivolte è stato rivisto. Ciò non toglie che quella è stata la prima volta in cui la massa si è resa conto che questa cosa di Internet potesse essere più di un passatempo per nerd. Per la prima volta si è pensato e capito che quello che capitava online era ormai intrecciato con ciò che capitava offline. La stessa cosa è capitata nel 2016, ma con un completo rovesciamento di paradigma.

Internet e i social media sono di colpo diventati gli strumenti di un nuovo Medioevo. Brexit, l’elezione di Donald Trump, la post-verità, le fake news. Nel giro di 24 mesi nuovi temi e nuovi termini hanno invaso le nostre vite. Lo scandalo di Cambridge Analytica del 2018 ha fatto il resto. Fu un’altra prima volta: Facebook, che ancora non era dominato da boomer e gattini, era finito sotto gli occhi dell’opinione pubblica.

Negli anni precedenti una delle bufale che più girava sulla piattaforma era quella di Facebook a pagamento. Era abbastanza frequente vedere anche persone insospettabili condividere lunghissimi post che avrebbero dovuto proteggere dal rischio di pagare Facebook. Quella bufala, tuttavia, testimoniava che effettivamente esisteva una domanda più o meno latente: come era possibile che tutta la giostra fosse gratuita?

Lo scandalo di Cambridge Analytica diede la risposta: dati, il petrolio del capitalismo della sorveglianza. Oggi è abbastanza chiaro che i metodi di Cambridge Analyitica fossero tutt’altro che ipersofisticate strategie di marketing a colpo sicuro. Quest’articolo di Vox fa abbastanza chiarezza sulla vicenda. È proprio allora però che si affermata un’idea ormai comune: i social network, attraverso la raccolta dei dati, la pubblicità mirata e gli algoritmi di filtraggio e ordinamento dei contenuti, stanno cambiando le nostre società. The Social Dilemma, il documentario Netflix del 2020, ha aggiunto – con tutti i suoi limiti – un altro pezzo a questa storia.

Il documentario, in versione integrale.

            Nel documentario, al di là dei toni da Black Mirror o da romanzo distopico, emergono punti di vista interessanti su temi molto chiacchierati, ma poco conosciuti dai più. Per esempio: la dipendenza da social network, il fenomeno delle echo chambers, la polarizzazione online, le tecniche per tenerci incollati agli smartphone. Certo, a conti fatti non c’è nessun «dilemma» nel racconto: i social media sono raccontati come il male assoluto. Un punto di vista diverso è completamente assente. Tuttavia, al netto dei punti deboli del documentario, la grande attenzione che ha ricevuto – durante quella che in Italia è stata la seconda ondata di Covid – ha acceso la discussione intorno agli effetti negativi dei social network.

Perché i Facebook Files sono diversi?

Casey Newton, giornalista americano esperto di big tech, ha sottolineato come questa sia la «più grande crisi [per Facebook] dallo scandalo Cambridge Analytica». C’è qualcosa di profondamente diverso rispetto al passato: questa volta la fuga di notizie è partita dall’interno. Solo qualche giorno prima dei Facebook Files, il 16 settembre 2021, la MIT Technology Review aveva ottenuto da un ex dipendente di Facebook un altro report interno che dimostra come, prima delle elezioni statunitensi del 2020, contenuti prodotti da troll farms dell’Europa dell’Est raggiungessero 140 milioni di americani al mese. Questa volta, dunque, sappiamo ciò che Facebook sa e ciò che Facebook ha fatto o non ha fatto per risolvere i suoi problemi.

Il punto è che si tratta di problemi senza precedenti perché mai nella storia è esistito qualcosa come Facebook. Come scrive il Wall Street Journal,

L’ambizione dichiarata di Facebook è stata a lungo quella di connettere le persone. Mentre si è espansa negli ultimi 17 anni, dagli studenti di Harvard a miliardi di utenti globali, ha lottato con la realtà disordinata di riunire voci disparate con motivazioni diverse, dalle persone che si augurano buon compleanno ai cartelli della droga messicani che conducono affari sulla piattaforma.

E ancora:

In una riunione della leadership di Facebook a Menlo Park e dintorni all’inizio di questo mese [settembre 2021], alcuni funzionari hanno discusso se Facebook sia diventato troppo grande, con troppi dati che fluiscono per gestire tutti i suoi contenuti, hanno affermato persone a conoscenza della riunione. Il tono di alcuni partecipanti è stato: “Abbiamo creato la macchina e non possiamo controllarla”, ha detto una di queste persone.

   L’altro punto è che Facebook, una società per azioni, funziona. Per continuare a funzionare, semplificando, ha bisogno che sempre più persone e sempre più spesso passino tempo sulla piattaforma. Così facendo potrà mostrare loro più pubblicità altamente personalizzata, alimentando il circolo che rende Facebook tanto profittevole. Facebook raccoglie dati su ciascuno di noi e sulla base di quei dati costruisce modelli anonimi che trasformano le nostre identità in un sistema di gusti, tratti psicologici, caratteristiche demografiche e abitudini.

Tristian Harris spiega come guadagna Facebook (e gli altri social)

            Sulla base di questi modelli – per i quali, per esempio, io sono un uomo tra i 18 e 25 anni, che lavora nel marketing, ha un buon livello d’istruzione e viaggia abbatanza spesso – l’algoritmo di Facebook decide quali contenuti farmi vedere. Parte di questi contenuti saranno sponsorizzati, cioè pagati da chi vuole raggiungere un tipo di persona simile a me. Questi contenuti, per inciso, possono tanto essere la pubblicità di un paio di scarpe come un articolo che diffonde una certa visione del mondo oppure un video complottista. Per l’algoritmo, finché si rispetta le spesso cervellotiche regole della piattaforma, uno vale uno.

Questo ci aiuta a capire perché, nel 2018, Mark Zuckerberg abbia affermato quella che possiamo definire neutralità dell’engagement. Proprio Zuck, verso fine 2017, aveva annunciato un cambio di rotta: «We want the time people spend on Facebook to encourage meaningful social interactions». Il problema da risolvere era abbastanza urgente, come adesso hanno rivelato i Facebook Files: «Commenti, mi piace e ricondivisioni sono diminuiti fino al 2017, mentre i post [il classico testo più foto] hanno continuato un declino lungo anni che nessun intervento sembrava in grado di fermare […]. Il timore era che alla fine gli utenti potessero smettere del tutto di usare Facebook». Dentro Facebook non è mai stato chiaro il motivo di questo calo, ma un’ipotesi è che i video e i contenuti prodotti da professionisti fossero parte del problema. Così, attraverso un cambiamento dell’algoritmo, si decise di dare più risalto ai post di amici e familiari.

Le MSI, cioè le «interazioni sociali significative» di cui parlava Zuck nel suo post del 2017, sono così diventate la principale metrica per classificare i post. Questo era il sistema di punti interno usato per misurare la “significatività” di un post:

  • 1 like valeva 1 punto;
  • ogni reaction, condivisione senza testo o risposta a un invito valeva 5 punti;
  • un commento, un messaggio, una condivisione con testo valeva 30 punti.

Altri punti venivano assegnati in base al fatto che l’interazione fosse tra membri di un gruppo, amici o sconosciuti. L’idea funzionò. Facebook si aspettava che il tempo speso sulla piattaforma calasse: così fu, perché i video iniziarono ad avere meno diffusione. Tuttavia, secondo un documento di agosto 2018, l’aggiornamento dell’algoritmo migliorò la metrica più importante di tutte: le persone attive quotidianamentedaily active people»). Presto però era stata chiara un’altra cosa: cercando di rendere la piattaforma più simile a una cena di famiglia, Facebook era riuscito a trasformarla in una piazza dove lo scontro, l’insulto e la lite era all’ordine del giorno.

Ai ricercatori era apparso evidente: i contenuti più condivisioni erano quelli intrisi d’odio nonché le fake news. L’alto punteggio che le condivisioni avevano e la naturale tendenza dei contenuti più polarizzati a generare discussioni faceva il resto. Proprio per questo, come accennavamo all’inizio, alcuni partiti europei «avevano cambiato le loro posizioni politiche in modo che risuonassero di più sulla piattaforma». L’engagement per Facebook era neutrale, eppure il suo algoritmo stava finendo per favorire – e incentivare – l’estremismo.

Una delle soluzioni immaginate dai dipendenti di Facebook consisteva nel ridurre la diffusione di contenuti che potevano essere condivisi da lunghe catene di utenti. Zuckerberg stesso, stando a un memo di aprile 2020, si sarebbe opposto perché spaventato dall’ipotesi che un cambiamento simile avesse ridotto l’engagement sulla piattaforma. Nel 2021, tuttavia, Facebook si è impegnato a diminuire i contenuti politici sul feed – ottenendo buoni risultati – e, ad agosto 2021, ha annunciato un cambiamento simile a quello proposto ad aprile 2020: stanno testando se dare «meno enfasi» – aka meno punti – a commenti e condivisioni riguardo contenuti politici.

Resta vedere adesso cosa succederà in e a Facebook. Intanto, stando a quanto scrive The Markup, ha reso più difficile alle persone fornire i dati del proprio News Feed a ricercatori esterni. Parallelamente, racconta il New York Times, Mark Zuckerberg ha dato vita al Project Amplify. Il progetto fa parte di un piano ben più ampio per ripulire l’immagine di Facebook e consiste nel dare maggior risalto, all’interno del feed, a contenuti che mettono la compagnia in buona luce. Ecco, probabilmente non vedrete mai questo articolo nel vostro feed di Facebook.

P.S.: Ironicamente, come fa notare Casey Newton, Facebook ha passato anni a minimizzare l’impatto che i contenuti del suo News Feed possono avere sul plasmare la percezione individuale e l’opinione pubblica. Eppure, con il Project Amplify, sta proprio scommettendo su questo. Vedremo se avranno ragione. Se vuoi restare aggiornato su questi e altri temi, iscriviti alla newsletter.

Share on whatsapp
Share on facebook
Share on twitter
Share on linkedin

Leggi anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.