Come la filter bubble ti sta manipolando silenziosamente

Ascolta quest'articolo come audio:

La realtà è uguale per tutti? La risposta ti potrebbe sembrare scontata, ma la teoria delle filter bubble rischia di farti venire qualche dubbio.

In quest’articolo vedremo esattamente cos’è la bolla di filtraggio, come distorce la nostra realtà e quali sono i suoi effetti negativi. Alla fine capiremo anche se è possibile evitare la filter bubble.

Prima di iniziare, lascia che mi presenti.

Sono un pubblicitario. In questi anni ho imparato diverse cose su come funzionano le piattaforme che usiamo ogni giorno e che effetti hanno su di noi. Se ti interessano questi temi, puoi iscriverti alla mia newsletter.

Da quattro anni mi occupo di pubblicità online e, come vedrai, capire come funziona è fondamentale per comprendere come siano nate queste bolle di filtraggio.

Bene, ora ci siamo.

Partiamo dal capire perché la filter bubble è così insidiosa.

I pesci, l’acqua e la filter bubble

David Foster Wallace, uno degli scrittori più geniali del nostro secolo, alla consegna dei diplomi di un college americano raccontò questa breve storiella.

Ci sono due giovani pesci che, nuotando, incontrano un pesce anziano. Il pesce anziano chiede: «Ragazzi, com’è l’acqua?». I due pesci giovani continuano per la loro strada, poi si guardano perplessi e uno dei due fa: «Che cos’è l’acqua?».

Foster Wallace scrive che «il succo della storiella dei pesci è semplicemente che le realtà più ovvie, onnipresenti e importanti sono spesso le più difficili da capire e da discutere».

Ora, il senso della storiella non cambierebbe di molto se sostituissimo «acqua» con «filter bubble». Anche io e te, come i due giovani pesci, siamo immersi nella nostra bolla di filtraggio – invisibile e impercettibile.

Ogni società, almeno dall’invenzione della stampa in poi, ha avuto forme di filtraggio delle informazioni.

Sono sempre esistiti ed esistono dei “guardiani delle informazioni”, ovvero persone in carne e ossa – editori, giornalisti, scrittori, registi, musicisti – che decidono quali pezzi di realtà raccontare e dunque a cosa dare più o meno risalto.

Questi guardiani hanno, almeno in parte, perso il loro monopolio con l’avvento di quello che è chiamato Web 2.0.

Ci sono due parole con cui possiamo descrivere il Web 2.0, che è l’era di Internet che ancora viviamo.

La prima di queste parole è democratizzazione.

L’Internet degli albori, quello dei modem che all’accensione sembravano macchinette del caffè, era poco diverso dai giornali o dalla televisione. Tu, seduto davanti al computer, potevi guardare, ma non partecipare.

Blog, forum e social network hanno cambiato il gioco. Oggi ci sembra la normalità, ma all’epoca è stata una rivoluzione. All’improvviso tutti abbiamo avuto l’opportunità di pubblicare i nostri contenuti. Tutti siamo diventati potenziali giornalisti, scrittori, musicisti, editori.

Imperi come Google e Facebook sono sorti da questa rivoluzione. Fiumi di contenuti hanno invaso il web, senza che i colossi digitali dovessero sborsare un solo dollaro.

Se questa è stata la loro grande fortuna, è diventata presto anche il loro più grande problema da risolvere.

La soluzione è l’atto di fondazione della filter bubble: la personalizzazione, l’altro pilastro del Web 2.0.

Teoria e pratica degli algoritmi di Instagram, Facebook, TikTok e Google

Siamo abituati a pensare che più scelta abbiamo e meglio è. Ma è così? Prendere decisioni è faticoso – anche quando si tratta di decisioni semplici come scegliere un film.

Immagina quando apri Netflix e non hai la minima idea di cosa vedere. Quante volte ti capita di finire la serata a scorrere il catalogo, senza guardare niente?

Davanti al catalogo di Netflix siamo come l’asino di Buridano, cioè un asino che si trova in mezzo a due balle di fieno perfettamente uguali. Non sa quale scegliere e, alla fine, muore di fame.

Dilemmi, più o meno grandi, nascono in noi ogni volta che abbiamo più opzioni. E, all’aumentare delle possibilità, statisticamente diminuisce il numero di decisioni che prendiamo.

È quello che lo psicologo Barry Schwartz, in un ormai celeberrimo Ted, chiamò «paradosso della scelta».

Questa indecisione è nemica dei profitti delle Big Tech. Meno decisioni prese significa meno tempo passato su Facebook, meno serie tv viste su Netflix, meno ricerche su Google, meno acquisti su Amazon. Ergo, meno soldi.

Ecco perché la missione dei loro ingegneri è renderci le scelte quanto più semplici possibile. La personalizzazione è l’escamotage più usato e vincente per riuscirci.

L’idea alla base di tutti i sistemi di personalizzazione è semplice: per semplificare la scelta bisogna proporci contenuti e oggetti che, statisticamente, è più probabile attirino la nostra attenzione.

Gli algoritmi che regolano le nostre vite online hanno proprio questo compito: mettere davanti ai nostri occhi ciò che ci terrà incollati allo schermo.

Ciò che questi algoritmi fanno è collezionare indizi per costruire una teoria dell’identità di chi sta scrollando il feed.

L’algoritmo di Google tiene traccia delle ricerche che facciamo. L’algoritmo di Facebook, così come quello di Instagramo TikTok, nota i contenuti con cui abbiamo interagito, quali abbiamo guardato per più tempo, cosa condividiamo con gli amici.

Tutti questi indizi permettono alla piattaforme di distinguere, per esempio, una persona di destra da una di sinistra oppure un vegano da un carnivoro. Queste sono informazioni d’oro per loro – principalmente per due motivi.

Il primo ha a che vedere con il numero di scelte che prendiamo. Almeno fino al 2018, i video consigliati dall’algoritmo generavano il 70% del tempo passato su YouTube. Più dell’80% delle serie tv viste su Netflix sono state scoperto attraverso i suggerimenti dell’algoritmo.

Se c’è un sistema che indirizza le nostre decisioni o addirittura decide per noi, è chiaro che la fatica di scegliere si abbatte.

Ergo, guardiamo più video, mettiamo like a più post, facciamo più ricerche e, così facendo, le piattaforme raccolgono sempre più dati su di noi. La teoria su chi siamo diventa sempre più precisa.

Qui entra in gioco il secondo motivo per cui questa teoria è così preziosa. Il motivo è che permette a Google, Facebook o chiunque altro abbia informazioni su chi siamo di vendere pubblicità mirata.

Cosa significa? Facciamo un esempio. Un brand di cibo vegano può pagare Facebook o Google per raggiungere solo persone vegane, con un’altissima precisione e dunque avendo potenzialmente un altissimo ritorno di vendite.

Ora, è innegabile che il sistema funzioni. Noi vediamo contenuti e addirittura pubblicità che ci interessa. Le aziende fanno pubblicità migliore, a un costo molto più basso. Le piattaforme fanno profitti mai visti prima d’ora.

Dov’è il problema? Come dicevamo prima, quest’estrema personalizzazione è l’atto di fondazione della bolla di filtraggio.

Come si crea una bolla di filtraggio?

Era il 2011 quando Eli Parisier, attivista e imprenditore statunitense, ha iniziato a parlare di «filter bubble».

Come ha spiegato in un libro e in un Ted Talk, l’insieme dei sistemi di personalizzazione delle piattaforme online crea intorno a noi una bolla:

filter bubble

I contenuti di questa bolla ci sembrano uno specchio fedele della realtà. La verità è che rispecchia solo i nostri interessi, isolandoci dalle opinioni diverse dalla nostra.

Man mano inizia a sembrarci che tutti la pensino come noi. È così che la nostra percezione della realtà viene manipolata. Ciò che succede, invece, è che quello che guardiamo è uno specchio dei nostri interessi e di chi siamo.

Tutto questo accade senza che noi ce ne accorgiamo. È senza che ce ne accorgiamo che ci caliamo nella echo chamber, cioè la camera dell’eco dove troviamo conferma dei nostri pregiudizi.

Molto spesso tendiamo a evitare ciò che mette in discussione ciò che crediamo vero. Siamo più portati, invece, a cercare prove che dimostrano che abbiamo ragione – o, molto spesso, pieghiamo la realtà affinché lo dimostri. Gli psicologi descrivono questo fenomeno come «bias della conferma».

I bias psicologici sono delle falle nel funzionamento della nostra mente e il confirmation bias è uno di quelli più infidi e pericolosi. Gli algoritmi dei social network, come dicevamo, sono progettati per tenerci quanto più tempo possibile incollati agli schermi.

Uno dei migliori modi per riuscirci è mostrarci contenuti che ci suscitino emozioni. Emozione deriva dal latino emovere, cioè smuovere, agitare. Le emozioni, positive o negative che siano, ci spingono ad agire.

E le azioni più semplici sui social network sono più o meno sempre le stesse: commentare, mettere mi piace, condividere. Interagire, dunque restare più tempo online.

Questo spiega perché contenuti altamente polarizzanti, che spesso stuzzicano la rabbia o l’indignazione del pubblico, ottengono spesso grande diffusione, come dimostrato anche dai Facebook Files, cioè le ricerche interne trapelate da Facebook.

Il mix tra personalizzazione e polarizzazione può essere davvero esplosivo. Gli effetti più negativi di una filter bubblenascono proprio da questo incontro.

La storia di Caleb Cain è un buon esempio delle conseguenze che la bolla di filtraggio può avere sulla mente umana.

Gli effetti negativi della filter bubble: come si diventa estremisti su YouTube

Qualche anno fa questa storia fu raccontata dal New York Times. Tutto iniziò nel 2014.

All’epoca Caleb aveva mollato il college. Era confuso, alla ricerca di una direzione da prendere nella vita. Un giorno capitò su un video di Stefan Molyneux, un guru del self-help.

Il self-help è un universo variegato, popolato da persone che raccontano come migliorare la propria vita. Proprio quella che Caleb cercava: Molyneux attirò la sua attenzione.

Molyneux, in alcuni dei suoi contenuti, trattava anche temi a dir poco controversi. Sosteneva, per esempio, che il femminismo fosse una forma di socialismo e che le politiche progressiste stessero ostacolando i ragazzi.

Nei due anni successivi lo YouTube di Caleb cominciò a riempirsi di video che sostenevano tante e diverse teorie del complotto.

Dato che guardava i video di Molyneux, YouTube proponeva a Caleb video simili, che era statisticamente più probabile gli piacessero e lo tenessero più tempo sulla piattaforma.

Da liberal quale si definiva finì per cominciare a pensare come un estremista.

Ciò che era successo è che l’algoritmo aveva costruito un vero e proprio profilo psicologico di Caleb, individuando un tratto della sua personalità che lo portava a essere incline al pensiero complottista.

In Il filtro, il libro di Parisier sulla bolla di filtraggio, racconta ciò che gli era stato detto da Dean Eckles, allora dottorando di Stanford e consulente di Facebook:

«Secondo [Eckles] quello che conta non sono i prodotti che ci piacciono quanto il tipo di motivazioni che possono spingerci a scegliere una cosa piuttosto che un’altra. Ha osservato che quando comprano un prodotto online, per esempio una macchina fotografica digitale, persone diverse reagiscono a sollecitazioni diverse. Qualcuno si sente confortato dal fatto che un esperto o un sito specializzato garantiscano la qualità. Altri preferiscono il prodotto più popolare, o si lasciano convincere da un’offerta, o scelgono una marca che conosciamo e della quale si fidano».

In pubblicitariese, la strana neolingua che noi pubblicitari parliamo, potremmo dire, cioè, che per ogni persona esistono leve persuasive e trigger – letteralmente “inneschi” – che le attivano più di altre.

Mi sembra che questo discorso funzioni anche se sostituiamo i contenuti ai prodotti: ci sono certi argomenti e certe tecniche retoriche che finiranno per rendere i contenuti più interessanti per noi.

L’algoritmo di YouTube ha capito che Caleb poteva essere incline al pensiero complottista dai contenuti che guardava. Così ha cominciato a proporgli altri contenuti che persone con un profilo psicologico simile guardavano.

È chiaro che questa non fosse una scelta editoriale. Non c’era nessuno dentro YouTube che ha materialmente deciso di far vedere quei video a Caleb. La scelta era unicamente una «scelta algoritmica».

Manuale minimo per esseri umani che vogliono uscire dalla filter bubble

Tutto questo avviene mentre per chi è all’esterno è impossibile vedere ciò che vede che è all’interno della propria filter bubble. Le nostre bolle sono invisibili e non comunicano tra loro.

Questo non è necessariamente un fenomeno nuovo. Ci sono persone che, anche senza Internet, finiscono per informarsi solo da un canale televisivo o da un giornale. Nel 2019, per esempio, l’analista dei media Emanuela Marchiafava ha parlato sul Post di come sia possibile «diventare sovranisti con la televisione generalista».

C’è una sola grossa differenza tra i vecchi media e i nuovi media: Jaron Lanier, un eclettico informatico statunitense e autore di Dieci ragioni per cancellare i tuoi account social, l’ha spiegata bene:

«Non abbiamo bisogno di vedere tutti la stessa cosa per capirci. Solo i vecchi regimi autoritari vogliono mostrare a chiunque la stessa realtà. Ma dobbiamo essere in grado di dare un’occhiata a ciò che vedono gli altri».

Chiusi nelle nostre bolle rischiamo di non capire più ciò che ci circonda. Rischiamo anche di credere che il mondo sia un posto che non ci contraddice mai, non ci mette in difficoltà, dove, anzi, la diversità è pericolosa.

Come è possibile uscire da questo circolo negativo? Si può uscire dalla filter bubble? La verità è che la bolla ce l’abbiamo dentro.

Ci circondiamo tendenzialmente di persone simili a noi, che la pensano come noi. Ciò che succede online è una riproduzione in scala di questa tendenza.

Quello che puoi fare, ora che hai preso consapevolezza che una bolla di filtraggio esiste, è limitarne gli effetti negativi. Ci sono alcune azioni pratiche che puoi fare per bucare la bolla.

Gli algoritmi dei social network ti tengono incollato agli schermi prendendo il controllo della tua attenzione.

Non fanno distinzione tra un video di un gatto che balla e un articolo che potrebbe darci informazioni davvero importanti. Ogni contenuto è misurato solo in base alla loro capacità di attirare e trattenere l’attenzione.

Ti è mai capitato di chiudere Facebook, Instagram o TikTok e sentire un senso di vuoto? Come se il tempo passato su quella piattaforma fosse evaporato nel nulla. Ecco, questa sensazione è abbastanza comune: al vuoto dei contenuti che ci vengono sbattuti in faccia corrisponde un vuoto reale dentro di noi, poiché ci distraggono da ciò a cui teniamo davvero.

Esiste una distanza tra quelli che sono gli interessi dei social network e i nostri. Questo è un pericolo da combattere ogni giorno ed è il motivo per cui dovresti reclamare la tua attenzione. Siamo ciò che leggiamo, guardiamo e ascoltiamo. Se ciò che leggiamo, guardiamo e ascoltiamo è vuoto, sprofonderemo in quel vuoto.

Ti invito ad aprire le impostazioni del tuo cellulare e controllare quanto tempo hai passato sui social network nell’ultima settimana. Tutto quello è tempo in cui hai delegato a qualcun altro la tua capacità di prestare attenzione.

Riappropriarsi della propria attenzione e del proprio tempo è il primo per vivere una vita digitale sana. Spesso i social network sono la scelta più sexy e semplice: equivalgono al mangiare cioccolato. Va bene farlo qualche volta, è anche gratificante nell’immediato, ma l’abuso produce danni sul lungo periodo.

Vuoi informarti? Non serve stare dietro al supermercato delle notizie 24/7. La frenesia delle breaking news ti lascerà solo più confuso e ansioso. Il doomscrolling è uno dei mali d’oggi.

Al contrario è molto meglio scegliere un paio di giornali, magari con posizioni diverse, e andare direttamente sui loro siti per leggerli. Scegli degli esperti di cui fidarti e seguili: iscriviti a una newsletter, se ne hanno una.

Questo ti permetterà di esporti a nuove idee, che altrimenti avresti ignorato. Dosa con intelligenza l’intrattenimento vuoto che trovi online.

Pensi sia meglio passare ore a scrollare TikTok oppure leggere un romanzo o guardare un film? La risposta sta in cosa ti lascerà qualcosa che non sia la sensazione di essere stati derubati del proprio tempo.

Alla fine scoprirai che la realtà ha molte più sfumature di quante pensi, che spesso non ti andrà a genio, ma che alla fine va bene così.

 

 

 

 

 

 

 

 

 

 

 

 

 

Share on whatsapp
Share on facebook
Share on twitter
Share on linkedin

Leggi anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Scopri come Internet cambia e ci sta cambiando

Unisciti a oltre 100 persone iscritte alla mia newsletter e ricevi altri contenuti simili a questo.