Filter bubble,
cookies ed
echo chambers

Vivere in una
campana di vetro

Marta Bernardi
Attualità

Gli utenti non scelgono di accedere alla bolla, ma vi sono sottoposti passivamente. Essa viene costruita ed adattata per avvolgerli completamente.

 

Al giorno d’oggi la sensazione è quella di avere il mondo a portata di mano, o meglio, di dita. Nel vecchio continente, uno smartphone ed una connessione stabile sono tutto ciò che serve per poter accedere ad una miriade di informazioni, grazie a quella cosuccia da nulla che è il World Wide Web. Tra l’altro, questo è il concetto base sul quale il web stesso è stato ideato: accesso, apertura, generatività. Ecco perché una pagina rimanda ad un’altra, che rimanda ad un’altra ancora e così via all’infinito. Un mondo sempre in ampliamento, senza barriere.

Tuttavia, negli ultimi tempi, nel web, di barriere ce ne sono a volontà. Infatti, da una decina d’anni a questa parte, si è fatta evidente la sua sempre maggiore frammentazione in spazi chiusi, più o meno grandi, che vanno a formare dei microcosmi a sé stanti, completamente autosufficienti e separati dal resto della rete. L’esempio più calzante di questo fenomeno di chiusura sono i social media, quali Twitter, Facebook ed Instagram.

Tali piattaforme vengono chiamate walled gardens – per l’appunto giardini recintati – dove l’utente si rifugia e da lì non esce. Rappresentano l’evidenza della sempre maggiore chiusura del web, una chiusura che si manifesta su ben quattro livelli diversi. Il primo di questi livelli è quello linguistico. La presenza di una frammentazione linguistica nel web e la sua giustificazione sono abbastanza intuitive: a mano a mano che il web si è espanso ed è stato possibile accedervi per più persone attorno al globo, sono nate sezioni in una lingua piuttosto che in un’altra, superando l’esclusività dell’inglese. Così facendo, si sono andate a formare delle enclavi linguistiche, da cui l’utente che conosce solo un determinato idioma difficilmente uscirà. Il secondo livello è quello sociale ed è strettamente dipendente dal concetto di omofilia, ovvero da quella particolare propensione degli esseri umani a privilegiare contatti con coloro con cui condividono idee, stili di vita, estrazione sociale, cultura ed interessi. Tale comportamento va ad intrecciarsi strettamente con il terzo livello di chiusura del web, quello ideologico. Perché, se è vero che vogliamo essere circondati da chi ci somiglia, vogliamo inoltre che chi ci circonda condivida le nostre idee e convinzioni. Vogliamo che esse trovino conferma, che siano sostenute da altri e che non siano messe in discussione. Temiamo e rifuggiamo il confronto. Ecco perché, parlando di ideologie e ideali in internet è facile imbattersi in discorsi riguardanti le echo chambers. Le echo chambers sono gli spazi chiusi digitali per definizione, dove le possibilità di confronto sono infinitesimali, dove una stessa idea viene ripetuta all’infinito finché non risuona da un capo all’altro del mondo. Sono i terreni fertili in cui vengono discusse le famosissime teorie del complotto, il regno incontrastato di fenomeni complottistici come QAanon o di persone quali i militanti di gruppi come Incels.

Se i primi tre livelli sono strettamente collegati all’agire umano, il quarto ed ultimo livello di chiusura del web è puramente tecnico. Infatti, si basa sul funzionamento di social media e motori di ricerca, e in particolare su come questi – Google soprattutto, ma anche Facebook ed Instagram – filtrino le informazioni che presentano ai propri utenti. Tale fenomeno viene chiamato filter bubble, perché queste piattaforme, grazie all’azione dei cookies, tracciano il comportamento degli utenti e personalizzano la loro esperienza sulla base di ciò che hanno cercato precedentemente. Creano così una bolla, una sorta comfort zone, fatta di informazioni filtrate e scelte appositamente per adattarsi ai gusti dell’individuo.

Si potrebbe dire che niente di tutto ciò sia così rivoluzionario: la maggior parte dei suddetti atteggiamenti dipendono da comportamenti umani. Quindi, quanto accade nel web non è poi così diverso da ciò che accade nella realtà. Riguardo invece alla filter bubble, la si potrebbe paragonare alla stessa azione di leggere un quotidiano piuttosto che un altro: ci si informa da un’unica fonte, ergo, ci si chiude volontariamente in una bolla.

Tuttavia, la filter bubble è molto più insidiosa di così. In primis, l’esperienza di ricerca su Google è talmente personalizzata sul singolo individuo, che il pericolo di isolamento è addirittura maggiore. In secondo luogo, i media tradizionali, quali televisioni e carta stampata, producono delle visioni che hanno un framing sufficientemente dichiarato e regolarizzato: questo non vale per Google, dove le bolle non solo sono invisibili, ma anche opache, i cui meccanismi non sono facilmente percepibili e il loro funzionamento è oscuro ai più. In ultima battuta, poi, gli utenti non scelgono di accedere alla bolla, ma vi sono sottoposti passivamente. Essa viene costruita ed adattata per avvolgerli completamente.

La questione è diventata talmente rilevante che sono stati creati programmi ed estensioni che promettono agli utenti una maggiore diversificazione dei loro feeds, sotto forma di plug in, che teoricamente permettono in questo modo di uscire dalla propria bolla. Ciò sembrerebbe una manna dal cielo, peccato per un paio di particolari. Innanzitutto, queste applicazioni sono principalmente basate sul sistema americano, e dunque sono più adatte a rintracciare i bias culturali, politici e religiosi tipici di quella società. Pertanto, il loro funzionamento in un diverso contesto, ad esempio quello europeo, potrebbe rivelarsi fallace. 

Inoltre, a rendere la questione ancora più complessa, c’è il fatto che quella della filter bubble non sia una realtà universalmente riconosciuta. Si tratta infatti di una teoria – di grande successo – che viene comunque osteggiata da molti, i quali ritengono le prove presentate a suo sostegno come non sufficienti ad affermare l’esistenza di un fenomeno di esposizione selettiva su base algoritmica. Anzi, secondo nuovi studi condotti sui social media, parrebbe che il meccanismo tramite cui vengono suggeriti risultati di ricerca e post si basi su legami deboli e i social riescano quindi ad essere un mezzo di esposizione variegata per i loro utenti.

È tuttavia da considerare che, probabilmente, il sostegno verso queste posizioni in difesa di motori di ricerca e social media non derivi unicamente da dati raccolti da diverse ricerche, ma anche dalla volontà di evitare una demonizzazione completa e totale del web. Difendendo la capacità delle piattaforme digitali di essere variegate nei propri contenuti, si cerca di sfuggire alle accuse secondo le quali il web, con la sua attuale conformazione frammentaria, vada a gettare benzina sul fuoco della radicalizzazione, sia essa religiosa, politica o culturale.  

[1] Miconi, A., 2013. Teorie e pratiche del web (Vol. 659, pp. 1-177). Il mulino.

[2] Cardenal et al. 2019. Digital technologies and selective exposure: How choice and filter bubbles shape news media exposure. The international journal of press/politics24(4), pp.465-486.

Ti è piaciuto l’articolo? Lascia qui la tua opinione su La Livella.

Did you enjoy the article? Leave here your feedback on La Livella.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on email
Email