Bucare le bolle
Che gli ambienti digitali siano un
mondo a parte è la prima filter
bubble da cui uscire.
Articolo di Mafe de
Baggis, scrittore. Tra i suoi ultimi libri il manuale "World
Wide We. Progettare la presenza online: le aziende dal marketing alla
collaborazione" (Apogeo 2010) e il saggio "#Luminol. Tracce di realtà
rivelate dai media digitali" (Informant, 2015).
Nel
2011 esce in America Il filtro. Quello che Internet ci nasconde (Il
Saggiatore 2012) di Eli Pariser, un saggio che inventa il termine filter
bubble (spesso tradotta anche come
“bolla” o “camera dell’eco”), denunciando la crescente personalizzazione delle
informazioni in rete. Negli anni successivi alla diffusione del web chiunque
utilizzasse la rete aveva accesso a tutte le pagine, che si presentavano uguali
per chiunque: i contenuti erano in grandissima parte pubblici e indicizzati dai
motori di ricerca. Oggi non è più così: è un processo iniziato da qualche anno,
in particolare da quando Google ha iniziato a mostrare risultati diversi a
seconda di chi sta effettuando la ricerca. La personalizzazione dipende da
informazioni molto diverse tra di loro: si va dalla posizione all’orario, dalla
cronologia di navigazione (quello che si è cercato e quello su cui si è
cliccato) al programma usato. Anche Facebook ha seguito la stessa strada,
proponendoci contenuti (e pubblicità) tagliati sui nostri comportamenti, per
cui noi non vediamo tutto quello che viene pubblicato dalle persone e dalle
aziende che scegliamo di seguire, ma solo quello che viene pubblicato dalle
persone e dalle aziende con cui abbiamo interagito (non per forza su Facebook,
ma anche su WhatsApp, Messenger e Instagram, tutti di sua proprietà). Non vale
solo per Google o per Facebook, ovviamente: la personalizzazione arriva a
modificare i prezzi dei prodotti e dei servizi, che in buona parte sono ormai
dinamici, cioè cambiano a seconda di chi, quando e dove li cerca. Anche la
possibilità di decidere se far vedere a tutti i nostri contenuti, modificando
le impostazioni della privacy, significa che molte pagine sono nascoste ai
motori di ricerca e alle persone fuori dai nostri contatti: in sintesi, il web
non è più del tutto pubblico e ricercabile. La personalizzazione è una buona
soluzione a un problema reale: il sovraccarico di informazioni. Neanche dieci
anni fa Clay Shirky, consulente e ricercatore, diceva “non è eccesso di contenuti, ma fallimento dei
filtri”. Se oggi ci lamentiamo dell’eccesso dei filtri è
perché questi hanno un possibile effetto collaterale, e cioè la progressiva
sparizione della diversità dal nostro orizzonte socio-culturale. Quella di
Pariser è una teoria semplice, elegante e convincente, che però subisce una
pesante lettura strumentale: la maggior parte delle persone che la apprezza, la
usa o la cita non prende però in considerazione il contesto in cui l’autore la
colloca. Pariser cioè lamenta la fine della rete democratica e uguale per
tutti, ma viene troppo spesso usato per lamentarsi dell’avvento della rete tout
court. Esattamente il contrario del suo pensiero, ovvero, “abbiamo davvero
bisogno che Internet sia quello che sognavamo che fosse”. Vale la pena
ricordare chi è Eli Pariser e come è arrivato nel 2011 sul palco di TED a
lanciare questa sfida ai giganti della rete. All’indomani dell’11 settembre
2001, a soli 22 anni, creò il sito 9-11peace.org (oggi non più attivo) per
chiedere una risposta non militare all’attentato terroristico. Il sito raccolse
dal nulla mezzo milione di firme,
portandolo alla direzione e poi alla presidenza di MoveOn.org, piattaforma
utilizzata per raccogliere e spingere ad agire concretamente chi voglia
cambiare le cose. Pariser è un professionista nato e cresciuto in rete, un
attivista politico capace di unire le posizioni di milioni di persone usando
con efficacia i media digitali, un imprenditore che ama e sa usare alla
perfezione la rete. Uscendo da MoveOn ha fondato Upworthy, una testata
giornalistica che confeziona notizie virali, pensata per dare corpo all’idea
che “siamo tutti parte della stessa storia”, per mettere cioè in pratica,
in rete, il suo ideale di una rete uguale per tutti. La preoccupazione sui
filtri e sulla personalizzazione è in crescita perché diminuendo la diversità
delle fonti a disposizione in rete rischiamo di rinchiuderci in gruppi di
persone simili a noi e con idee identiche alle nostre, creando quelle che
vengono spesso definite “camere dell’eco”, cioè ambienti in cui sentiamo solo
la nostra voce, convincendoci che sia la verità. È così che le cosiddette
post-verità (o post-fatti)
si consolidano, portando molti osservatori ad attribuire molte inattese svolte
politiche (da Brexit all’elezione di Trump al No al Referendum) alla diffusione
di dati, informazioni e notizie false, ma convalidate dal gruppo di pari in cui
rischiamo di finire senza neanche accorgercene. Ma quando Pariser denuncia la
personalizzazione dei risultati di una ricerca di Google o l’impatto dei filtri
sulla nostra timeline di Facebook non sta confrontando le “camere dell’eco”
digitali con la società precedente a Internet, ma con la Internet precedente ai
filtri. La tesi di Pariser è stata insomma vittima di una fallacia logica della
stessa categoria e gravità dell’attenzione selettiva che alimenta le bolle: la
tendenza umana a prendere di una teoria solo quello che conferma le nostre
posizioni, ignorando quello che ci impone di allargare lo sguardo. Le camere
dell’eco sono sempre esistite e i media sono sempre stati un antidoto alla loro
permanenza: come spiega benissimo Joshua Meyrowitz in Oltre il senso
del luogo (Baskerville 1985), la televisione è stato il catalizzatore del
femminismo e dei movimenti del ’68 semplicemente perché ha mostrato
persone in luoghi diversi che vivevano in modi diversi dai nostri. Per usare le
parole dell’autore: “la mia tesi fondamentale è che molte differenze che una
volta si percepivano tra individui appartenenti a diversi gruppi sociali, a
diversi stati di socializzazione e a differenti livelli di autorità, erano
sostenute dalla suddivisione degli individui in mondi di esperienza molto
diversi.” Non c’è peggior ambiente chiuso e refrattario a posizioni diverse di
un paesino, di una famiglia, di votare quello che dice il parroco o di leggere
tutta la vita un unico giornale, magari di proprietà di una fabbrica: eppure
tantissime persone anche colte e intelligenti hanno sposato con entusiasmo una
teoria prendendone solo la parte in cui credevano già, e cioè che Google e
Facebook ci stanno costringendo al pensiero unico. Cosa dice invece Pariser?
Dice che Google e Facebook hanno reso la rete – un ambiente libero e aperto –
più simile alla società precedente di quanto lo fosse alle sue origini: un
luogo in cui vedi e trovi solo quello che pensi già, che conosci già, che non
ti mette in discussione. Il titolo della seconda edizione del libro in cui
espone la sua tesi (non uscita in Italia) lo dice chiaramente, mettendo
l’accento sulla parola “new”, non sulla parola “web”: The Filter Bubble: How
the New Personalized Web Is Changing What We Read and How We Think.
Insomma, secondo Pariser sarebbe la nuova rete personalizzata a cambiare
come leggiamo e come pensiamo, non la rete in sé. La comprensione di come si
formano e consolidano le camere dell’eco serve non solo a fare chiarezza (cosa
che non guasta) nel presente ma anche a evitare nuovi, tragici errori in
futuro, come per esempio permettere, anzi, chiedere a Facebook e Google (e
ai loro pari) di decidere tra verità e finzione, tra giusto e sbagliato, tra rilevante e secondario. Per
combattere gli effetti dei filtri stiamo chiedendo più filtri e filtri più
invasivi, e non filtri migliori o filtri aperti. Aperti come le persone, e qui
sta, secondo me, la debolezza dell’idea di Pariser, affascinante ma limpidamente
riduzionista. L’idea che l’impatto dei filtri digitali sia tale da trasformare
una persona colta e curiosa in un’ameba o da impedire a una persona di cambiare
idea è figlia della convinzione che siano le macchine a farci fare cose, e non
noi a far fare cose alle macchine. È infatti vero che i filtri rischiano di
restringere lo spettro di diversità proposto dai mezzi di comunicazione, ma è
anche vero che sono stati una soluzione all’eccessivo rumore di fondo che
avrebbe comunque complicato e peggiorato la qualità dell’ecosistema
dell’informazione. È possibile una soluzione migliore? A mio parere sì, ma
pochi sembrano averne voglia, e il timore di Pariser è diventato una profezia
autoavverante. Vogliamo davvero credere che un software non possa essere
programmato in modo diverso o migliore da come lo vediamo adesso? Vogliamo
davvero credere, per esempio, che l’enorme crescita dei volumi di conversazioni
digitali impedisca a un algoritmo soluzioni scalabili di gestione della
violenza e dell’aggressività, o di proporci opinioni e contenuti in modo
evolutivo e non in modo conservativo? Lo dice lo stesso Pariser nel suo TED del 2011: un algoritmo
potrebbe proporci non solo quello che già ci piace e che è facile da consumare,
ma anche qualcosa che ci stimola, ci incuriosisce, ci mette in difficoltà. E se
questo algoritmo non dovesse incontrare il gradimento di milioni di persone che
vogliono restare a mollo nella loro comfort zone il problema è del software o
della società? Molto si può fare anche modificando lo stile con cui ci si
confronta e ci si mette in relazione, perché una rasoiata di Occam alla teoria
delle camere dell’eco mi porta a pensare che se non capisco un pensiero diverso
dal mio non ho modo di prenderlo in considerazione, soprattutto quando è
espresso in modo paternalista o con il disprezzo tipico di chi per lavoro
dovrebbe informare (e non insegnare). E se le bolle non si consolidassero
intorno ai contenuti, ma intorno alla forma che questi prendono? Se io
scegliessi contenuti che capisco, più che contenuti simili a quello che già
penso? Tanti anni fa ho avuto la fortuna di intervistare Ester Dyson,
l’imprenditrice che nel 1997 ha scritto Release 2.0, uno dei primi libri a
interrogarsi sull’impatto di Internet nelle nostre vite, e non ho mai
dimenticato due sue affermazioni. La prima è che non vogliamo più entrare in
relazione con chi non ci vede e ci tratta come pari. La seconda è che le
comunità spontanee, prima che geografiche o tematiche, sono linguistiche (in
senso sia geografico, di lingua nazionale, sia tematico, delle parole e dei
riferimenti che usiamo). Nella maggior parte dei casi chi lavora per smontare
le bufale è animato da un pesante disprezzo nei confronti di chi le segue e le
diffonde, e chi scrive per spiegarti che non hai capito niente e sei un cretino
lo fa usando il suo linguaggio, non il tuo. Tutto il contrario della buona
scrittura divulgativa, che come sintetizza Steven Pinker nel suo The sense
of style consiste nel mostrare a un proprio pari, come in una
chiacchierata, qualcosa che da solo non riesce a vedere, ma una volta condiviso
è immediatamente chiaro. Quasi sempre invece il debunking, l’atto di
smontare le bufale, assomiglia a una lezione impartita al buon selvaggio con un
linguaggio molto più adatto a consolidare il legame con chi la pensa come noi
che a creare un ponte con chi la pensa diversamente. È concepibile dare
ascolto e attenzione a chi ci tratta con paternalismo? Io non credo (e non è
sarcasmo). Prima di correlare strettamente camere dell’eco, diffusione delle
bufale e tendenza a voler vedere solo quello in cui già si crede (come hanno
fatto tutti quelli che hanno costretto Pariser ad aggiungere un “new”
nel titolo della seconda edizione) dovremmo provare a trovare, usare e
negoziare un linguaggio diverso, una terra di mezzo comune. Solo quando avremo
seriamente e sinceramente eliminato il disprezzo dal debunking potremo
prendere in considerazione la prima e più semplice ipotesi, cioè che chi crede
a una bufala non è minimamente disposto né ad approfondire né a cambiare la
propria posizione; che il problema quindi non sia tanto nelle informazioni
presentate, quanto nella capacità delle persone di accettare una visione del
mondo diversa da quella con cui hanno familiarità. Un debunking fatto
bene non ci garantisce di ottenere il risultato desiderato (evitare la
diffusione di notizie e informazioni sbagliate), ma è un tentativo doveroso.
Pensiamo per esempio alla disinformazione sui vaccini: l’esempio di Bebe Vio
potrebbe rivelarsi molto più efficace di moltissimi articoli e post
informativi, proprio perché lo stesso messaggio viene fatto passare con un
sorriso e con gentilezza, senza colpevolizzare chi la pensa diversamente. L’incredibile aumento della potenza dei computer degli
ultimi anni ci permette non solo di misurare più dati e di superare i limiti
che rallentano ancora la ricerca, ma ci fa anche sperare di poterli misurare e
comprendere in modo diverso. Possiamo cioè finalmente studiare il pensiero, la
società e la comunicazione come un sistema aperto e collegato e non chiuso e
isolato; per usare le parole del fisico Giuseppe Vitiello,
“il cervello è permanentemente accoppiato con l’ambiente esterno, esso è un
sistema intrinsecamente aperto”. Non possiamo ragionevolmente credere a un pensiero
isolato che subisce una riduzione delle scelte a disposizione contro la sua
volontà, anche perché la restrizione delle possibilità a nostra disposizione,
una restrizione invisibile, secondo Pariser, avviene comunque in uno solo degli
ambienti che frequentiamo (Internet), lasciandoci esposti ad altri stimoli in
altre situazioni (colleghi, amici, media tradizionali, l’ambiente in cui vivo).
Anche se fosse vero che il “nuovo web personalizzato” ci impedisce di vedere
altro da noi, viviamo ancora in un ambiente ricco di stimoli per chi è
interessato a raccoglierli. La prima post-verità da cui liberarsi è ancora
questa: pensare che gli ambienti digitali siano un mondo a sé, che non
influenza e non è influenzato dalla realtà di cui invece sono parte integrante.
Realtà che dipende dalle nostre scelte: per bucare le bolle dei filtri è
sufficiente cercare esperienze diverse, perché la personalizzazione del web
rispecchia quello che facciamo. Onore a Pariser per aver sollevato il problema:
non facciamogli il torto di usare il suo pensiero per non prenderci le nostre
responsabilità.
Nessun commento:
Posta un commento