La struttura degli algoritmi social si basa su un principio semplice e ormai noto: più cerchiamo conferma di una nostra opinione, più troveremo notizie concordanti a quanto già pensiamo. Tali sistemi di personalizzazione creano delle “bolle”, note come filter bubbles (in italiano “bolle di filtraggio”), in cui vengono proposte informazioni coerenti con ciò che la persona già pensa, confermando, rinsaldando e rinsaldando posizioni preesistenti. Sia chiaro, è un meccanismo che non nasce con i social network: l’umanità da sempre tende ad ascoltare principalmente ciò che conferma le proprie idee, rifiutando ciò che le confuta. È un meccanismo molto semplice e noto in psicologia come “bias di conferma” (Confirmation Bias).
Per capire come tutto ciò impatti sulla nostra mente, può essere utile riprendere il pensiero di Daniel Kahneman, psicologo e premio Nobel per l’economia nel 2002 grazie ai suoi studi sui processi decisionali. Nel suo libro Thinking fast, thinking slow (in italiano Pensieri lenti e veloci, Mondadori, 2012), Kahneman ci restituisce un’immagine di noi stessi come pensatori molto meno perspicaci e razionali di quanto vorremmo essere.
In breve, Kahneman teorizza la presenza di due modalità di lavoro della nostra mente, che chiama per comodità Sistema 1 e Sistema 2. Il primo è un processo automatico (dunque inconsapevole), immediato e sempre in funzione: svolge molti compiti contemporaneamente e usa poca energia. È adattivo, ma anche facilmente ingannabile. Il Sistema 2 è l’opposto: è più razionale, capace di analizzare a fondo situazioni complesse; ma per attivarsi ha bisogno della nostra completa attenzione, dunque utilizza molta energia, e funziona in modo difettoso in situazioni di stress o di forte emotività. È “pigro”, per dirla con Kahneman.
Nelle filter bubbles, le risorse che potrebbero mettere in discussione il nostro pensiero sono scartate e più difficili da raggiungere. Questo processo gratifica la parte emotiva della nostra mente, facendoci sentire sempre più competenti, intelligenti, razionali; di fatto, però, fa il contrario, rendendo sempre più dominante in noi il Sistema 1, e silente il Sistema 2. Il Sistema 2, però, è deputato anche all’analisi, raccolta e verifica delle informazioni che acquisiamo: se non riesce a lavorare bene, è probabile che fallisca anche nella sua funzione di filtro, facendoci prendere come plausibili e razionali anche molte cose che in realtà non lo sono. Questo vale per errori decisionali che tutti commettiamo nella nostra quotidianità, ma spiega bene anche il successo delle fake news. Se il Sistema 2 è già impegnato in qualcos’altro, o se ci manca l’energia necessaria, è più difficile essere critici nei confronti delle cose che leggiamo. Le bufale si possono quindi diffondere in modo incontrastato, fino ad acquisire lo status di notizie. Il punto è che ci vuole molto più impegno, tempo e complessità per confutare un’opinione distorta che per sostenerla. Paradossalmente, per contrastare notizie false o facili fraintendimenti occorrono solidissime argomentazioni. Si tratta del trionfo del primo sistema sul secondo.
Un altro problema tipico delle filter bubbles è la ripetizione frequente degli stessi concetti. La ripetizione attiva il Sistema 1 silenziando il Sistema 2. Come scrive Kahneman, «la familiarità non si distingue facilmente dalla verità». Le affermazioni iniziali non vere o anche solo imprecise creano un solco molto più profondo nella nostra memoria dei successivi tentativi di confutarle, anche se più validi e precisi.
Inoltre, nelle storie che leggiamo abbiamo bisogno di coerenza. Più la storia è anche solo in apparenza concreta e credibile, più siamo portati a ignorare tutti i dati che non sono in linea con essa. Banalmente, per dire che qualcosa non è vero dobbiamo prima permetterci di pensare che lo sia.
Siamo capaci di pensare in modo indipendente e razionale, ma non ci piace farlo. Non è questione di intelligenza ma di funzionalità: la “pigrizia” del Sistema 2, quello più lento e complesso, vale per l’utente medio di Facebook, come per me che scrivo questo articolo o per lo stesso Kahneman (il Nobel non lo salva). Ciò che può fare la differenza, nello specifico quando utilizziamo i social, è avere consapevolezza di questi processi, e l’umiltà di prendere coscienza di esserne tutte e tutti condizionati.
__