Come notava già diversi anni fa B. Latour, nella nostra vita quotidiana la tecnologia tende a diventare “trasparente”. Tendiamo, cioè, a dimenticarci della sua presenza e a ignorare i suoi meccanismi, per concentrarci al cento per cento su quello che essa ci offre, salvo poi accorgercene tutto ad un tratto quando qualcosa non funziona. Prendiamo, ad esempio, la proiezione di alcune slide su una parete, durante un convegno. In questo contesto ci dimentichiamo quasi totalmente del proiettore e ci immergiamo nelle immagini. Nel caso di un guasto, tuttavia, siamo improvvisamente spinti a interrogarci sul suo funzionamento, per capire cosa c’è che non va e come aggiustarlo. In modo analogo, siamo propensi a dimenticare che il nostro notebook funziona grazie ad una batteria, almeno fino a quando un alert ci ricorda con solerzia che siamo praticamente rimasti a secco e che è proprio ora di ricaricarla.


L’esito delle ultime elezioni statunitensi ha spinto molte persone a prendere in considerazione l’ipotesi che qualcosa, nei social network, o meglio nei loro meccanismi algoritmici di manipolazione delle informazioni, non abbia funzionato adeguatamente. Questa impressione, a sua volta, nasce dall’incredulità di fronte ad un risultato che appare come (molto) poco razionale e dal conseguente sospetto che qualcosa abbia stravolto il naturale corso degli eventi. Alla base di tutto ciò sembrano esserci inconsciamente una visione semplicistica (e scientificamente infondata) della teoria dell’evoluzione concepita come garanzia di un incremento costante di intelligenza collettiva e la convinzione che i risultati delle elezioni siano stati in qualche modo frutto di un sovvertimento di questo ordine. I social network sono sembrati degli ottimi candidati per il ruolo di autori primari di questo presunto boicottaggio alla razionalità umana, in quanto responsabili di aver confezionato la dieta mediatica degli statunitensi senza distinguere le bufale e dalle informazioni attendibili e avendo così messo in circolazione informazioni non veritiere che avrebbero favorito, più o meno indirettamente, l’ascesa di Trump.
Assumendo questa prospettiva, naturalmente, si tendono quanto meno a sottostimare molti altri fattori, come le spinte sociali che hanno guidato l’elettorato statunitense, la qualità del candidato avversario o la tendenza delle persone a compiere scelte poco razionali. Al di là dei presupposti fortemente positivistici di questo ragionamento e della svalutazione degli altri fattori, l’aspetto positivo di questa triste e preoccupante faccenda politica potrebbe essere una presa d’atto consapevole dei meccanismi informativi alla base dei social che rischiano di distorcere la nostra cognizione della realtà e la nascita di un dibattito serio e condiviso sulla necessità di imporre delle regole etiche a chi gestisce queste piattaforme. In altre parole, se fino a ieri il potere potenzialmente distorcente degli algoritmi alla base della costruzione dei nostri newsfeed (i flussi di post, link e notizie che scorrono sulle nostre bacheche) sembrava essere una paranoia da tecno-scettici o al massimo un pippone per filosofi delle scienze cognitive, in molti oggi iniziano a sospettare che si tratti di qualcosa di un tantino diverso, che merita l’attenzione di tutti.
Sebbene non sappiamo che tipo di relazione causale sussista tra la manipolazione delle informazioni dei social e i risultati delle elezioni statunitensi, quindi, possiamo sfruttare il dibattito nato attorno a questo evento per cercare di capire qualcosa di più rispetto al modo in cui i social influiscono sulle nostre decisioni. Vale quindi la pena costruire un quadro sintetico del mix di meccanismi tecnologici, sociali e cognitivi che rendono i nostri newsfeed oggetti estremamente influenti sulla nostra mente e molto delicati da manipolare.

Personalizzazione. Ogni newsfeed, oggi, è diverso da persona a persona. A seconda di TUTTO quello che abbiamo fatto in passato in un social network e cioè di tutti i link che abbiamo aperto o non aperto, delle foto che abbiamo postato, degli amici che abbiamo tra i contatti, dei contenuti su cui ci siamo soffermati di più, ecc. e a seconda di altri fattori (ad esempio i cookies che gli altri siti hanno gentilmente depositato sul nostro dispositivo), saranno selezionati diversi post che andranno a comparire nella pagina principale del social. Ciò viene realizzato attraverso un algoritmo che studia il nostro comportamento per riproporci quello che ci attira maggiormente, con lo scopo di tenerci connessi il più possibile e di farci condividere il più alto numero di contenuti. Molto banalmente, più tempo stiamo sui social e più cose pubblichiamo, più informazioni di noi potrà raccogliere quel social e più soldi farà vendendo quelle informazioni per scopi commerciali. A noi utenti questo meccanismo permette di individuare più rapidamente i contenuti che ci interessano e di evitare di sorbirci cose che non ci piacciono, risultando di conseguenza comodo e confortevole, mentre ai social garantisce enormi guadagni perché aumenta notevolmente il potere di addiction del loro prodotto.
La personalizzazione dei contenuti, ahinoi, si combina con alcuni fattori di diversa natura costruendo un meccanismo complessivo piuttosto distorcente. In primo luogo, come dicevamo, con il fatto che i social network non hanno alcun obbligo di separare nei nostri newsfeed le informazioni attendibili da quelle meno attendibili o dichiaratamente false. E questo anche perché è la natura stessa di internet a rendere questa separazione un’operazione molto complessa, dato che essendo possibile per chiunque, con poco tempo e poco denaro, aprire un sito internet e pubblicare delle pagine web accessibili a tutta la rete, oggi il numero di siti internet esistenti è enorme. Certamente l’architettura aperta di internet costituisce da sempre anche uno dei suoi lati più vantaggiosi e innovativi, in quanto permette a chiunque di esprimersi, favorendo lo scambio di idee e di informazioni.  Tuttavia, il lato oscuro della libertà di espressione digitale è la totale mancanza di un meccanismo di revisione delle informazioni “a monte” e una variabilità altissima della loro qualità e attendibilità. Troviamo siti che offrono informazioni curatissime e precise e siti che pubblicano fesserie, alcuni in buona fede e altri in cattiva, e distinguerli può non essere facile. La responsabilità di stabilire la veridicità di una pagina web è quindi tutta da parte degli utenti, che –  nella media – non sembrano essere sempre ben attrezzati da un punto di vista culturale e intellettuale per compiere un’operazione talvolta complessa e articolata (pensiamo alle percentuali di scolarizzazione o a quelle della cosiddetta “literacy” della nostra popolazione).

Circondarsi di persone simili. In secondo luogo, la personalizzazione sembra andare a nozze con la tendenza sociale piuttosto diffusa (e naturale) a circondarsi di persone con idee, gusti, status sociale, istruzione, simili alla nostra. Ciò avviene prima di tutto nel mondo reale ma si riflette, in misura variabile, anche nei rapporti che stabiliamo attraverso i social network. La selezione delle informazioni che i social ci offrono personalizzando i loro risultati avviene così già all’interno di una cerchia di soggetti che non costituisce un campione rappresentativo omogeneo della nostra popolazione. Banalmente, è il motivo per cui possiamo restare basiti di fronte all’esito delle elezioni, dopo aver constatato che quasi nessuna delle persone che conosciamo dichiara di votato per il candidato vincente.  

Bias di conferma. Potremmo accettare che tutto questo sia vero, rifiutando però di credere che abbia una così grande influenza sul nostro comportamento e sulle nostre decisioni. Il problema è che esistono diverse evidenze sperimentali poco rassicuranti provenienti dalle scienze cognitive. In particolare, da diversi anni è risaputo che l’essere umano soffre di diversi bias (cioè condizionamenti), che ci spingono a compiere scelte poco razionali o a credere ad informazioni false. Alcuni di questi bias sono particolarmente salienti rispetto alla ricerca di informazioni, ad esempio il cosiddetto bias di conferma. Si tratta di un meccanismo inconscio che ci spinge a cercare e a credere automaticamente alle informazioni che confermano le nostre credenze che abbiamo in precedenza. Facciamo un esempio in grado di riassumere un po’ quanto detto finora. Poniamo che io sia un utente della rete convinto che l’effetto serra non esista e che un bel giorno trovi tra i post del newsfeed del mio social network un articolo di un sito sconosciuto che parla di come gli effetti dell’inquinamento siano stati artificialmente sovrastimati. L’articolo è una bufala abbastanza ben confezionata, ma io, utente del web, questo non lo so. Di fronte a questa situazione possono accadere diverse cose. Nella peggiore delle ipotesi, faccio a meno di aprire il link ma leggo il titolo (oppure lo apro e lo scorro rapidamente) e mi sento rincuorato: ho un’altra conferma che ho ragione e che l’effetto serra non esiste. Se sono un po’ più accorto, mi rendo conto di non conoscere la fonte e resto un po’ perplesso riguardo alla sua affidabilità, ma non avendo molto tempo a disposizione abbandono la pagina e vado oltre. In questo caso, dato che non ho escluso che tutto sommato si tratti di un’informazione buona, è molto probabile che, a causa del bias di conferma, inconsciamente la mia convinzione sull’effetto serra venga comunque consolidata. Nel migliore dei mondi possibili, infine: a) apro il link con un po’ di sospetto perché non conosco la fonte, b) leggo l’articolo cercando riferimenti scientifici e verifico se ci sono e se sono stati pubblicati da riviste autorevoli c) faccio una ricerca sul web per capire chi è l’autore, quale è la sua autorevolezza in merito e di che sito si tratta d) dato che non sono citate fonti scientifiche autorevoli e che non si tratta di una fonte conosciuta di informazione o che magari si tratta di un sito che in passato ha diffuso informazioni smentite da fonti credibili, concludo che probabilmente si tratta di un’informazione falsa e provo a convincermi che non costituisce una prova valida a favore della mia tesi. Tutte operazioni che richiedono tempo, competenza e fatica, ingredienti non proprio diffusi nella vita online odierna. Quello che è importante sapere riguardo a questa situazione, che gli utenti dei social si trovano ad affrontare piuttosto spesso durante la navigazione, è che di fronte ad un’informazione di dubbia provenienza il nostro cervello ha una tendenza innata a considerarla vera se essa conferma ciò che crediamo, al di là della sua attendibilità.
Tirando rapidamente le somme, possiamo dire che la personalizzazione e la nostra tendenza a circondarci di persone simili a noi rendono le nostre bacheche l’analogo delle pareti di una bolla informazionale che offre contenuti che riflettono in modo assai compiacente le nostre idee, i nostri gusti, ecc. senza discriminare le informazioni false o poco affidabili, che non siamo sempre in grado di riconoscere come tali. Come se non bastasse, la nostra struttura cognitiva ci porta a considerare come buone le informazioni che confermano quello di cui siamo (già) convinti, al di là dell’autorevolezza della fonte o della presenza di dati scientifici. I pezzi del puzzle, una volta messi assieme, compongono un quadretto abbastanza inquietante…

Conclusioni. Ma allora Trump ha vinto le elezioni perché i social network boicottano la nostra percezione del mondo e condizionano le nostre scelte, includendo anche informazioni poco attendibili ma fortemente persuasive che hanno dato credito ad alcune sparate del neo presidente? No… cioè forse, in una misura ancora sconosciuta e da determinare con precisione. Come già detto, esistono tuttavia molti altri fattori da tenere in considerazione nella spiegazione del risultato elettorale, che oggi forse sono finiti un po’ in secondo piano. Ma allora il modo in cui i social ci offrono le informazioni è potenzialmente pericoloso e dovremmo chiedere che l’algoritmo di costruzione del newsfeed venga reso pubblico o almeno che venga supervisionato da un comitato etico esperto di scienze cognitive, in grado di difendere la nostra capacità critica? Sicuramente. A meno che non decidessimo di rinunciare a spendere tutto il tempo che oggi spendiamo sui social network o che non fossimo in grado di diventare improvvisamente superuomini perfettamente razionali, impermeabili a tutti i condizionamenti descritti, questa potrebbe essere l’opzione più sensata. Ma non si pensi che sia una strada così facilmente percorribile. I proprietari dei social network dovrebbero assumersi delle responsabilità sui contenuti offerti, cosa che fino ad oggi non si sono mai sognati neanche lontanamente di fare. Ciò implicherebbe anche diminuire il potere di addiction dei social, che sarebbero costretti anche ad inserire nei newsfeed anche le informazioni che non ci piacciono o che non ci interessano poi così tanto e che di conseguenza renderebbero meno attraenti queste piattaforme online. Sarebbe un po’ come vietare ai produttori di patatine fritte di condirle con abbondanti dosi di sale perché è poco salutare. Il capitalismo tecnologico, che attualmente costituisce l’imperativo dominante dei colossi della Silicon Valley, per ora non prevede nulla di tutto ciò. Il problema maggiore, tuttavia, sembra nascere dal fatto che i social network sono patatine fritte che mangiamo in abbondanza ogni giorno (e che, per carità, hanno ingredienti che in dosi modeste possono essere utili), condite da dosi massicce di personalizzazione e combinate con i fattori sopra descritto. Sta a noi decidere se accettare tutto questo con rassegnazione o chiedere che vengano difesi non solo i profitti delle grandi aziende ma anche il buon funzionamento delle nostre risorse cognitive fondamentali, magari accettando di limitare le “dosi di sale” consentite, cioè la personalizzazione, le notizie da clickbaiting, ecc. rinunciando ad un po’ di sapidità per guadagnarci in salute, cioè in capacità critica. Naturalmente, l’altra soluzione potrebbe essere semplicemente limitare l’accesso ai social al minimo indispensabile. Tipo cinque o dieci minuti al giorno. Idealmente, non dovreste avere nessun problema a prendere questa decisione e a essere fedeli alla vostra scelta… o no?  

 

P.S. Perché mai dovreste credere a questo articolo, scritto da un autore per lo più sconosciuto in un sito sconosciuto? Potreste, per esempio, fare una ricerca online per avere qualche informazione in più sul mio CV. Oppure, ancora meglio, potreste leggere qualche buon libro sull’argomento, scritto da qualche autore noto a livello nazionale e internazionale. A voi la scelta.   

Iscriviti alla nostra newsletter

Inserisci il tuo indirizzo email se vuoi ricevere aggiornamenti sui nostri ultimi articoli

Contattaci

(C) 2015 Digitale Responsabile di Marco Fasoli, Via Roma 104 35027 Noventa Padovana PD. P.Iva 04792260285, CF FSLMRC83E12C111T

Privacy Policy

Sito realizzato da Fisheye Studio

© 2015 Digitale Responsabile di Marco Fasoli, Via Roma 104 35027 Noventa Padovana PD. P.Iva 04792260285, CF. FSLMRC83E12C111T. Tutti i diritti riservati.

Privacy Policy