Come gli algoritmi stanno rovinando la grande esperienza “social”

Una delle grandi domande esistenziali degli analisti finanziari di questi anni è: «Ma i social network come Facebook, Twitter, Tumblr come e quando diverranno remunerativi per gli azionisti?». Insomma, come guadagnano, visto che per gli utenti è tutto gratis? La sola pubblicità infatti non basta neanche a coprire le spese, e le folli quotazioni in Borsa di questi colossi fanno costantemente temere l’esplosione di un’altra mega-bolla speculativa, come già accadde nel 1999.
Bene, pare che almeno per quanto riguarda Facebook la soluzione sia stata trovata.
Mat Hanon, redattore di Wired, ha effettuato un esperimento sul social network: per 48 ore di fila non ha fatto altro che mettere “Mi Piace” a qualunque contenuto.

Immaginate di collegarvi a Facebook e di apprezzare, senza sosta e senza alcuna logica, qualunque post, foto, video e articolo che vi si para dinnanzi agli occhi nel News Feed. Tutto è stato meritevole di un “Mi Piace”, tranne un singolo status in cui un amico di Mat Hanon aveva accennato alla morte di un caro e, per rispetto, l’esperimento ha subìto un’eccezione. Per il resto, ogni contenuto, anche quello più odiato, insensato, sdolcinato è stato meritevole di un apprezzamento digitale. E per completezza d’informazione, ogni qual volta veniva messo un Like a un articolo, e Facebook suggeriva a Hanon i 4 articoli correlati, anche questi primi 4 articoli ricevevano un “Mi Piace”.
L’intento di fondo di Hanon era vedere come avrebbe reagito l’«EdgeRank», l’algoritmo di Facebook che regola la rilevanza e il peso dei singoli contenuti e che decide, su base informatica, quali post mostrare all’utente e quali gettare nell’oblio digitale.

io sono un algoritmo

A 24 ore di distanza, Mat ha subito preso atto di un cambiamento enorme: nel connettersi a Facebook da dispositivo mobile, i contenuti umani erano completamente scomparsi dalla sua Home: erano rimasti solo marchi commerciali e post promozionali. Nel connettersi da dispositivo fisso, invece, pur essendoci sempre la preminenza dei contenuti aziendali rispetto a quelli dei privati, erano sopravvissuti alcuni status degli amici.
(Sì: per quanto strano possa sembrare ai meno esperti, il News Feed che compare sul vostro cellulare non è lo stesso che vi appare sul pc.)

Questo ha confermato al redattore di Wired quella che, tra gli addetti ai lavori, era una piccola grande verità già appurata: Facebook reputa la navigazione da mobile economicamente più fruttuosa (per via delle inserzioni pubblicitarie più grandi e più mirate) e, per questo, rispetto a quella da pc, manipola il proprio algoritmo a tutto favore della pubblicità. Il News Feed di Hanon, sovrastimolato con un dose massiccia di Like, ha avuto l’innesco finale per gettare nell’oblio totale tanto foto di vacanze quanto profondi status degli amici. Semplicemente perché, a conti fatti, questi non fanno guadagnare Facebook.

Ma il meglio viene adesso.
La seconda presa di coscienza di Hanon è stata che, nell’aver casualmente apprezzato molti contenuti ideologicamente attinenti all’area di Destra, conservatrice e xenofoba, Facebook aveva iniziato a rispondere promuovendo pagine e contenuti simili. Il redattore di Wired ha sperimentato sulla propria pelle la cosiddetta logica del “Daily Me” (l’Io Quotidiano), ovvero quel meccanismo digitale perverso per cui l’utente finisce per essere circondato dall’eco assordante delle proprie convinzioni, creando idealmente un proprio “giornale” in cui non si apre mai ad altri punti di vista. Lo sperimentatore, che ha portato il suo News Feed a un punto massimo di estremismo, ha descritto questa parte con un certo disagio: «Creiamo le nostre “bolle” politiche e sociali attraverso i filtri, che ti fanno apparire solo contenuti simili a quelli che hai già visto, così le cose che vediamo sono solo una “iper-nicchia” fatta apposta per noi».

Il News Feed di Hanon non ha fatto altro che rimpolpare — in linea puramente teorica, essendo solo un esperimento, ma molto approssimata alla realtà — le convinzioni palesate dall’utente a colpi di “Mi Piace”. Nella “testa” dell’EdgeRank, come in quella di tutti gli algoritmi che governano i contenuti dei colossi informatici, c’è l’idea che nell’era della personalizzazione perfetta l’utente voglia solo leggere quel che già concerne la sua area ideologica e comportamentale. Amazon vi suggerisce libri a partire dai comportamenti d’acquisto precedenti, Facebook vi consiglia contenuti a partire dalle vostre interazioni passate, e così via. Escludendo tutto il resto.

L’effetto perverso di tutto questo si può immaginare senza sforzo: il navigatore dei social (se non ormai del web intero) si barrica dietro le sue credenze e convinzioni e, come in un guscio ermetico, non riesce a venire a conoscenza di altre opinioni – che è poi la vera essenza del concetto stesso di pluralismo informativo e di opinione pubblica, il confronto tra punti di vista diversi. — Facebook appaga alla perfezione questo “Daily Me”, visto che il News Feed appare agli occhi dei più come un giornale su misura, più che un semplice aggregatore di contenuti. E nel giornale personalizzato tu utente ti senti a casa, ideologicamente al sicuro, semplicemente perché i punti di vista opposti sono banditi e l’algoritmo implementa il tuo credo, senza mai metterlo in discussione.

Perciò, la prossima volta che sentirete esimi guru digitali narrare le mirabolanti gesta dei social network nei confronti dell’«aumento dell’informazione», ricordatevi della piccola lezione tratta da questo esperimento. Solo perché la creatura di Mark Zuckerberg propone più contenuti — di numero —, non vuol dire che informi di più giovani e adulti, visto che l’informazione esprime un concetto di qualità prima che di quantità. Anzi, è molto probabile che Facebook sedimenti idee precostituite alimentando il cameratismo tra utenti che la pensano allo stesso modo e l’odio nei confronti di coloro che non appartengono alla camerata. D’altronde, in un mondo digitale in cui abbiamo deciso di dare le chiavi del cancello agli algoritmi, dobbiamo ammettere che i gatekeeper dell’informazione non siamo più né noi né i giornalisti, bensì chi ci dice, quotidianamente, cosa leggere e cosa non leggere.
Il che forse è ancora peggio dell’avere l’informazione in mano a pochi tycoon o lobby di potere.
Com’era quella teoria secondo la quale «i robot non condizioneranno mai la nostra vita»?

Be First to Comment

    Rispondi