Quattro studi distinti, ma condotti dallo stesso team di ricerca, hanno appurato che l’algoritmo di Facebook non guida in alcun modo concreto le idee politiche degli americani. Si tratterebbe di un risultato importante perché smentirebbe, in via quasi definitiva, la scorretta percezione comune che tramite gli algoritmi si riescano a condizionare le idee delle persone, spingendole a pensarla in un determinato modo per “modificare” gli esiti delle elezioni.



Tutti e quattro gli studi sull’algoritmo di Facebook sono stati condotti nel 2020, in occasione delle precedenti elezioni americane, ma sono stati pubblicati solamente ora, in risposta alle crescenti preoccupazioni per le elezioni del prossimo anno. A condurre l’ampio studio sono stati diversi gruppi di ricercatori delle maggiori università statunitensi, coordinati ed in stretto contatto con Meta, l’azienda che sta dietro a Facebook ed Instagram. Meta, infatti, avrebbe fornito libero accesso ai dati aziendali interni e all’algoritmo di Facebook, apportando delle modifiche ristrette per studiare la risposta di alcuni volontari a determinati stimoli, come la ricezione di tipi determinati di contenuti, oppure l’applicazione, al loro feed, di filtri specifici.



Gli studi che provano che l’algoritmo di Facebook non modifica le idee delle persone

Il primo dei quattro studi sull’algoritmo di Facebook ha reclutato 40 mila volontari, dividendoli in due gruppi. Parte di loro ha visto modificarsi il feed in ordine cronologico (di fatto escludendo la selezione dei contenuti algoritmica), mentre l’altro gruppo non ha sperimentato nessuna modifica. In nessuno dei due casi sono stati rilevati cambiamenti alle idee ed opinioni del pubblico, seppur il gruppo cronologico abbia trascorso meno tempo sul social, ricevendo complessivamente più contenuti a sfondo politico.



Un secondo studio, invece, ha indagato l’impatto della ricondivisione dei contenuti, che secondo alcuni critici avrebbe un forte impatto sul ruolo dell’algoritmo di Facebook. Nel gruppo di partecipanti che non ha più visto i contenuti ricondivisi, sono diminuiti i post a carattere politico, ma nuovamente non si è rilevata nessuna modifica nelle idee ed opinoni. Allo stesso esito sono giunti anche i due successivi studi: il primo ha indagato il ruolo dei contenuti confermativi (ovvero simili alle proprie idee, generati da gruppi e pagine che si seguono), il secondo, invece, ha sottolineato che l’algoritmo di Facebook opera un’effettiva segregazione ideologica, isolando gli utenti conservatori. Anche in quest’ultimo caso, però, nessuno tra i conservatori e i liberali ha mostrato l’intenzione di modificare le proprie opinioni politiche.

L’esito dei quattro studi sull’algoritmo di Facebook

Insomma, in nessuno dei quattro studi condotti sull’algoritmo di Facebook si è riscontrato un effettivo cambiamento nelle opinioni politiche dei volontari che vi hanno preso parte. “Questi risultati”, hanno commentato i ricercatori, “sfidano le narrazioni popolari che incolpano le camere dell’eco (in inglese le Eco Chambers, che secondo i teorici dei media amplificano le proprie idee) dei social media per i problemi della democrazia americana contemporanea“. Si sottolinea anche che “l’algoritmo [di Facebook] si è rivelato estremamente influente nelle esperienze degli utenti sulla piattaforma”, ma solo dal punto di vista dei contenuti visualizzati.