banner

Blog

Jul 04, 2023

Il mondo non saprà mai la verità sulle tane dei conigli di YouTube

La repressione della radicalizzazione attuata dal sito sembra aver funzionato. Ma il mondo non saprà mai cosa stava succedendo prima.

Intorno al periodo delle elezioni del 2016, YouTube è diventato noto come sede della crescente alt-right e di teorici della cospirazione molto popolari. Il sito di proprietà di Google contava più di 1 miliardo di utenti e ospitava personalità carismatiche che avevano sviluppato relazioni intime con il loro pubblico, rendendolo potenzialmente un potente vettore di influenza politica. All'epoca, il canale di Alex Jones, Infowars, aveva più di 2 milioni di abbonati. E l’algoritmo di raccomandazione di YouTube, che rappresentava la maggior parte di ciò che le persone guardavano sulla piattaforma, sembrava trascinare le persone sempre più in profondità in pericolose delusioni.

Il processo di “caduta nella tana del coniglio” è stato illustrato in modo memorabile dai resoconti personali di persone che erano finite per strani percorsi nel cuore oscuro della piattaforma, dove erano state incuriosite e poi convinte dalla retorica estremista – un interesse per le critiche al femminismo. potrebbe portare ai diritti degli uomini e poi alla supremazia bianca e poi all’appello alla violenza. La cosa più preoccupante è che una persona che non era necessariamente alla ricerca di contenuti estremi potrebbe finire per guardarli perché l’algoritmo ha notato un sussurro di qualcosa nelle scelte precedenti. Potrebbe esacerbare i peggiori impulsi di una persona e portarla in un luogo che non avrebbe scelto, ma da cui avrebbe difficoltà a uscire.

Quanto fosse grande il problema di YouTube non era del tutto chiaro, e la società ha negato di averne uno anche se stava apportando modifiche per affrontare le critiche. All'inizio del 2019, YouTube ha annunciato modifiche al suo sistema di consigli con l'obiettivo di ridurre drasticamente la promozione di "disinformazione dannosa" e "contenuti borderline" (i tipi di video che erano quasi abbastanza estremi da poter essere rimossi, ma non del tutto). Allo stesso tempo, ha anche dato il via a un’azione di demonetizzazione, bloccando i programmi di condivisione delle entrate pubblicitarie per i creatori di YouTube che disobbedivano alle sue politiche sull’incitamento all’odio. Qualunque altra cosa YouTube continuasse a consentire sul suo sito, l’idea era che la tana del coniglio sarebbe stata chiusa. compilato.

Un nuovo studio sottoposto a revisione paritaria, pubblicato oggi su Science Advances, suggerisce che l'aggiornamento di YouTube del 2019 ha funzionato. Il gruppo di ricerca è stato guidato da Brendan Nyhan, un professore governativo a Dartmouth che studia la polarizzazione nel contesto di Internet. Nyhan e i suoi coautori hanno intervistato 1.181 persone riguardo ai loro atteggiamenti politici esistenti e poi hanno utilizzato un'estensione del browser personalizzata per monitorare tutte le loro attività e i consigli su YouTube per un periodo di diversi mesi alla fine del 2020. Hanno scoperto che i video estremisti venivano guardati da solo il 6% dei partecipanti. Di queste persone, la maggioranza si era deliberatamente iscritta ad almeno un canale estremista, il che significa che non erano state spinte lì dall'algoritmo. Inoltre, queste persone spesso accedevano a video estremisti da collegamenti esterni anziché da YouTube.

Questi modelli di visualizzazione non hanno mostrato alcuna prova di un processo a tana del coniglio come viene comunemente immaginato: invece di utenti ingenui che improvvisamente e inconsapevolmente si ritrovano incanalati verso contenuti che incitano all'odio, "vediamo persone con livelli molto elevati di genere e risentimento razziale cercare questi contenuti," Me lo ha detto Nyhan. Il fatto che le persone visualizzino contenuti estremisti principalmente attraverso abbonamenti e link esterni è qualcosa che "solo [questo team è stato] in grado di catturare, grazie al metodo", afferma Manoel Horta Ribeiro, un ricercatore presso il Politecnico federale di Losanna che era ' t coinvolti nello studio. Mentre molti studi precedenti sulla tana del coniglio di YouTube hanno dovuto utilizzare bot per simulare l'esperienza di navigare tra i consigli di YouTube, facendo clic senza pensarci sul successivo video suggerito più e più volte, questo è il primo che ha ottenuto dati così granulari su persone reali e umane. comportamento.

Lo studio ha un difetto inevitabile: non può spiegare nulla di ciò che è accaduto su YouTube prima che i dati fossero raccolti, nel 2020. "Può darsi che la popolazione suscettibile fosse già radicalizzata durante l'era di YouTube prima del 2019", come Nyhan e spiegano i suoi coautori nel documento. Dopotutto, i contenuti estremisti esistono ancora su YouTube e alcune persone continuano a guardarli. Quindi c'è un dilemma dell'uovo e della gallina: chi è venuto prima, l'estremista che guarda video su YouTube o lo YouTuber che incontra contenuti estremisti lì?

CONDIVIDERE