YouTube raccomanda video di pedofilia «soft-core»? La nostra verifica

Bastano pochi click per passare da video di donne adulte in bikini a video di bambine poco vestite che fanno ginnastica, accompagnati da commenti angoscianti

YouTube non è un posto per bambini. Sfruttando in maniera deviata l’algoritmo del sito, è possibile accedere a una lunghissima serie di raccomandazioni video di pedofilia soft-core: bambine poco vestite che fanno ginnastica, giocano in piscina, mangiano lecca lecca. Gli utenti commentano lasciando timestamp, link a momenti nel girato in cui le protagoniste sono in pose "provocanti".


Questi video sono "monetizzati". La presenza di pubblicità ci assicura che chi carica questi contenuti (a volte con milioni di visualizzazioni) ci sta guadagnando. E ci sta guadagnano anche YouTube. Ha denunciato tutto Matt Watson, con un video e un post su Reddit.


 

 

Entrare in quello che Watson chiama il “wormhole”, il tunnel, è estremamente facile. Anche noi, partendo dalla medesima ricerca (“bikini haul”, video nei quali donne adulte si provano costumi da bagno), siamo arrivati in poco tempo a contenuti come questo.

Il problema non è il contenuto, né le ignare protagoniste del video, ma i commenti. I timestamp sotto questo video corrispondono a momenti in cui si intravedono le mutandine della bambina. Passando di video in video appaiono anche emoji suggestive e commenti inappropriati.

YouTube raccomanda video di pedofilia «soft-core»? La nostra verifica foto 1

Techcrunch ha confermato le scoperte di Watson, incluse quelle relative alla monetizzazione. Hanno contattato YouTube, che tramite un portavoce ha rilasciato questa dichiarazione:

Qualsiasi contenuto, inclusi i commenti, che mette in pericolo i minori è aberrante e vietato da norme chiare. Applichiamo queste politiche in modo aggressivo, segnalando questi contenuti alle autorità competenti, rimuovendoli dalla nostra piattaforma e chiudendo gli account. Continuiamo a investire pesantemente in tecnologia, team e partnership con enti di beneficenza per affrontare questo problema. Abbiamo politiche rigorose che disciplinano la pubblicazione degli annunci pubblicitari, che applichiamo con vigore. Quando troviamo contenuti che violano le nostre norme, interrompiamo immediatamente la pubblicazione degli annunci o li rimuoviamo del tutto.

 

Il portavoce della piattaforma ha anche sottolineato che la maggior parte dei video sono registrazioni innocenti di bambini che fanno cose da bambini. Il problema, però, è come, e da chi, questi video vengono sfruttati e catalogati.

 

YouTube raccomanda video di pedofilia «soft-core»? La nostra verifica foto 2

 

YouTube modera i suoi contenuti tramite un’AI, ancora imperfetta nel determinare il contesto nel quale sono visti i video, e un team di 10 mila esseri umani. Considerando sulla piattaforma vengono caricati 400 video nuovi al minuto, è evidente che questi meccanismi di sicurezza sono completamente insufficienti.

Non è la prima, né sarà l’ultima volta che l’algoritmo del secondo motore di ricerca al mondo viene usato in maniera perversa. YouTube è stata accusata di agevolare la radicalizzazione di giovani musulmani, di contribuire alla diffusione di fake news e disinformazione, di dare spazio a santoni e pseudomedici.  

 

https://www.youtube.com/watch?v=Wwx4XRNaAm0

 

La denuncia di Watson sta avendo i primi effetti. Il sito ha promesso di modificare la sua linea di condotta sulla base delle gravi segnalazioni: già in queste ore molti video di bambine hanno i commenti bloccati e il meccanismo di ricerca è molto meno immediato. Anche altri user del sito si sono accorti del pericolo, iniziando a commentare con slogan antipedofilia e l’hashtag #Youtubewakeup. Sforzo lodevole, ma questa è solo la punta dell’iceberg di fenomeni molto più complessi e pericolosi – YouTube deve trovare un modo di arginare il problema a monte, senza aspettare l'intervento della sua comunità.

La pubblicità, intanto, continua a precedere video di bambine, da tutto il mondo, che ballano, giocano e danzano per gli occhi dei lupi.

 

Leggi anche: