Filmati che fanno riferimenti velati agli stupefacenti, normalizzano l’uso delle armi da fuoco e fanno propaganda allo sbiancamento della pelle o ad astruse diete. Questi sono solo alcuni dei contenuti che un’indagine condotta dalla non profit Tech Transparency Project (TTP) avrebbe rintracciato su YouTube Kids, la versione per bambini della celebre piattaforma di video sharing.
Come funziona YouTube Kids
Lanciato nel 2015 e teoricamente regolato da un repertorio di norme di sicurezza stringenti, il sito web è rivolto a un target di utenti d’età inferiore ai 13 anni, per i quali i contenuti vengono suddivisi in tre categorie, corrispondenti a tre diverse fasce anagrafiche: ‘grandi’, per gli user dai nove ai 12 anni, ‘piccoli’, per quelli inclusi nella fascia tra quattro e sette anni e, infine, ‘età prescolare’, per internauti minori di quattro anni. Un sistema apparentemente organizzatissimo, potenziato anche da una selezione di filtri automatici che, unitamente al feedback dei genitori, mettono in evidenza i video family friendly, oscurando automaticamente quelli che non rispettano le linee guida. Eppure, anche le macchine ben oleate hanno dei difetti e, nel caso di YouTube Kids è capitato, più di una volta, che clip inappropriate facessero capolino tra le scene di un film animato.

Da battute sulla droga a inviti alla perdita di peso
A svelare le falle sono stati i ricercatori dell’associazione che, adoperando tre diversi account, ognuno corrispondente a un range anagrafico preciso, si sono imbattuti in immagini fuori luogo e materiale decisamente pericoloso. Come nel caso di un cooking show a tema Breaking Bad, nel quale i conduttori indossano maschere antigas che ricordano quelle sfoggiate dai protagonisti della nota serie e si perdono in battute sul rischio di inalare i fumi. Una gag ironica per adolescenti e adulti ma non adatta ai più piccoli. O, ancora, un tutorial per ricreare su Minecraft il camper dove Walter White cucinava la metanfetamina.

Ma non è tutto. La squadra, infatti, ha ritrovato nella lista dei risultati anche canzoni come Cocaine di Eric Clapton, inclusa in un video per insegnare ai chitarristi in erba gli accordi di alcuni pezzi culto, approfondimenti su accessori per potenziare le funzionalità di una pistola o di un fucile, vlog di una beauty influencer indiana che consiglia strani intrugli chimici da applicare sulla pelle senza il parere di uno specialista e un cartone che incoraggia a perdere peso. «Non ci saremmo mai aspettati di trovare materiale del genere in uno spazio ideato appositamente per i bambini», ha spiegato al Guardian Katie Paul, direttrice di TTP, «sono rimasta scioccata da tutti i riferimenti alle sostanze stupefacenti che ci sono capitati sotto tiro. Ovviamente, non incitano al consumo ma l’utilizzo di una certa fraseologia non va sottovalutato perché finisce per influenzare chi, sprovvisto degli strumenti per capire, non ne percepisce la pericolosità. Forse, tutto quel machine learning vantato da YouTube Kids non è poi così efficace».
Le responsabilità dell’algoritmo
Da parte sua, la società ha immediatamente diffuso un comunicato per precisare come, nel suo interesse, ci sia sempre e solo un obiettivo: «Creare un ambiente sicuro in cui i più piccoli possono trovare risposte alle proprie curiosità, offrendo ai genitori tutti gli strumenti per personalizzare l’esperienza dei figli, controllando cosa possono vedere e cosa no». In realtà, più che nei meccanismi di sicurezza e nel parental control, per Paul il problema sarebbe legato alla monetizzazione, che porta l’algoritmo a rendere virali determinati filmati, sovvertendo le restrizioni e inserendoli in circuiti in cui non dovrebbero comparire. «Si tratta perlopiù di materiale legato ad aziende americane», ha concluso, «e sarebbe ora che, dopo il Regno Unito e l’Unione Europea, anche gli Stati Uniti iniziassero a riflettere su misure più severe per garantire che queste compagnie non causino più problemi e consentano ai bambini di navigare in tranquillità».