YouTube potrebbe apportare grandi cambiamenti ai contenuti dei bambini tra le indagini federali
YouTube sta prendendo in considerazione importanti modifiche al suo algoritmo di raccomandazione, tra un'indagine della Federal Trade Commission su come gestisce i video rivolti ai bambini.
L'indagine è in fase avanzata, ed è in risposta ai reclami fatti sul trattamento della piattaforma per i bambini che risalgono fino al 2015, secondo quanto riportato dal Washington Post che cita fonti anonime che hanno familiarità con la questione. YouTube è stato accusato di non aver protetto i bambini, in particolare quando il suo algoritmo consiglia o accoda i video inappropriati. La FTC sta anche esaminando se YouTube abbia raccolto dati in modo improprio da giovani spettatori.
Non è chiaro quali sarebbero stati i cambiamenti, ma il Wall Street Journal ha riferito che la leadership stava considerando di spostare i contenuti di tutti i bambini nella propria app o rimuovere la funzione di riproduzione automatica di YouTube.
All'inizio di quest'anno, i video di YouTube rivolti ai bambini sono stati accusati di contenere contenuti dannosi e grafici. Ci sono anche preoccupazioni sul fatto che i bambini possano guardare video di YouTube che contengono discorsi di incitamento all'odio, teorie cospirative o disinformazione.
Anche con l'occhio vigile di un genitore , l'algoritmo della piattaforma per i video di tendenza e di accodamento è il principale responsabile della diffusione di contenuti dannosi a milioni di spettatori. Alcuni video indirizzano esplicitamente le parole chiave usate dai bambini – argomenti come i supereroi di Frozen o Marvel – nella speranza di generare punti di vista da parte di un pubblico più giovane. Quando si tratta di video che incoraggiano il razzismo o altri odio, YouTube ha annunciato all'inizio di questo mese che aggiornerebbe la sua politica di rimozione video per indirizzare in modo specifico i discorsi di incitamento all'odio e contenuti discriminatori.
YouTube incoraggia gli spettatori a segnalare contenuti che violano le sue attuali norme sulla sicurezza dei minori . In teoria, il sistema dovrebbe prima avvisare il produttore di contenuti, quindi emettere un avvertimento seguito dalla chiusura del canale di un utente dopo tre avvertimenti. Le forze dell'ordine verrebbero notificate solo se il contenuto descrive un bambino in pericolo. Tuttavia, alcuni video cadono attraverso le fessure e YouTube ha avuto problemi a tenere il passo con i contenuti di polizia tra le ore e le ore di video caricate ogni minuto.
Anche l'app per bambini, YouTube Kids , contiene una dichiarazione di non responsabilità: "Utilizziamo un mix di filtri, feedback degli utenti e revisori umani per mantenere i video in YouTube Kids adatti alle famiglie. Ma nessun sistema è perfetto e i video inappropriati possono passare, quindi lavoriamo costantemente per migliorare le nostre salvaguardie e offrire più funzionalità per aiutare i genitori a creare l'esperienza giusta per le loro famiglie ".
YouTube non ha risposto alla nostra richiesta di commenti su potenziali modifiche all'algoritmo, ma il portavoce Andrea Faville ha dichiarato al Post in una dichiarazione che non tutte le opzioni per le modifiche ai prodotti sarebbero state apportate a YouTube stesso.
"Consideriamo molte idee per migliorare YouTube e alcune rimangono solo – idee", ha affermato. "Altri, sviluppiamo e lanciamo, come le nostre restrizioni sui minori in diretta streaming o la politica di incitamento all'odio aggiornata".