Instagram espande il divieto di contenuti correlati a autolesionismo e suicidio

Domenica 27 ottobre Instagram ha dichiarato che sta vietando le rappresentazioni immaginarie di autolesionismo o suicidio dalla sua piattaforma, inclusi disegni o meme e contenuti di film o fumetti che utilizzano immagini grafiche. Rimuoverà inoltre qualsiasi post che includa materiale associato indipendentemente dal fatto che mostri direttamente immagini autolesionistiche o suicide.

La mossa segue la decisione dell'azienda nel febbraio 2019 di vietare il caricamento di foto grafiche di autolesionismo sulla sua piattaforma.

Instagram ha subito una crescente pressione per gestire tali immagini a seguito di un caso di alto profilo nel Regno Unito che ha coinvolto la 14enne Molly Russell che si è suicidata nel 2017 dopo aver visto materiale grafico sul sito. Suo padre, Ian Russell, ritiene che la piattaforma sia almeno in parte responsabile della sua morte.

In un messaggio pubblicato domenica, il capo di Instagram Adam Mosseri ha descritto il suicidio e l'autolesionismo come "argomenti difficili e complessi", ma ha aggiunto che "ci sono molte opinioni sul modo migliore di affrontarli".

Mosseri ha continuato: “La tragica realtà è che alcuni giovani sono influenzati in modo negativo da ciò che vedono online e, di conseguenza, potrebbero farsi male. Questo è un rischio reale. Ma allo stesso tempo, ci sono molti giovani che stanno online per ottenere supporto per le lotte che stanno affrontando, come quelli che condividono cicatrici guarite o parlano del loro recupero da un disturbo alimentare. Spesso queste reti di supporto online sono l'unico modo per trovare altre persone che hanno condiviso le loro esperienze. "

Ha detto che dopo aver cercato consigli da accademici e organizzazioni per la salute mentale, Instagram stava cercando di trovare "il difficile equilibrio tra consentire alle persone di condividere le loro esperienze di salute mentale proteggendo anche gli altri dall'esposizione a contenuti potenzialmente dannosi".

Mosseri ha riconosciuto che c'è ancora molto lavoro da fare nell'area, ma ha osservato che nei tre mesi successivi alla sua modifica iniziale delle politiche nel febbraio 2019, Instagram ha rimosso, ridotto la visibilità o aggiunto "schermi di sensibilità" che sfocano le immagini a più di 834.000 contenuti, ed è stato in grado di individuare oltre il 77% di tali contenuti prima che gli utenti lo segnalassero.

Parlando con la BBC, Ian Russell, che ha fatto una campagna per Instagram per essere più robusto nel modo in cui gestisce i contenuti sensibili, ha descritto l'ultima mossa della piattaforma per vietare le rappresentazioni immaginarie di autolesionismo e suicidio come uno sforzo "sincero", ma voleva per essere sicuro che la società manterrà le sue promesse mentre continua ad affrontare il problema.

Facebook, che possiede Instagram e ha intrapreso azioni simili per far fronte alle immagini di autolesionismo e suicidio, ha recentemente utilizzato la Giornata mondiale della salute mentale per lanciare nuovi filtri e adesivi per Messenger volti a incoraggiare conversazioni e supporto per coloro che hanno bisogno di aiuto.