Twitter rimuove automaticamente più della metà dei tweet offensivi

Twitter ora rimuove automaticamente la metà dei tweet contenenti contenuti offensivi senza fare affidamento su moderatori di contenuti o utenti che li segnalano.  

Il rapporto del terzo trimestre 2019 della piattaforma di social media ha rivelato che il 50% di quei tweet rimossi a causa di contenuti offensivi è stato fatto attraverso miglioramenti nell'apprendimento automatico.  

"Continuiamo anche a fare progressi sulla salute, migliorando la nostra capacità di identificare e rimuovere in modo proattivo contenuti offensivi, con oltre il 50% dei tweet rimossi per contenuti offensivi nel terzo trimestre eliminati senza un resoconto da parte di spettatori o in prima persona", CEO di Twitter Jack Dorsey ha detto nel rapporto.  

In confronto, Twitter ha ridotto proattivamente il 38% dei contenuti offensivi nel primo trimestre di quest'anno e il 43% nel secondo trimestre, secondo Venture Beat .  

Twitter definisce i contenuti offensivi come "un tentativo di molestare, intimidire o mettere a tacere la voce di qualcun altro".  

Il social network ha introdotto per la prima volta una politica di incitamento all'odio nel 2017, che includeva il divieto e la rimozione di account affiliati a organizzazioni che promuovono la violenza, nonché l'eliminazione di tweet che glorificano la violenza e la sospensione permanente degli utenti che continuano a violare le politiche.  

Twitter ha chiesto ai suoi utenti un feedback sulla sua politica di condotta odiosa a settembre 2018 e, secondo un post sul blog di luglio , la società ha ricevuto oltre 8.000 risposte. Alcuni feedback hanno richiesto un linguaggio più chiaro su esempi di violazioni, restringendo quello che è considerato un gruppo di odio e avendo un'applicazione più coerente per i discorsi di odio alla fine di Twitter.  

A luglio, Twitter ha aggiornato le sue regole contro i contenuti odiosi per includere eventuali tweet che disumanizzavano le persone in base alla religione. Twitter rimuove già i tweet con minacce basate su razza, etnia, appartenenza religiosa e altro ancora, ma l'aggiornamento di luglio ha fissato standard più precisi per i contenuti odiosi basati sulla religione .  

Come Twitter, anche Facebook utilizza l'apprendimento automatico dell'intelligenza artificiale per rimuovere contenuti o account considerati proattivamente dannosi. Facebook utilizza un "comportamento non autentico coordinato" come bandiera rossa per vietare gli account sulla sua piattaforma. Il termine è usato per descrivere "quando gruppi di pagine o persone lavorano insieme per fuorviare gli altri su chi sono o cosa stanno facendo".  

Digital Trends ha contattato Twitter per commentare ulteriormente il processo di rimozione automatica dei tweet e aggiorneremo questa storia non appena avremo ricevuto risposta.