YouTube sta esternalizzando a voi il problema della scarsa efficacia dell’IA, e questa è un’idea pessima.

YouTube ha un nuovo piano per affrontare l'ondata di contenuti generati dall'intelligenza artificiale che sta invadendo la sua piattaforma, e coinvolge anche te. L'azienda ora chiede agli spettatori di valutare se un video sembra di bassa qualità, generato dall'IA . A prima vista, sembra un modo ragionevole per contrastare i contenuti di bassa qualità creati dall'IA nel tuo feed. In pratica, però, potrebbe causare più problemi di quanti ne risolva.

Gli esseri umani sono pessimi nell'individuare i contenuti generati dall'IA e la situazione sta peggiorando.

Il problema fondamentale di questo approccio è che le persone non sono brave a individuare i contenuti generati dall'IA, e il divario tra la capacità di rilevamento umano e quella dell'IA si sta ampliando rapidamente. I primi contenuti generati dall'IA presentavano indizi evidenti come voci robotiche, mani deformate o volti dall'aspetto innaturale. I modelli più recenti hanno in gran parte risolto questi problemi.

Le voci ora suonano naturali, i volti sono convincenti e gli indizi più evidenti stanno scomparendo. Gli strumenti si sono chiaramente evoluti, ma gli spettatori occasionali non sono riusciti a stare al passo. E ci sono ricerche a supporto di questa affermazione.

Un recente studio sul riconoscimento facciale tramite intelligenza artificiale ha rilevato che le persone ottenevano risultati solo leggermente superiori al caso quando veniva chiesto loro di identificare volti generati dall'IA. Ciò che è ancora più preoccupante è che la loro fiducia nella capacità di individuare i volti generati dall'IA era costantemente superiore alla loro effettiva precisione. La ricerca mostra schemi simili anche in altri ambiti.

Uno studio sul rilevamento dei deepfake ha scoperto che le persone faticano a individuarli, pur credendo di poterci riuscire, mentre una ricerca sul rilevamento delle voci generate dall'IA suggerisce che le voci artificiali sono ormai quasi indistinguibili da quelle reali per l'ascoltatore medio.

Il traduttore di YouTubeI dati di ck non giocano a suo favore. Uno studio di Kapwing ha rilevato che circa il 21% dei primi 500 video consigliati a un nuovo account erano classificati come contenuti di bassa qualità generati dall'IA, mentre un'indagine del New York Times ha scoperto che oltre il 40% dei video brevi consigliati ai bambini in una sessione di 15 minuti conteneva contenuti di bassa qualità generati dall'IA.

Si tratta di contenuti che hanno già superato i sistemi di revisione automatica e umana di YouTube. Se questi sistemi lasciano passare così tanta superficialità da parte dell'IA, aspettarsi che gli spettatori facciano di meglio sembra irrealistico.

Il sistema di valutazione apre anche la porta agli abusi

Anche se gli spettatori fossero infallibili rilevatori di IA, il nuovo sistema di valutazione è soggetto ad abusi. Le campagne coordinate contro i creator sono un problema ben documentato su YouTube, con malintenzionati che prendono di mira i canali attraverso segnalazioni di massa e attacchi di "non mi piace". Una funzionalità che permette agli utenti di etichettare i contenuti come "spazzatura da IA" offre loro un nuovo strumento da sfruttare. Canali rivali, community arrabbiate o gruppi organizzati potrebbero abusarne per segnalare i video a prescindere dal fatto che sia stata effettivamente utilizzata l'IA.

YouTube non ha spiegato come verificherà o pondererà queste valutazioni, lasciando ampio margine di manipolazione. I creatori che hanno impiegato anni a costruire il proprio pubblico potrebbero ora dover affrontare un nuovo rischio che ha poco a che fare con la qualità del loro lavoro. Se il sistema venisse implementato su larga scala senza adeguate misure di sicurezza, potrebbe finire per danneggiare i creatori legittimi tanto quanto prende di mira i contenuti di bassa qualità creati dall'IA.

E cosa ne ricavano gli spettatori?

Anche se YouTube riuscisse in qualche modo a contrastare gli abusi, il sistema presenta un altro problema evidente: la mancanza di incentivi. Segnalare i contenuti generati dall'IA richiede impegno e una certa consapevolezza delle reali capacità degli strumenti di intelligenza artificiale, ma YouTube non offre alcun vantaggio concreto agli spettatori che contribuiscono a individuare gli abusi dell'IA. La piattaforma, d'altro canto, ottiene un flusso di contenuti più pulito e un flusso costante di dati degli utenti, senza offrire granché in cambio.

classe="wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter">

Esiste inoltre la legittima preoccupazione che nulla impedisca a YouTube di utilizzare questo feedback per addestrare futuri modelli di intelligenza artificiale, rendendo potenzialmente ancora più difficile individuare i video generati dall'IA. Di fatto, un sistema concepito per combattere le imprecisioni dell'IA potrebbe trasformarsi in uno che contribuisce a migliorarla.

L'approccio di YouTube non centra l'obiettivo.

Il nuovo sistema di valutazione è un altro tentativo di YouTube di dimostrare di prendere sul serio il problema dei contenuti di bassa qualità generati dall'IA, ma la piattaforma non sta ancora facendo abbastanza. Non vieta esplicitamente ai creatori di pubblicare contenuti generati dall'IA e, sebbene richieda la divulgazione di contenuti multimediali modificati o sintetici tramite IA, tale regola si applica solo in determinati casi. Anche la penalizzazione sulla monetizzazione è limitata, poiché si basa sugli stessi sistemi di rilevamento che già lasciano passare troppi contenuti di bassa qualità generati dall'IA.

YouTube ha contribuito a creare le condizioni per questo problema consentendo e monetizzando per anni i contenuti generati dall'intelligenza artificiale, e i suoi tentativi di contenerli si sono rivelati inefficaci a ogni passo. Affidare la pulizia dei contenuti agli spettatori, senza spiegare come verranno utilizzati i loro dati e senza offrire nulla in cambio, significa trattarli più come una risorsa gratuita che come una comunità. Se YouTube vuole davvero affrontare il problema dell'intelligenza artificiale approssimativa, deve assumersi la responsabilità della soluzione, invece di delegare il compito agli spettatori.

L'articolo "YouTube sta esternalizzando a voi il problema della scarsa efficacia dell'IA, e questa è una pessima idea" è apparso per la prima volta su Digital Trends .