Deepfake-hunting A.I. potrebbe aiutare a rispondere alla minaccia di notizie false
Di tutti gli strumenti di intelligenza artificiale emersi negli ultimi anni, pochissimi hanno suscitato tanto interesse quanto i deepfake. Una combinazione di "deep learning" e "falso", la tecnologia deepfake consente a chiunque di creare immagini o video in cui elementi fotografici vengono sovrapposti in modo convincente ad altre immagini. Mentre alcuni dei modi in cui questa tecnologia è stata messa in mostra sono stati per l'intrattenimento (pensa a sovrapporre la faccia di Sylvester Stallone al corpo di Arnie in Terminator 2 ), altri casi d'uso sono stati più allarmanti. Deepfakes rende possibile tutto, dal traumatizzante e rovinoso della reputazione, al "vendetta porno", alla falsa notizia ingannevole.
Di conseguenza, mentre un numero crescente di ricercatori ha lavorato per rendere più realistica la tecnologia dei deepfake , altri hanno cercato modi per aiutarci a distinguere meglio tra immagini e video che sono reali e quelli che sono stati elaborati algoritmicamente.
All'università della California, a Riverside, un team di ricercatori del gruppo Video Computing ha sviluppato una rete neurale profonda in grado di individuare immagini manipolate con un alto grado di precisione. Nel processo, i suoi creatori sperano di poter fornire i mezzi per combattere i pericoli dei deepfakes. Non è la prima volta che i ricercatori hanno tentato di risolvere questo problema, ma è potenzialmente uno degli sforzi più promettenti da concretizzare finora in questo gioco di gatto e topo in corso.
"Molti [precedenti] rilevatori di deepfake si affidano a stranezze visive nel video falso, come movimenti delle labbra incoerenti o strane pose della testa", ha detto a Digital Trends Brian Hosler, un ricercatore del progetto. “Tuttavia, i ricercatori stanno diventando sempre più bravi a stirare questi segnali visivi durante la creazione di deepfake. Il nostro sistema utilizza correlazioni statistiche nei pixel di un video per identificare la telecamera che lo ha catturato. È improbabile che un video deepfake abbia le stesse correlazioni statistiche nella parte falsa del video come nella parte reale e questa incoerenza potrebbe essere utilizzata per rilevare contenuti falsi ".
Il lavoro finanziato dalla DARPA è iniziato come un esperimento per vedere se era possibile creare un algoritmo AI in grado di individuare la differenza tra i video catturati da diverse telecamere. Come una filigrana, ogni telecamera acquisisce e comprime i video in modo leggermente diverso. La maggior parte di noi non può farlo, ma un algoritmo addestrato per rilevare queste differenze può riconoscere le impronte digitali visive uniche associate a telecamere diverse e utilizzarle per identificare il formato di un particolare video. Il sistema potrebbe anche essere utilizzato per altre cose, come lo sviluppo di algoritmi per rilevare video con frame eliminati o per rilevare se un video è stato caricato o meno sui social media.
Come hanno fatto
Il team UC Riverside ha curato un ampio database di video, in esecuzione per circa 20 ore, da 46 telecamere diverse. Hanno quindi addestrato una rete neurale per essere in grado di distinguere questi elementi. Per quanto convincente come un video deepfake possa sembrare alla tua persona media, l'IA li esamina pixel per pixel per cercare elementi che sono stati modificati. L'IA risultante non solo è in grado di riconoscere quali immagini sono state modificate, ma è anche in grado di identificare la parte specifica dell'immagine che è stata modificata.
Owen Mayer, un membro del gruppo di ricerca, ha precedentemente creato un sistema che analizza alcune di queste correlazioni statistiche per determinare se due parti di un'immagine sono modificate in modi diversi. Una demo di questo sistema è disponibile online . Tuttavia, questo ultimo lavoro è la prima volta che un tale approccio è stato condotto nei filmati. Questo è un problema più grande, che è cruciale per ottenere il giusto mentre i deepfake diventano più diffusi.
"Abbiamo in programma di rilasciare una versione del nostro codice, o anche un'applicazione, al pubblico in modo che chiunque possa fare un video e provare a identificare il modello di origine della fotocamera", ha continuato Hosler. "Gli strumenti che realizziamo e che i ricercatori del nostro settore realizzano sono spesso open source e distribuiti liberamente".
Tuttavia, c'è ancora molto lavoro da fare. I deepfakes stanno solo migliorando, il che significa che i ricercatori dall'altra parte della recinzione non devono riposare sugli allori. Gli strumenti dovranno continuare a evolversi per essere sicuri di poter continuare a individuare immagini e video falsi mentre eliminano i tratti visivi più evidenti che possono contrassegnare i deepfake attuali come pure i falsi. Poiché gli strumenti di deepfake audio, in grado di imitare le voci, continuano a svilupparsi , sarà anche necessario creare strumenti di rilevamento dell'audio per rintracciarli.
Per ora, forse la sfida più grande è sensibilizzare sul problema. Come il controllo dei fatti che leggiamo online, la disponibilità di informazioni su Internet funziona a nostro vantaggio solo se ne sappiamo abbastanza per indovinare ciò che leggiamo. Fino ad ora, trovare prove video del fatto che fosse successo qualcosa era abbastanza per convincere molti di noi che si era effettivamente verificato. Quella mentalità dovrà cambiare.
"Penso che uno dei maggiori ostacoli per convincere tutti a utilizzare strumenti forensi come questi sia il divario di conoscenza", ha detto Hosler. "Noi come ricercatori dovremmo rendere non solo gli strumenti, ma le idee di base, più appetibili per il pubblico se avessimo davvero un impatto".
Qualunque sia la forma di questi strumenti, che si tratti di un plug-in per browser Web o di un'intelligenza artificiale che viene utilizzata automaticamente dai giganti di Internet per contrassegnare i cont
enuti prima che vengano mostrati agli utenti, speriamo sicuramente che venga utilizzato l'approccio giusto per renderli il più accessibili possibile.
Ehi, è solo il futuro della verità come lo sappiamo che è in gioco …