OpenAI, Meta e altri sette colossi uniscono le forze per creare una “carta d’identità” anticontraffazione nell’era dell’IA

Anche i contenuti generati dall’IA devono avere una “carta d’identità”.

Di recente, sette giganti della tecnologia, tra cui OpenAI e Meta, si sono impegnati ad adottare alcune misure di sicurezza per migliorare la sicurezza della tecnologia AI.

Vale la pena notare che nell’impegno, i sette giganti della tecnologia hanno tutti parlato delle questioni normative dell’IA e hanno promesso di sviluppare e applicare congiuntamente un sistema di watermarking che può essere utilizzato per tutte le forme di contenuto generato dall’intelligenza artificiale, inclusi testo, immagini, audio e video.

Prestando attenzione al logo della filigrana incorporato nel contenuto, gli utenti possono identificare immagini o audio falsi profondi generati dall’intelligenza artificiale, riducendo così il rischio di diffondere informazioni negative come violenza e frode da parte dell’utente.

▲Immagine da: Pexels, la stessa qui sotto

In effetti, dall’esplosione di ChatGPT lo scorso anno, i giganti della tecnologia che entrano in gioco sono destinati a emergere in questa competizione e lo sviluppo della tecnologia AI sta avanzando a passi da gigante.

Poi, anche l’immatura tecnologia AI ha sollevato alcune questioni degne di attenzione, la prima delle quali è come identificare l’autenticità del contenuto informativo.

Nel 2019, un truffatore ha utilizzato un software di imitazione vocale AI per fingere di essere il capo dell’azienda, facendo credere al CEO di una società energetica britannica che stesse parlando con il capo della casa madre tedesca.

Al telefono, il truffatore ha chiesto all’amministratore delegato di trasferire immediatamente 220.000 euro (nota: circa 1,76 milioni di yuan) sul conto corrente bancario di un fornitore in Ungheria in virtù della voce simulata dalla tecnologia AI, al fine di evitare di pagare “commissioni in ritardo”, e ha chiesto che le informazioni sul trasferimento fossero inviate via email. Sotto la confusione della voce simulata, l’amministratore delegato non ha esitato a farlo, e poi i 220.000 euro sono stati “vani”.

“I truffatori stanno usando una sorta di software di intelligenza artificiale che può non solo imitare la voce, l’intonazione, ma anche l’inglese con un accento tedesco di qualcun altro”, ha detto l’assicuratore che copre la compagnia energetica. “Il (falso) ‘Johannes’ ha persino chiesto di parlare con me quando stavo parlando con il vero Johannes”, ha scritto con rabbia il CEO in una e-mail.
Questo evento oltraggioso ha anche suscitato in generale le preoccupazioni degli utenti per lo sviluppo disordinato dell’IA. Quando la rivoluzionaria tecnologia dell’intelligenza artificiale viene utilizzata per le frodi, è più simile a un’evoluzione di “indovina chi sono?”.

Ma di fronte agli scioperi della riduzione della dimensionalità, la vigilanza della gente comune sembra inutile.

E questo è solo un incidente accaduto nel 2019. In soli tre anni, il rapido sviluppo della tecnologia AI è sufficiente a lasciare sbalorditi le persone e la questione dell’autenticità dei contenuti informativi è tornata nuovamente all’attenzione del pubblico.

Se utilizziamo “frode AI” come parola chiave e filtriamo le informazioni più recenti sul motore di ricerca, scopriremo che ci sono molti incidenti relativi a frodi AI. Questo fenomeno universale riflette solo l’urgenza di attuare misure efficaci.

Nel giugno di quest’anno, il Parlamento europeo ha votato con 499 voti favorevoli, 28 contrari e 93 astenuti, e ha approvato a pieni voti l’”Artificial Intelligence Act” dell’Unione europea, che ha chiarito l’invalicabile linea rossa nella regolamentazione dell’IA e una gestione differenziata basata su quattro livelli di AI (dal meno rischioso all’inaccettabile). che il contenuto illegale sia impedito.

Tudorach, membro del Parlamento europeo, ha dichiarato: “Se gli sviluppatori di intelligenza artificiale non lo fanno, potrebbero essere costretti a cancellare immediatamente l’applicazione o essere multati fino al 7% del loro reddito”.

Pertanto, i sette giganti della tecnologia scelgono di incorporare filigrane nel contenuto informativo a livello tecnico.Da un lato, aiuterà gli utenti a identificare l’autenticità del contenuto informativo e faciliterà gli utenti a rintracciare la fonte del contenuto informativo.D’altra parte, è anche una risposta silenziosa alla “Artificial Intelligence Act”.

Naturalmente, anche se questa è una soluzione temporanea piuttosto che permanente, è comunque una buona cosa mettere prima le parole e poi le azioni.

#Benvenuti a prestare attenzione all’account pubblico WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), altri contenuti interessanti ti verranno presentati il ​​prima possibile.

Ai Faner | Link originale · Visualizza i commenti · Sina Weibo