Costruire una “scheda grafica per bombe nucleari” non può più soddisfare Nvidia

Ogni agosto, Nvidia metterà in mostra i suoi “muscoli” al SIGGRAPH, la conferenza di computer grafica più importante al mondo.

Cinque anni fa, il CEO di Nvidia Huang Renxun ha rilasciato Quadro RTX, la prima scheda grafica che supporta il ray tracing, al SIGGRAPH 2018. Questo è il prodotto più importante di Nvidia dai tempi del G80, spingendo le GPU Nvidia dall’era GTX all’era RTX.

A quel tempo, Nvidia era ancora un produttore di chip di elaborazione grafica molto puro e la sua mente era piena di come spingere il rendering 3D all’estremo.Il suo valore di mercato era di circa 81,4 miliardi di dollari USA e non era ancora entrato nel club dei 100 miliardi .

Ma entro il 2023, Nvidia ha subito un cambiamento radicale. Alla conferenza GTC di marzo, dopo che Lao Huang ha lanciato la frase d’oro “È arrivato il momento dell’iPhone di AI”, il prezzo delle azioni di Nvidia ha iniziato a salire costantemente, stabilendo costantemente nuovi massimi storici.

Negli ultimi cinque anni, il prezzo delle azioni di Nvidia è aumentato di quasi 10 volte e il suo attuale valore di mercato ha superato 1,1 trilioni, rendendola la prima società di chip al mondo con un valore di mercato superiore a mille miliardi di dollari USA. mercato azionario.

Le schede grafiche di Nvidia sono ancora popolari sul mercato, ma ora non sono più i giocatori a inseguire l’immagine definitiva, ma giganti della tecnologia come Microsoft e Meta desiderosi di implementare e addestrare modelli di grandi dimensioni.

Al SIGGRAPH 2023 di ieri sera, è stato difficile per te sentire Lao Huang pronunciare parole chiave familiari come giochi, rendering in tempo reale e 3D e sostituirle con concetti come intelligenza artificiale generativa, data center e calcolo accelerato.

Questa è una nuova Nvidia e una nuova era.

Nvidia è cambiata

Possiamo interpretare che tipo di azienda sia dal rapporto finanziario di Nvidia.

Per molto tempo, il business dei giochi è stato l’attività principale di Nvidia.Fino al primo trimestre fiscale del 2023, sotto la doppia influenza del calo dei consumi nel mercato dei PC e dell’aumento dell’intelligenza artificiale, il business dei data center di Nvidia ha finalmente preso piede ed è diventato il numero 1 di Nvidia Questo segna anche la trasformazione ufficiale di Nvidia da un tradizionale fornitore di GPU a uno dei più grandi fornitori di potenza di calcolo al mondo.

Successivamente, i data center di Nvidia hanno iniziato a salire fino in fondo e le sue H100, A100 e altre schede grafiche per computer sono diventate valuta pregiata nel settore dell’IA e una volta c’era una grave carenza. Alcuni analisti ipotizzano che il mondo potrebbe aver bisogno di 432.000 H100 per soddisfare la domanda del mercato.

L’ultimo rapporto finanziario trimestrale di Nvidia mostra che, grazie alla forte domanda delle imprese, il fatturato del business dei data center di Nvidia nel primo trimestre è stato di circa 4,2 miliardi, un aumento anno su anno del 14% e un aumento mese su mese del 18%, superando Le aspettative di Wall Street.

Ma se pensi che Nvidia sia solo il fortunato a cui è capitato di essere colpito dal denaro caldo dell’IA, allora sottovaluti Lao Huang.

Per Nvidia, costruire una “GPU per bombe nucleari” e investire nell’intelligenza artificiale sono solo “lavori preparatori” per realizzare la loro visione definitiva.Ciò che Nvidia vuole davvero fare è costruire un vero metaverso.

La “zappa” più avanzata

Se un operaio vuole fare un buon lavoro, deve prima affilare i suoi strumenti, e Nvidia lo capisce bene.

Nel marzo di quest’anno, Nvidia ha rilasciato quattro chip di inferenza AI, GPU H100 NVL, GPU L4 Tensor Core, GPU L40 e NVIDIA Grace Hopper, per soddisfare le crescenti esigenze di potenza di calcolo delle aziende.

Al Taipei Computer Show di maggio, Lao Huang ha rilasciato il supercomputer DGX GH200 composto da 256 superchip NVIDIA GH200 Grace Hopper.

E proprio ieri, Lao Huang ha rilasciato una nuova versione di GH200 dotata di memoria HBM3e.Anche la generazione precedente di GH200 non è stata ancora ufficialmente spedita e la velocità di aggiornamento è spaventosa.

Le differenze tra il vecchio e il nuovo GH200 sono principalmente nella memoria.

Il GH200 Grace Hopper è il primo chip GPU al mondo con memoria HBM3e, un aumento del 50% della capacità di memoria da 96 GB a 144 GB per GPU.

La memoria HBM3e è un nuovo tipo di tecnologia di memoria ad alta larghezza di banda.In termini di velocità di elaborazione, HBM3e può essere più veloce del 50% rispetto alla velocità di elaborazione HBM3, fornendo una velocità di trasmissione massima di 5 TB/s. Ciò consente alla nuova versione del GH200 di eseguire modelli AI 3,5 volte più velocemente rispetto ai modelli attuali.

Tra questi, la memoria GH200 a doppia configurazione può raggiungere i 282 GB di memoria HBM3e, che rappresenta un aumento di 3,5 volte della capacità e un aumento di 3 volte della larghezza di banda rispetto alla generazione precedente. Rispetto al popolare H100, la memoria è aumentata di 1,7 volte e la larghezza di banda è aumentata di 1,5 volte.

Come la generazione precedente, anche il nuovo GH200 ha una scalabilità esagerata.

Grazie alla tecnologia di interconnessione NVLink di Nvidia, il GH200 può essere combinato in forme di diverse dimensioni in base alle esigenze delle aziende, come server a scheda singola, doppia scheda, multischeda, cabinet e persino supercomputer.

Infine, i GH200 possono essere combinati nel supercomputer DGX GH200 SuperPod da 256 schede, che dispone di 144 TB di memoria veloce e può eseguire 1018 operazioni in virgola mobile al secondo.

Se questo non ti basta, puoi anche collegare più SuperPod Nvidia DGX GH200 con uno switch InfiniBand Nvidia Quantum-2.

Lao Huang ha detto scherzosamente: “Questo dovrebbe essere in grado di muovere ‘Crysis’”.

La forte espandibilità offre possibilità illimitate per il futuro di GH200.

In altre parole, se si desidera aumentare la velocità di elaborazione, è sufficiente aggiungere più armadi per server. Ciò è molto vantaggioso in futuro.Huang Renxun ritiene che lo scenario applicativo tipico di GH200 in futuro sia il modello di linguaggio di grandi dimensioni, e “calcolo accelerato” e “calcolo AI” sostituiranno gradualmente il “calcolo generale” delle tradizionali GPU x86.

Ad esempio, con un budget di 100 milioni di dollari era possibile solo costruire un piccolo data center, acquistare 800 GPU x86 e utilizzare 5 megawatt di elettricità per il funzionamento.

Ma con lo stesso budget, Grace Hopper, che sceglie il calcolo accelerato, deve consumare solo 3 megawatt di elettricità e il throughput dei dati può essere aumentato di un ordine di grandezza. E se il calcolo si basa sullo stesso carico di lavoro, il piano di calcolo di Grace Hopper richiede solo 8 milioni di dollari USA.

A proposito di questo, Lao Huang ha buttato fuori il suo famoso detto: “Più acquisti, più risparmi”.

I funzionari prevedono che il nuovo GH200 dovrà attendere fino al secondo trimestre del 2024 per essere lanciato. Il GH200 dotato di memoria HBM3 sarà spedito nella seconda metà di quest’anno come inizialmente previsto.

Certo, per singoli sviluppatori e piccoli team non è realistico realizzare un data center da centinaia di milioni, per questo motivo Nvidia ha lanciato “intimamente” una nuova generazione di schede grafiche per workstation che integrano la tecnologia RTX avanzata: NVIDIA RTX 5000 , NVIDIA RTX 4500 e NVIDIA RTX 4000.

Tra questi, come GPU di punta, NVIDIA RTX 5000 adotta il Tensor Core di quarta generazione e il Core RT di terza generazione.32 GB di memoria video GDDR6, supporta il controllo degli errori ECC, adatto per workstation di fascia alta, data center e cloud gaming.

Come GPU di fascia medio-alta, NVIDIA RTX 4500 è dotata di 24 GB di memoria video GDDR6 e supporta anche la verifica ECC.

Rispetto alla precedente generazione di prodotti, NVIDIA RTX 4500 raddoppia le prestazioni del ray tracing e raddoppia le prestazioni dell’elaborazione AI.

NVIDIA RTX 4000 utilizza lo stesso core GPU di RTX 4500, dotato di 20 GB di memoria video GDDR6, e il suo ray tracing e le prestazioni di elaborazione AI sono state notevolmente migliorate.

La nuova GPU NVIDIA RTX 5000 è attualmente in vendita e le GPU NVIDIA RTX 4500 e RTX 4000 verranno spedite nella seconda metà di quest’anno.

La “terra” più fertile

Applicando le parole pubblicitarie di Nongfu Spring, possiamo presentare l’ultima strategia AI di Nvidia come segue:

Non produciamo AI, siamo solo portatori di AI.

Come tutti sappiamo, la configurazione locale dei modelli AI è un compito noioso e complicato.Per aiutare gli sviluppatori a risolvere questo problema, Lao Huang ha annunciato che Nvidia lancerà “AI Workbench”.

Per dirla semplicemente, AI Workbench può fornire agli sviluppatori il framework, il kit di sviluppo degli strumenti e altri ambienti necessari per configurare i modelli di intelligenza artificiale in modo univoco e possono iniziare a creare progetti direttamente.

Lao Huang ha dato un esempio molto vivido sulla scena.

Ad esempio, l’azienda ha bisogno di configurare un modello a diffusione stabile per la verniciatura, ma non hai né hardware né sai come configurare il modello.

Non preoccuparti, in questo momento devi solo aprire AI Workbench, scegliere una workstation cloud con 4 GPU RTX 6000 Ada, quindi puoi configurare il modello Stable Diffusion con un clic.

Se non sei soddisfatto delle immagini generate, puoi anche caricare tu stesso le immagini, riaddestrare il modello e generarle di nuovo.

In meno di un minuto viene generata un’immagine decente e non devi preoccuparti di altri problemi durante il processo, perché AI Workbench ha già preparato tutto il resto.

Nvidia ha annunciato che stabilirà una partnership strategica con Hugging Face, una piattaforma AI open source, e applicherà questa tecnologia al lato aziendale.

Con pochi semplici clic nella piattaforma Hugging Face, gli sviluppatori possono spostare facilmente i progetti di intelligenza artificiale generativa dai laptop alle workstation, quindi ai data center o ai cloud e infine utilizzare le risorse di supercalcolo AI del cloud NVIDIA DGX per addestrare i modelli di intelligenza artificiale.

Lao Huang ha sottolineato che attraverso la collaborazione con Hugging Face, la tecnologia AI più avanzata di Nvidia può fornire supporto a tutti i ceti sociali. Le imprese possono anche utilizzare il potere della comunità open source per promuovere la formazione sull’IA in base alle esigenze di pianificazione dell’impresa.

Il più grande “sogno”

Dopo aver introdotto l’aggiornamento della piattaforma software e hardware, Lao Huang ha detto con un lungo respiro: “Parliamo dell’argomento più importante stasera: OpenUSD”.

OpenUSD dovrebbe essere un termine sconosciuto alla maggior parte delle persone. OpenUSD è un framework open source di Pixar (sì, la Pixar che ha realizzato l’animazione) nel 2015. Prima di allora, Pixar ha utilizzato questo framework per più di 10 anni.Molte animazioni che abbiamo visto sono basate sul framework OpenUSD.

OpenUSD può essere inteso come uno standard universale per la creazione di mondi 3D per la descrizione, la combinazione, la simulazione e la cooperazione. Huang lo ha paragonato al “significato dell’HTML per le pagine Web 2D” e “riunire davvero il mondo intero”.

Proprio la scorsa settimana, Pixar, Adobe, Apple, Autodesk, Nvidia e JDF hanno annunciato la formazione della OpenUSD Alliance (AOUSD) per promuovere la standardizzazione, lo sviluppo, l’evoluzione e la crescita di OpenUSD.

Perché questo nome poco conosciuto riunisce così tante aziende giganti in diversi campi? Inizia con il flusso di lavoro del lavoro 3D.

I flussi di lavoro 3D sono molto granulari e complessi, ad esempio designer, artisti e ingegneri sono tutti specializzati in una certa parte del flusso di lavoro 3D come modellazione, texturing, materiali, simulazione fisica, animazione, scenografia e compositing.

Poiché gli strumenti che utilizzano (PS, AutoCAD, Blender, ecc.) sono sviluppati da aziende diverse, molti formati di file non sono compatibili tra loro, costringendo gli utenti a esportare, convertire formati e importare frequentemente, il che è noioso e facile da danneggiare il contenuto.

OpenUSD è una tecnologia creata per risolvere questi problemi.Attraverso OpenUSD, strumenti come Adobe Stager, Houdini, Maya, Blender, Renderman, Pixar’s Minuteman e Epic’s Unreal Engine possono tutti scambiare dati e svolgere un ruolo più potente.

Successivamente, Lao Huang ha solennemente annunciato che Omniverse di Nvidia diventerà la prima piattaforma completamente costruita per OpenUSD Dal database sottostante al sistema motore, ogni riga di codice è progettata attorno a OpenUSD.

Non solo, Nvidia ha anche lanciato API come RunUSD, ChatUSD e DeepSearch, che ridurranno ulteriormente la soglia per gli sviluppatori di creare applicazioni basate su OpenUSD, consentendo di combinare flussi di lavoro 3D con AI e altre tecnologie.

Ad esempio, la pubblicità prodotta da WPP, la più grande società pubblicitaria del mondo, per Denza N7 di BYD è stata girata in “Metaverse”.

WPP ha caricato i dati CAD ad alta precisione di Denza N7 su Omniverse per creare un’auto gemella digitale, quindi gli artisti WPP possono creare nell’ambiente Omniverse.

Ad esempio, puoi chiamare l’API ChatUSD e devi solo inserire una descrizione di una frase per consentire all’intelligenza artificiale di generare diversi ambienti di sfondo, creando così migliaia di clip di contenuti personalizzati per attività di marketing globali.

Il metaverso e l’IA generativa sono come una coppia naturale: quando i due si incontreranno, il loro valore verrà amplificato in modo esponenziale e la tecnologia OpenUSD rende tutto questo possibile.

Lao Huang ritiene che in futuro sempre più industrie dovranno sottoporsi alla trasformazione digitale e Omniverse e l’intelligenza artificiale diventeranno presto il flusso di lavoro più importante per queste imprese per completare la trasformazione digitale.

Per costruire Omniverse e l’intelligenza artificiale, è naturalmente inseparabile da un forte supporto di potenza di calcolo.Questa è la vera forma di Nvidia:

Con la GPU come spina dorsale e l’intelligenza artificiale come pelle, costituisce la mano più potente per promuovere la trasformazione digitale industriale.

Taglia la merda.

#Benvenuto a seguire l’account pubblico WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), altri contenuti interessanti ti verranno presentati il ​​prima possibile.

Ai Faner | Link originale · Visualizza i commenti · Sina Weibo