Nvidia svela la prima CPU e GPU Hopper in assoluto alla GTC 2022

Il CEO di Nvidia Jensen Huang ha dato il via alla Graphics Technology Conference (GTC) dell’azienda con un discorso programmatico pieno di annunci. Le principali rivelazioni includono la prima CPU discreta di Nvidia, denominata Grace, così come la sua architettura Hopper di prossima generazione, che arriverà più tardi nel 2022.

Il Grace CPU Superchip è la prima CPU discreta di Nvidia in assoluto, ma non sarà il cuore del tuo prossimo PC da gioco . Nvidia ha annunciato la CPU Grace nel 2021 , ma questo Superchip, come lo chiama Nvidia, è qualcosa di nuovo. Mette insieme due CPU Grace, simili all’M1 Ultra di Apple , collegate tramite la tecnologia NVLink di Nvidia.

Un rendering del Grace Superchip di Nvidia.

A differenza dell’M1 Ultra, tuttavia, il Grace Superchip non è costruito per prestazioni generali. La GPU a 144 core è progettata per l’intelligenza artificiale, la scienza dei dati e le applicazioni con requisiti di memoria elevati. La CPU utilizza ancora core ARM, nonostante l’ offerta abbandonata di 40 miliardi di dollari di Nvidia per l’acquisto della società.

Oltre al Grace Superchip, Nvidia ha sfoggiato la sua architettura Hopper di nuova generazione. Questa non è l’architettura che alimenta l’RTX 4080, secondo le speculazioni. Invece, è costruito per gli acceleratori di data center di Nvidia. Nvidia debutterà con l’architettura della GPU H100, che sostituirà la precedente A100 di Nvidia .

Nvidia definisce l’H100 il “chip più avanzato al mondo”. È costruito utilizzando il processo di produzione N4 del produttore di chip TSMC, che racchiude l’incredibile cifra di 80 miliardi di transistor. Come se non bastasse, è anche la prima GPU a supportare la memoria PCIe 5.0 e HBM3. Nvidia afferma che solo 20 GPU H100 possono “sostenere l’equivalente del traffico Internet di tutto il mondo”, mostrando la potenza di PCIe 5.0 e HBM3.

I clienti potranno accedere alla GPU tramite i server DGX di quarta generazione di Nvidia, che combinano otto GPU H100 e 640 GB di memoria HBM3. Queste macchine, secondo Nvidia, forniscono 32 petaFLOP di prestazioni AI, che sono sei volte superiori all’A100 di ultima generazione.

Se il DGX non offre potenza sufficiente, Nvidia offre anche il suo SuperPod DGX H100. Questo si basa su Nvidia che ha noleggiato i suoiacceleratori SuperPod l’anno scorso , consentendo a coloro che non hanno il budget per enormi data center di sfruttare la potenza dell’IA. Questa macchina combina 32 sistemi DGX H100, offrendo un enorme 20 TB di memoria HBM3 e 1 exoFLOP di prestazioni AI.

Famiglia di GPU Nvidia Hopper.

Nvidia debutta con la nuova architettura con il proprio supercomputer EOS, che include 18 SuperPod DGX H100 per un totale di 576 GPU H100. L’abilitazione di questo sistema è la quarta generazione di NVLink di Nvidia, che fornisce un’interconnessione a larghezza di banda elevata tra enormi cluster di GPU.

Con l’aumentare del numero di GPU, Nvidia ha mostrato che l’A100 di ultima generazione sarebbe flatline. Hopper e NVLink di quarta generazione non hanno questo problema, secondo l’azienda. Poiché il numero di GPU sale a migliaia, Nvidia afferma che i sistemi basati su H100 possono fornire un training AI fino a nove volte più veloce rispetto ai sistemi basati su A100.

Questa architettura di nuova generazione offre “vantaggi prestazionali rivoluzionari”, secondo Nvidia. Sebbene entusiasmanti per il mondo dell’intelligenza artificiale e dell’elaborazione ad alte prestazioni, stiamo ancora aspettando con impazienza gli annunci sull’RTX 4080 di nuova generazione di Nvidia, che si dice verrà lanciato entro la fine dell’anno.