ASUS Server: NVIDIA HGX B300 e AI Factory - Nex-Gen

asus server

ASUS presenta i server di nuova generazione basati su NVIDIA HGX B300 e AI Factory

In occasione di OCP 2025 ASUS ha mostrato i nuovi server AI XA NB3I-E12 con NVIDIA HGX B300 e la soluzione ASUS AI POD, basata sulla piattaforma NVIDIA GB300 NVL72

Leggi anche Recensione ASUS NUC 14 Pro+ AI Mini PC

PUNTI CHIAVE

  • Server di nuova generazione: gli ASUS XA NB3I-E12 con NVIDIA® HGX B300 offrono elevate prestazioni anche con carichi di lavoro AI particolarmente intensivi in ambito enterprise e CSP
  • ASUS AI Factory: basata sulla piattaforma NVIDIA Blackwell, quest’infrastruttura integrata end-to-end consente alle aziende di accelerare l’adozione dell’intelligenza artificiale
  • ASUS AI POD e XA NB3I-E12: queste soluzioni sono immediatamente disponibili e permettono di beneficiare delle massime performance in ambito AI
  • ASUS Ascent GX10: il supercomputer personale AI compatto con NVIDIA GB10 è in arrivo sul mercato

Nel corso dell’OCP Global Summit 2025, che si è tenuto nei giorni scorsi presso il San Jose Convention Center, ASUS ha presentato la nuova serie di server AI ASUS XA NB3I-E12, basati su NVIDIA® HGX B300 e dotati di connettività NVIDIA ConnectX-8 InfiniBand SuperNIC, 5 slot di espansione PCIe, 32 DIMM e 10 unità NVMe.

Progettati per le imprese e i fornitori di servizi cloud (CSP) che hanno la necessità di gestire carichi di lavoro AI intensivi, questi server, insieme ad ASUS AI POD con NVIDIA GB300 NVL72, garantiscono prestazioni eccezionali e massima stabilità, liberando tutto il potenziale dell’intelligenza artificiale.

Guidare la trasformazione dell’intelligenza artificiale con ASUS AI Factory

Durante l’evento, ASUS ha presentato ASUS AI Factory, una piattaforma basata sull’architettura NVIDIA Blackwell. Tra i prodotti che rappresentano i blocchi fondamentali per la realizzazione delle AI Factory figurano ASUS AI POD, costruito sulla piattaforma NVIDIA GB300 NVL72, e i server XA NB3I-E12, equipaggiati con NVIDIA HGX B300.

ASUS AI Factory offre un approccio completo e integrato, che combina hardware all’avanguardia, piattaforme software ottimizzate e servizi professionali, per accelerare l’adozione dell’intelligenza artificiale in ambito enterprise. Consente alle organizzazioni di distribuire carichi di lavoro AI a seconda delle esigenze, dai dispositivi edge fino ad ambienti di supercalcolo su larga scala, supportando applicazioni di vario tipo, tra cui AI generativa, elaborazione del linguaggio naturale e analisi predittiva.

Grazie alla combinazione di server ASUS, AI POD su scala rack e soluzioni progettate per una manutenzione semplificata, la AI Factory riduce la complessità di implementazione, migliora l’efficienza operativa e ottimizza le risorse di calcolo, consentendo a imprese e provider di servizi cloud di innovare più rapidamente, scalare in modo affidabile e sfruttare appieno il potenziale dell’AI in diversi settori, dall’automazione industriale alle iniziative per le smart city.

Tra le novità mostrate all’evento anche l’ASUS Ascent GX10, un supercomputer personale compatto per l’intelligenza artificiale basato su NVIDIA GB10 Grace Blackwell Superchip. In grado di offrire fino a 1 petaFLOP di potenza AI, questa soluzione integra una GPU NVIDIA Blackwell, una CPU Arm a 20 core e 128 GB di memoria ed è in grado di supportare modelli AI fino a 200 miliardi di parametri, portando le prestazioni di livello petaflop direttamente sulle scrivanie degli sviluppatori.

Ottimizzazione dei carichi di lavoro AI con i processori AMD EPYC 9005

Durante l’OCP 2025 ASUS ha mostrato anche soluzioni server basate sui processori AMD EPYC™ 9005, progettate per offrire elevate performance e densità nei data center dedicati ad applicazioni AI critiche.

Il modello ASUS ESC8000A-E13X accelera l’elaborazione di applicazioni di AI generativa e Large Language Model (LLM) e offre la piena compatibilità con la GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. L’integrazione con NVIDIA ConnectX-8 SuperNIC e il supporto 400G InfiniBand/Ethernet per porta QSFP assicurano connettività a bassa latenza e ampia larghezza di banda, garantendo prestazioni eccezionali sulle piattaforme di rete NVIDIA Quantum InfiniBand e Spectrum-X Ethernet.

La serie RS520QA-E13, invece, comprende sistemi multi-nodo ad alte performance, ottimizzati per HPC, EDA e cloud computing e supporta fino a 20 slot DIMM per nodo, espansione di memoria CXL, PCIe 5.0 e OCP 3.0, massimizzando l’efficienza con i carichi di lavoro più pesanti.