Nvidia rafforza la sua posizione centrale nell’ecosistema AI con nuove soluzioni innovative
Jensen Huang, co-fondatore e CEO di Nvidia, ha presentato lunedì una serie di importanti novità e prodotti progettati per consolidare la posizione dell’azienda come fulcro dello sviluppo dell’intelligenza artificiale e del computing avanzato. L’annuncio è avvenuto durante il Computex 2025 a Taiwan, la più importante conferenza elettronica dell’Asia.
NVLink Fusion: una rivoluzione nell’architettura AI
Tra gli annunci più significativi spicca il nuovo programma “NVLink Fusion”, che rappresenta un cambio di paradigma nella strategia di Nvidia. Questa tecnologia permetterà ai clienti e partner di utilizzare CPU e GPU non-Nvidia insieme ai prodotti dell’azienda e al suo sistema NVLink, che fino ad ora era riservato esclusivamente ai chip prodotti da Nvidia stessa. “NVLink Fusion è stato progettato per consentire la costruzione di infrastrutture AI semi-personalizzate, non solo chip semi-personalizzati”, ha dichiarato Huang durante la conferenza. Questa tecnologia consente alle infrastrutture AI di combinare i processori Nvidia con diverse CPU e circuiti integrati specifici per applicazioni (ASIC). “In ogni caso, avrete il vantaggio di utilizzare l’infrastruttura NVLink e il suo ecosistema”, ha aggiunto il CEO.
Partner strategici e implicazioni di mercato
Nvidia ha annunciato che i partner per la produzione di chip AI per NVLink Fusion includono già nomi di rilievo come MediaTek, Marvell, Alchip, Astera Labs, Synopsys e Cadence. Grazie a questa tecnologia, clienti come Fujitsu e Qualcomm Technologies potranno collegare le proprie CPU di terze parti con le GPU Nvidia nei data center AI. Secondo Ray Wang, analista di semiconduttori e tecnologia con sede a Washington, NVLink rappresenta il piano di Nvidia per conquistare una quota dei data center basati su ASIC, tradizionalmente visti come concorrenti dell’azienda. Sebbene Nvidia mantenga una posizione dominante nelle GPU utilizzate per l’addestramento AI generale, molti concorrenti vedono opportunità di espansione nei chip progettati per applicazioni più specifiche.
Strategia competitiva e posizionamento nel mercato
Alcuni dei maggiori concorrenti di Nvidia nel computing AI – che sono anche tra i suoi clienti più importanti – includono provider cloud come Google, Microsoft e Amazon, tutti impegnati nello sviluppo di propri processori personalizzati. NVLink Fusion “consolida Nvidia come centro delle fabbriche AI di prossima generazione, anche quando questi sistemi non sono costruiti interamente con chip Nvidia”, ha affermato Wang. Questa strategia apre opportunità per Nvidia di servire clienti che non costruiscono sistemi completamente basati su tecnologia Nvidia, ma cercano di integrare alcune delle sue GPU. “Se ampiamente adottato, NVLink Fusion potrebbe ampliare l’impronta industriale di Nvidia favorendo una collaborazione più profonda con gli sviluppatori di CPU personalizzate e i progettisti di ASIC nella costruzione dell’infrastruttura AI del futuro”, ha aggiunto l’analista. Tuttavia, secondo Rolf Bulk, analista di ricerca azionaria presso New Street Research, NVLink Fusion rischia di ridurre la domanda per le CPU Nvidia consentendo ai clienti di utilizzare alternative. Nonostante ciò, “a livello di sistema, la flessibilità aggiunta migliora la competitività delle soluzioni basate su GPU di Nvidia rispetto alle architetture emergenti alternative, aiutando l’azienda a mantenere la sua posizione centrale nel computing AI”. È interessante notare che concorrenti come Broadcom, AMD e Intel sono finora assenti dall’ecosistema NVLink Fusion.
Ulteriori innovazioni e espansione globale
Huang ha aperto il suo discorso con un aggiornamento sulla prossima generazione di sistemi Grace Blackwell di Nvidia per carichi di lavoro AI. Il “GB300”, che sarà rilasciato nel terzo trimestre di quest’anno, offrirà prestazioni di sistema complessive superiori. Nvidia ha inoltre annunciato il nuovo NVIDIA DGX Cloud Lepton, una piattaforma AI con un marketplace di calcolo che, secondo l’azienda, collegherà gli sviluppatori AI di tutto il mondo con decine di migliaia di GPU provenienti da una rete globale di provider cloud. “DGX Cloud Lepton aiuta ad affrontare la sfida critica di garantire risorse GPU affidabili e ad alte prestazioni unificando l’accesso ai servizi AI cloud e alla capacità GPU attraverso l’ecosistema di calcolo NVIDIA”, ha dichiarato l’azienda in un comunicato stampa. Nel suo discorso, Huang ha anche annunciato piani per un nuovo ufficio a Taiwan, dove l’azienda costruirà anche un progetto di supercomputer AI con Foxconn (ufficialmente nota come Hon Hai Technology Group), il più grande produttore di elettronica al mondo. “Siamo lieti di collaborare con Foxconn e Taiwan per contribuire a costruire l’infrastruttura AI di Taiwan e supportare TSMC e altre aziende leader per promuovere l’innovazione nell’era dell’AI e della robotica”, ha concluso Huang.