Il punto di forza di Nvdia: la piattaforma Cuda

Come per Apple è l’integrazione hardware-software a fare la differenza

Mario Mancini
6 min readJun 16, 2024

Vai agli articoli della serie “L’Intelligenza artificiale
Vai agli altri articoli della serie “La rivoluzione tecnologica e le sue conseguenze”

L’“Nvidia price”

Per alcuni giorni, la capitalizzazione di Nvidia ha superato di poco quella di Apple, segnando simbolicamente l’inizio di una nuova era nell’ambito della tecnologia: quella dell’intelligenza artificiale. Tuttavia, con la presentazione alla WWDC2024, la conferenza annuale degli sviluppatori Apple, della propria soluzione per l’integrazione dell’AI nei propri sistemi, Apple Intelligence, Cupertino è tornata ad essere la società con la capitalizzazione più alta al mondo. Nvidia rimane comunque un formidabile concorrente, ma non tutto è un cammino facile per lei, nonostante i suoi successi indiscussi.

I principali rivali di Nvidia, così come alcuni dei suoi clienti più importanti, stanno collaborando a un’iniziativa guidata da OpenAI. L’obiettivo è quello di sviluppare software che consenta agli sviluppatori di intelligenza artificiale di migrare con maggiore facilità ai chip prodotti dai competitor di Nvidia.

Nvidia è assurta al ruolo di leader mondiale nella produzione di chip grazie al suo quasi monopolio nel settore dei componenti necessari per la creazione di sistemi di intelligenza artificiale di grandi dimensioni. Tuttavia, la carenza di offerta e i prezzi elevati stanno spingendo le aziende del settore a cercare soluzioni alternative.

Sebbene la creazione di nuovi chip per l’intelligenza artificiale rappresenti un passo importante, non risolve completamente il problema relativo ai sistemi avanzati. La vera arma segreta di Nvidia risiede infatti nella sua piattaforma software, Cuda.

Questa piattaforma permette di sfruttare i chip, originariamente progettati come acceleratori grafici, per eseguire applicazioni di intelligenza artificiale in modo più rapido ed efficiente.

Verso una coalizione anti-Nvidia

Con l’obiettivo di creare una valida alternativa alla piattaforma Cuda di Nvidia, concorrenti e clienti del colosso dei chip si stanno unendo per potenziare Triton. Sviluppato da OpenAI e rilasciato per la prima volta nel 2021, Triton è un software progettato per eseguire codice su un’ampia gamma di chip per intelligenza artificiale.

Giganti del calibro di Meta, Microsoft e Google, che hanno già investito cifre considerevoli nell’acquisto di chip Nvidia, stanno contribuendo attivamente allo sviluppo di Triton, pur continuando a portare avanti autonomamente la progettazione di propri chip per l’intelligenza artificiale.

L’intento di questo pool di aziende, che include anche i produttori rivali Intel, AMD e Qualcomm, è chiaro: investire in Triton per sottrarre quote di mercato a Nvidia e rompere il dominio incontrastato che il colosso detiene nel settore dell’hardware per l’intelligenza artificiale.

Come sottolineato da Greg Lavender, chief technology officer di Intel, l’obiettivo primario è “interrompere il lock-in di Cuda”, liberando gli sviluppatori dalla necessità di utilizzare esclusivamente i chip Nvidia per l’esecuzione di applicazioni di intelligenza artificiale

Nvidia con una valutazione che supera i 3 trilioni di dollari è adesso la seconda società più capitalizzata del mondo e potrebbe a breve diventare la prima. Intel e AMD hanno difficoltà a tenere il passo.

Un ecosistema hardware-software simil-Apple

Il dominio di Nvidia nel campo dell’intelligenza artificiale non si basa esclusivamente sulla potenza dei suoi chip, ma piuttosto su un ecosistema hardware-software perfettamente integrato che i concorrenti faticano a replicare.

Come ha ben spiegato Jensen Huang, CEO di Nvidia, alla GPU Technology Conference dello scorso marzo:

“Il nostro core business non è semplicemente costruire chip. Creiamo un intero supercomputer, dal chip al sistema alle interconnessioni… ma soprattutto, il software che rappresenta il vero sistema operativo dell’intelligenza artificiale.”

Fondata oltre 30 anni fa per supportare lo sviluppo di videogiochi, Nvidia ha trovato il passaggio all’intelligenza artificiale agevolato dal suo software Cuda, nato nel 2006 per consentire l’esecuzione di applicazioni generiche sulle sue unità di elaborazione grafica (GPU).

Da allora, l’azienda ha investito miliardi di dollari nello sviluppo di centinaia di strumenti e servizi software che ottimizzano l’esecuzione di applicazioni di intelligenza artificiale sulle proprie GPU, rendendole più veloci e accessibili.

A tutto software

Sembra che Nvidia disponga di un team dedicato allo sviluppo software di dimensioni doppie rispetto a quello che lavora sull’hardware.

David Katz, socio di Radical Ventures, un fondo di investimento specializzato in intelligenza artificiale, ben comprende il punto di forza di Nvidia:

“A mio parere, si sottovaluta spesso ciò che Nvidia ha effettivamente realizzato. Hanno creato un ecosistema software attorno ai loro prodotti che è efficiente, intuitivo, performante e capace di semplificare notevolmente compiti complessi. Si tratta di un sistema frutto di un’evoluzione graduale, sostenuta da una vastissima community di utenti per un periodo di tempo considerevole.”

L’alto prezzo dei prodotti Nvidia e la lunga coda per acquistare le sue apparecchiature più avanzate, come l’H100 e il prossimo “super chip” GB200, hanno creato un problema e spinto a ricercare alternative.

Tuttavia, poiché la maggior parte dei sistemi e delle applicazioni di intelligenza artificiale funzionano già sul software Cuda di Nvidia, è dispendioso in termini di tempo e rischioso per gli sviluppatori riscriverli per altri processori, come l’AMD MI300, l’Intel Gaudi 3 o l’Amazon Trainium.

Per staccarsi di Nvidia non solo occorre ricercare un hardware competitivo, ma anche e soprattutto renderlo facile da usare attraverso il software.

Rivali dei chip Nvidia come TPU AI di Google offrono prestazioni comparabili nei test benchmark, ma è proprio il software a fare la differenza. I dirigenti di Nvidia sostengono che il loro lavoro software rende possibile implementare un nuovo modello di intelligenza artificiale sui loro ultimi chip in “secondi” e offre continui miglioramenti dell’efficienza. Ma questi vantaggi hanno un prezzo: il lock-in di Cuda.

La soluzione open source: Triton

Meryem Arik, co-fondatrice di TitanML, una startup londinese di intelligenza artificiale, ha rivelato che la sua azienda ha inizialmente utilizzato Cuda, ma la carenza di GPU li ha spinti a riscrivere le loro applicazioni in Triton. Questa scelta strategica ha permesso a TitanML di acquisire nuovi clienti che desideravano evitare il cosiddetto “prezzo di Cuda”.

Triton, il cui co-creatore Philippe Tillet si è unito a OpenAI nel 2019, vanta una natura open source, consentendo a chiunque di visualizzare, adattare o migliorare liberamente il suo codice. Questo aspetto conferisce a Triton un fascino intrinseco per gli sviluppatori rispetto a Cuda, che è invece proprietario di Nvidia.

Sebbene inizialmente Triton funzionasse esclusivamente con GPU Nvidia, adesso supporta anche l’AMD MI300 e, a breve, l’Intel Gaudi e altri chip acceleratori.

Un esempio emblematico è quello di Meta, che ha posto il software Triton al centro del proprio chip AI sviluppato internamente, MTIA. Quando Meta ha rilasciato la seconda generazione di MTIA il mese scorso, i suoi ingegneri hanno sottolineato l’elevata efficienza e l’indipendenza dall’hardware di Triton, permettendone il funzionamento su una vasta gamma di architetture di chip.

L’ UXL Foundation

Oltre a OpenAI, anche sviluppatori rivali come Anthropic e persino Nvidia stessa hanno contribuito al miglioramento di Triton, come evidenziato dai registri su GitHub e dalle discussioni sul toolkit.

Triton non rappresenta l’unico tentativo di sfidare il dominio software di Nvidia. Intel, Google, Arm e Qualcomm figurano tra i membri della UXL Foundation, un’alleanza del settore che sta sviluppando un’alternativa a Cuda basata sulla piattaforma open source OneAPI di Intel.

Chris Lattner, ex ingegnere senior di Apple, Tesla e Google, ha lanciato Mojo, un linguaggio di programmazione dedicato agli sviluppatori di AI il cui punto di forza principale è l’assenza di Cuda come requisito.

Con la sua startup Modular, Lattner ambisce a rendere la costruzione di modelli di intelligenza artificiale “drammaticamente più accessibile” a “sviluppatori di ogni tipologia, non solo agli esperti d’élite delle grandi aziende del settore”.

Una strada lunga

Anche se Triton o Mojo si dimostrano soluzioni competitive, i rivali di Nvidia dovranno affrontare una lunga strada per colmare il vantaggio iniziale di Cuda. Gli analisti di Citi prevedono che la quota di Nvidia nel mercato dei chip per l’intelligenza artificiale generativa scenderà dall’81% circa del prossimo anno al 63% circa entro il 2030, confermando il suo dominio per molti anni a venire.

“Costruire un chip competitivo con Nvidia è una sfida impegnativa, ma è ancora più difficile creare l’intero stack software e convincere gli utenti ad utilizzarlo”, ha affermato Pekhimenko.

“L’ecosistema software è in continua evoluzione e credo che il divario si colmerà nel tempo”, ha aggiunto Lavender.

L’approccio di Nvidia, che integra hardware e software in un unico sistema, si ricollega alla filosofia di Steve Jobs e al suo concetto di “tutto in un unico gingillo”. Questa strategia ha permesso ad Apple di mantenere un vantaggio competitivo significativo per oltre 40 anni nel mercato di fascia alta. Lo stesso potrebbe accadere a Nvidia.

Fonti:

Tim Bradshaw, Nvidia’s rivals take aim at its software dominance, “The Financial Times”, 24 maggio 2024
David McCabe, U.S. Clears Way for Antitrust Inquiries of Nvidia, Microsoft and OpenAI, “The New York Times”, 5 giugno 2024
Michael Acton, Niccolas Megaw, Nvidia overtakes Apple as its market capitalisation surpasses $3tn, “The Financial Times”, 6 giugno 2024

--

--

Mario Mancini

Laureatosi in storia a Firenze nel 1977, è entrato nell’editoria dopo essersi imbattuto in un computer Mac nel 1984. Pensò: Apple cambierà tutto. Così è stato.