Nell’aprile 2025, NVIDIA ha superato una capitalizzazione di mercato di 2,79 trilioni di dollari, con un aumento delle sue azioni di oltre il 170% in un anno, diventando la terza società quotata in borsa più preziosa al mondo, dietro Microsoft e Apple, e raggiungendo una quota del 90% del mercato dei chip per l’intelligenza artificiale nel 2024. Sebbene solo pochi anni fa NVIDIA fosse associata principalmente alle schede grafiche per i giocatori, oggi è il fondamento dell’economia digitale globale basata sull’intelligenza artificiale. Le sue GPU, in particolare la serie H100, non sono solo una risorsa strategica per i data center, ma anche il motore principale dello sviluppo di modelli di base, compresi i modelli linguistici generici più avanzati come ChatGPT.
CUDA: il motore AI che sta cambiando le regole del gioco
Al centro della trasformazione di NVIDIA in leader mondiale nell’intelligenza artificiale c’è CUDA (Compute Unified Device Architecture), una piattaforma di programmazione proprietaria che consente di sfruttare tutta la potenza delle GPU per applicazioni scientifiche, industriali e commerciali. CUDA non è solo un livello tecnologico, ma un’infrastruttura fondamentale per la scalabilità e l’efficienza dei modelli di IA.
Non a caso questa piattaforma viene talvolta definita il “sistema operativo invisibile dell’IA”. È un elemento chiave nel ciclo di vita dei sistemi basati sull’IA: dall’addestramento e la convalida alla distribuzione dei modelli in applicazioni reali. In pratica, è CUDA che definisce la velocità e la scala con cui possono essere sviluppati i moderni sistemi di IA.
GPU vs CPU: perché le unità di elaborazione grafica sono fondamentali per l’intelligenza artificiale?
Nel contesto dell’addestramento di modelli linguistici di grandi dimensioni e dell’elaborazione di dati su vasta scala, i processori classici (CPU) stanno diventando insufficienti. Le caratteristiche chiave delle GPU, in particolare quelle di NVIDIA, offrono un vantaggio negli ambienti di IA:
- Architettura parallela: le GPU come NVIDIA H100 contengono migliaia di core che consentono l’elaborazione simultanea di grandi set di dati, ideali per le operazioni matriciali utilizzate nelle reti neurali.
- Efficienza energetica: i chip grafici di nuova generazione offrono un’efficienza energetica fino a 25 volte superiore rispetto alle soluzioni precedenti, il che si traduce in costi operativi inferiori e una maggiore scalabilità.
- Memoria ad alta larghezza di banda: tecnologie come HBM2 (High Bandwidth Memory) consentono l’elaborazione fulminea di terabyte di dati, essenziale per applicazioni critiche e in tempo reale.
L’ecosistema chiuso CUDA: un punto di forza e un punto debole
Essendo una soluzione chiusa, CUDA offre enormi vantaggi in termini di prestazioni, con un aumento della velocità fino a 1.000 volte superiore nell’ultimo decennio. Tuttavia, il fatto che questa tecnologia sia controllata da un’unica azienda solleva alcune preoccupazioni:
- Dominio tecnologico: oltre l’80% dei modelli di IA, compresi tutti i principali modelli di base, sono addestrati nell’ambiente CUDA.
- Mancanza di alternative: le soluzioni aperte come AMD ROCm e Intel oneAPI hanno una quota di mercato inferiore al 10%, principalmente a causa di un’ottimizzazione più debole e della mancanza di piena compatibilità con le librerie di IA più diffuse.
- Effetto rete: più sviluppatori utilizzano CUDA, più difficile è passare a soluzioni concorrenti, creando un ecosistema chiuso che è difficile da controbilanciare per il mercato.
Infrastruttura AI e legislazione europea: una lacuna nell’AI Act?
L’AI Act (UE 2024/1689) è il primo atto legislativo completo che disciplina l’uso dell’intelligenza artificiale in Europa. Tuttavia, si concentra principalmente sul livello algoritmico, ovvero sui dati di addestramento, sulla trasparenza dei modelli e sui rischi del loro utilizzo.
Nel frattempo, il livello computazionale, ovvero l’infrastruttura senza la quale questi sistemi non possono esistere, rimane al di fuori del suo ambito di applicazione diretto.
Il CUDA non è classificato come un sistema di IA autonomo, ma il suo impatto sulla conformità, la verificabilità e la sicurezza dei sistemi di IA è innegabile. Senza la possibilità di verificare il funzionamento dell’infrastruttura, sia in termini di hardware (GPU black-box) che di software chiuso, è difficile parlare di piena attuazione dei principi di trasparenza e responsabilità.
Conseguenze giuridiche: monopolio, dipendenza, mancanza di audit
La mancanza di regolamentazione nel settore delle infrastrutture informatiche solleva questioni giuridiche e sistemiche specifiche:
- Verificabilità limitata: la natura chiusa di CUDA rende difficile soddisfare i requisiti dell’articolo 13 della legge sull’IA in materia di trasparenza e verificabilità.
- Rischio di monopolio: un aumento dei prezzi delle GPU superiore al 300 % tra il 2020 e il 2024 potrebbe indicare un abuso di posizione dominante (articolo 102 TFUE).
- Mancanza di sovranità tecnologica dell’UE: ben il 98 % dei centri dati europei dedicati all’IA utilizza la tecnologia NVIDIA, sollevando seri interrogativi circa l’indipendenza delle infrastrutture e la loro resilienza alle perturbazioni esterne.
È possibile la responsabilità senza trasparenza?
La legge sull’IA stabilisce la responsabilità a catena: le responsabilità non ricadono solo sugli sviluppatori di sistemi, ma anche sugli utenti e sui distributori. Tuttavia, la realtà del mercato dimostra che gli utenti finali non hanno alcun modo reale per valutare l’infrastruttura CUDA che utilizzano indirettamente. Non esistono standard tecnici o requisiti che divulghino i dettagli sul funzionamento delle piattaforme chiuse.
Raccomandazioni per le autorità di regolamentazione e l’industria dell’IA
Sebbene non sia formalmente classificato come un sistema di IA, il CUDA dovrebbe essere riconosciuto come un componente che influisce sulla conformità, la verificabilità e la sicurezza. Raccomandazioni:
- Linee guida della CE e Ufficio IA – è necessario sviluppare interpretazioni giuridiche che tengano conto dell’impatto delle piattaforme informatiche sui sistemi di IA, come nel caso del cloud computing e del GDPR.
- Promuovere la neutralità tecnologica – I programmi di sostegno tecnologico dell’UE (ad esempio Digital Europe) dovrebbero favorire tecnologie aperte e interoperabili.
- Revisione dell’ambito di applicazione della legge sull’IA – a lungo termine, vale la pena considerare l’aggiornamento della legge sull’IA per includere anche l’infrastruttura tecnologica come fattore determinante per la sicurezza e la conformità dei sistemi di IA.
CUDA: meraviglia tecnologica o rischio giuridico?
La CUDA è senza dubbio una tecnologia che ha consentito progressi senza precedenti nel campo dell’IA. Tuttavia, la sua struttura chiusa, il suo dominio del mercato e la mancanza di una supervisione normativa possono rendere illusoria la responsabilità dei sistemi di IA. Per l’UE, che si è impegnata a favore della trasparenza, dell’etica e della sovranità digitale, si tratta di una sfida che non può più essere ignorata.
* * *
ART. 13 Legge sull’IA
Trasparenza e condivisione delle informazioni con gli utenti
- I sistemi di IA ad alto rischio devono essere progettati e sviluppati in modo da garantire una trasparenza sufficiente delle loro prestazioni, consentendo agli utenti di interpretare i risultati del sistema e di utilizzarli in modo appropriato. È necessario garantire il tipo e il livello di trasparenza adeguati per consentire al fornitore e all’utente di adempiere ai rispettivi obblighi di cui alla sezione 3.
- I sistemi di IA ad alto rischio sono accompagnati da un manuale d’uso in un formato digitale o di altro tipo adeguato, contenente informazioni concise, complete, accurate e chiare, pertinenti, accessibili e comprensibili per gli utenti.
- Il manuale d’uso contiene almeno le seguenti informazioni:
- (a) l’identità e i recapiti del fornitore e, se del caso, del suo rappresentante autorizzato;
- (b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:
i) l’uso previsto;
ii) il livello di accuratezza, compresi i relativi indicatori, il livello di robustezza e di sicurezza informatica di cui all’articolo 15, rispetto al quale il sistema di IA ad alto rischio è stato testato e convalidato e che è prevedibile, nonché qualsiasi circostanza nota e prevedibile che possa incidere su tali livelli previsti di accuratezza, robustezza e sicurezza informatica;
iii) qualsiasi circostanza nota o prevedibile relativa all’uso del sistema di IA ad alto rischio in conformità con la sua destinazione d’uso o in condizioni di uso improprio ragionevolmente prevedibili che potrebbero comportare un rischio per la salute e la sicurezza o i diritti fondamentali di cui all’articolo 9, paragrafo 2;
iv) se del caso, le capacità tecniche e le caratteristiche del sistema di IA ad alto rischio per fornire informazioni pertinenti alla spiegazione delle sue prestazioni;
(v) se del caso, le prestazioni del sistema in relazione a persone o gruppi di persone specifici per i quali è destinato ad essere utilizzato; (vi) se del caso, le specifiche relative ai dati di input o qualsiasi altra informazione pertinente relativa ai set di dati utilizzati per l’addestramento, la convalida e la verifica, tenendo conto dell’uso previsto del sistema di IA ad alto rischio; (vii) se del caso, le informazioni che consentono agli utenti di interpretare i risultati del sistema di IA ad alto rischio e di utilizzare tali risultati in modo appropriato;
- (c) le modifiche al sistema di IA ad alto rischio e alle sue prestazioni che sono state pianificate in anticipo dal fornitore al momento della valutazione iniziale della conformità;
- (d) le misure di supervisione umana di cui all’articolo 14, comprese le misure tecniche introdotte per facilitare l’interpretazione dei risultati dei sistemi di IA ad alto rischio da parte degli utenti;
- e) le risorse informatiche e hardware necessarie, il ciclo di vita previsto del sistema di IA ad alto rischio e le misure di manutenzione e assistenza necessarie, compresa la loro frequenza, per garantire il corretto funzionamento di tale sistema di IA, compresi gli aggiornamenti del software;
- f) se del caso, una descrizione dei meccanismi inclusi nel sistema di IA ad alto rischio che consentono ai soggetti che lo utilizzano di raccogliere, conservare e interpretare correttamente i registri degli eventi in conformità all’articolo 12.
ART. 12 TFUE
Divieto di abuso di posizione dominante
È vietato, in quanto incompatibile con il mercato interno, qualsiasi abuso di posizione dominante da parte di una o più imprese nel mercato interno o in una parte significativa di esso, nella misura in cui tale abuso possa influire sul commercio tra Stati membri.
Tale abuso può consistere, in particolare, in:
- a) l’imposizione, direttamente o indirettamente, di prezzi di acquisto o di vendita o di altre condizioni commerciali non eque;
- b) limitare la produzione o il mercato o lo sviluppo tecnico a danno dei consumatori;
- c) applicare condizioni dissimili a prestazioni equivalenti fornite ad altri partner commerciali, in modo da porli in una situazione di disparità;
- d) subordinare la conclusione di contratti all’accettazione da parte degli altri contraenti di prestazioni supplementari che non sono, per loro natura o secondo gli usi commerciali, oggetto di tali contratti.