CUDA e il predominio di NVIDIA: un’infrastruttura AI invisibile al di fuori dell’ambito normativo?

Nell’aprile 2025, NVIDIA ha superato una capitalizzazione di mercato di 2,79 trilioni di dollari, con un aumento delle sue azioni di oltre il 170% in un anno, diventando la terza società quotata in borsa più preziosa al mondo, dietro Microsoft e Apple, e raggiungendo una quota del 90% del mercato dei chip per l’intelligenza artificiale nel 2024. Sebbene solo pochi anni fa NVIDIA fosse associata principalmente alle schede grafiche per i giocatori, oggi è il fondamento dell’economia digitale globale basata sull’intelligenza artificiale. Le sue GPU, in particolare la serie H100, non sono solo una risorsa strategica per i data center, ma anche il motore principale dello sviluppo di modelli di base, compresi i modelli linguistici generici più avanzati come ChatGPT.

NVIDIA

CUDA: il motore AI che sta cambiando le regole del gioco

Al centro della trasformazione di NVIDIA in leader mondiale nell’intelligenza artificiale c’è CUDA (Compute Unified Device Architecture), una piattaforma di programmazione proprietaria che consente di sfruttare tutta la potenza delle GPU per applicazioni scientifiche, industriali e commerciali. CUDA non è solo un livello tecnologico, ma un’infrastruttura fondamentale per la scalabilità e l’efficienza dei modelli di IA.

Non a caso questa piattaforma viene talvolta definita il “sistema operativo invisibile dell’IA”. È un elemento chiave nel ciclo di vita dei sistemi basati sull’IA: dall’addestramento e la convalida alla distribuzione dei modelli in applicazioni reali. In pratica, è CUDA che definisce la velocità e la scala con cui possono essere sviluppati i moderni sistemi di IA.

GPU vs CPU: perché le unità di elaborazione grafica sono fondamentali per l’intelligenza artificiale?

Nel contesto dell’addestramento di modelli linguistici di grandi dimensioni e dell’elaborazione di dati su vasta scala, i processori classici (CPU) stanno diventando insufficienti. Le caratteristiche chiave delle GPU, in particolare quelle di NVIDIA, offrono un vantaggio negli ambienti di IA:

  • Architettura parallela: le GPU come NVIDIA H100 contengono migliaia di core che consentono l’elaborazione simultanea di grandi set di dati, ideali per le operazioni matriciali utilizzate nelle reti neurali.
  • Efficienza energetica: i chip grafici di nuova generazione offrono un’efficienza energetica fino a 25 volte superiore rispetto alle soluzioni precedenti, il che si traduce in costi operativi inferiori e una maggiore scalabilità.
  • Memoria ad alta larghezza di banda: tecnologie come HBM2 (High Bandwidth Memory) consentono l’elaborazione fulminea di terabyte di dati, essenziale per applicazioni critiche e in tempo reale.

NVIDIA

L’ecosistema chiuso CUDA: un punto di forza e un punto debole

Essendo una soluzione chiusa, CUDA offre enormi vantaggi in termini di prestazioni, con un aumento della velocità fino a 1.000 volte superiore nell’ultimo decennio. Tuttavia, il fatto che questa tecnologia sia controllata da un’unica azienda solleva alcune preoccupazioni:

  • Dominio tecnologico: oltre l’80% dei modelli di IA, compresi tutti i principali modelli di base, sono addestrati nell’ambiente CUDA.
  • Mancanza di alternative: le soluzioni aperte come AMD ROCm e Intel oneAPI hanno una quota di mercato inferiore al 10%, principalmente a causa di un’ottimizzazione più debole e della mancanza di piena compatibilità con le librerie di IA più diffuse.
  • Effetto rete: più sviluppatori utilizzano CUDA, più difficile è passare a soluzioni concorrenti, creando un ecosistema chiuso che è difficile da controbilanciare per il mercato.

Infrastruttura AI e legislazione europea: una lacuna nell’AI Act?

L’AI Act (UE 2024/1689) è il primo atto legislativo completo che disciplina l’uso dell’intelligenza artificiale in Europa. Tuttavia, si concentra principalmente sul livello algoritmico, ovvero sui dati di addestramento, sulla trasparenza dei modelli e sui rischi del loro utilizzo.

Nel frattempo, il livello computazionale, ovvero l’infrastruttura senza la quale questi sistemi non possono esistere, rimane al di fuori del suo ambito di applicazione diretto.

Il CUDA non è classificato come un sistema di IA autonomo, ma il suo impatto sulla conformità, la verificabilità e la sicurezza dei sistemi di IA è innegabile. Senza la possibilità di verificare il funzionamento dell’infrastruttura, sia in termini di hardware (GPU black-box) che di software chiuso, è difficile parlare di piena attuazione dei principi di trasparenza e responsabilità.

Conseguenze giuridiche: monopolio, dipendenza, mancanza di audit

La mancanza di regolamentazione nel settore delle infrastrutture informatiche solleva questioni giuridiche e sistemiche specifiche:

  • Verificabilità limitata: la natura chiusa di CUDA rende difficile soddisfare i requisiti dell’articolo 13 della legge sull’IA in materia di trasparenza e verificabilità.
  • Rischio di monopolio: un aumento dei prezzi delle GPU superiore al 300 % tra il 2020 e il 2024 potrebbe indicare un abuso di posizione dominante (articolo 102 TFUE).
  • Mancanza di sovranità tecnologica dell’UE: ben il 98 % dei centri dati europei dedicati all’IA utilizza la tecnologia NVIDIA, sollevando seri interrogativi circa l’indipendenza delle infrastrutture e la loro resilienza alle perturbazioni esterne.

NVIDIA

È possibile la responsabilità senza trasparenza?

La legge sull’IA stabilisce la responsabilità a catena: le responsabilità non ricadono solo sugli sviluppatori di sistemi, ma anche sugli utenti e sui distributori. Tuttavia, la realtà del mercato dimostra che gli utenti finali non hanno alcun modo reale per valutare l’infrastruttura CUDA che utilizzano indirettamente. Non esistono standard tecnici o requisiti che divulghino i dettagli sul funzionamento delle piattaforme chiuse.

Raccomandazioni per le autorità di regolamentazione e l’industria dell’IA

Sebbene non sia formalmente classificato come un sistema di IA, il CUDA dovrebbe essere riconosciuto come un componente che influisce sulla conformità, la verificabilità e la sicurezza. Raccomandazioni:

  • Linee guida della CE e Ufficio IA è necessario sviluppare interpretazioni giuridiche che tengano conto dell’impatto delle piattaforme informatiche sui sistemi di IA, come nel caso del cloud computing e del GDPR.
  • Promuovere la neutralità tecnologica – I programmi di sostegno tecnologico dell’UE (ad esempio Digital Europe) dovrebbero favorire tecnologie aperte e interoperabili.
  • Revisione dell’ambito di applicazione della legge sull’IA – a lungo termine, vale la pena considerare l’aggiornamento della legge sull’IA per includere anche l’infrastruttura tecnologica come fattore determinante per la sicurezza e la conformità dei sistemi di IA.

CUDA: meraviglia tecnologica o rischio giuridico?

La CUDA è senza dubbio una tecnologia che ha consentito progressi senza precedenti nel campo dell’IA. Tuttavia, la sua struttura chiusa, il suo dominio del mercato e la mancanza di una supervisione normativa possono rendere illusoria la responsabilità dei sistemi di IA. Per l’UE, che si è impegnata a favore della trasparenza, dell’etica e della sovranità digitale, si tratta di una sfida che non può più essere ignorata.

* * *

ART. 13 Legge sull’IA

Trasparenza e condivisione delle informazioni con gli utenti

  1. I sistemi di IA ad alto rischio devono essere progettati e sviluppati in modo da garantire una trasparenza sufficiente delle loro prestazioni, consentendo agli utenti di interpretare i risultati del sistema e di utilizzarli in modo appropriato. È necessario garantire il tipo e il livello di trasparenza adeguati per consentire al fornitore e all’utente di adempiere ai rispettivi obblighi di cui alla sezione 3.
  2. I sistemi di IA ad alto rischio sono accompagnati da un manuale d’uso in un formato digitale o di altro tipo adeguato, contenente informazioni concise, complete, accurate e chiare, pertinenti, accessibili e comprensibili per gli utenti.
  3. Il manuale d’uso contiene almeno le seguenti informazioni:
  4. (a) l’identità e i recapiti del fornitore e, se del caso, del suo rappresentante autorizzato;
  5. (b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:

i) l’uso previsto;

ii) il livello di accuratezza, compresi i relativi indicatori, il livello di robustezza e di sicurezza informatica di cui all’articolo 15, rispetto al quale il sistema di IA ad alto rischio è stato testato e convalidato e che è prevedibile, nonché qualsiasi circostanza nota e prevedibile che possa incidere su tali livelli previsti di accuratezza, robustezza e sicurezza informatica;

iii) qualsiasi circostanza nota o prevedibile relativa all’uso del sistema di IA ad alto rischio in conformità con la sua destinazione d’uso o in condizioni di uso improprio ragionevolmente prevedibili che potrebbero comportare un rischio per la salute e la sicurezza o i diritti fondamentali di cui all’articolo 9, paragrafo 2;

iv) se del caso, le capacità tecniche e le caratteristiche del sistema di IA ad alto rischio per fornire informazioni pertinenti alla spiegazione delle sue prestazioni;

(v) se del caso, le prestazioni del sistema in relazione a persone o gruppi di persone specifici per i quali è destinato ad essere utilizzato; (vi) se del caso, le specifiche relative ai dati di input o qualsiasi altra informazione pertinente relativa ai set di dati utilizzati per l’addestramento, la convalida e la verifica, tenendo conto dell’uso previsto del sistema di IA ad alto rischio; (vii) se del caso, le informazioni che consentono agli utenti di interpretare i risultati del sistema di IA ad alto rischio e di utilizzare tali risultati in modo appropriato;

  1. (c) le modifiche al sistema di IA ad alto rischio e alle sue prestazioni che sono state pianificate in anticipo dal fornitore al momento della valutazione iniziale della conformità;
  2. (d) le misure di supervisione umana di cui all’articolo 14, comprese le misure tecniche introdotte per facilitare l’interpretazione dei risultati dei sistemi di IA ad alto rischio da parte degli utenti;
  3. e) le risorse informatiche e hardware necessarie, il ciclo di vita previsto del sistema di IA ad alto rischio e le misure di manutenzione e assistenza necessarie, compresa la loro frequenza, per garantire il corretto funzionamento di tale sistema di IA, compresi gli aggiornamenti del software;
  4. f) se del caso, una descrizione dei meccanismi inclusi nel sistema di IA ad alto rischio che consentono ai soggetti che lo utilizzano di raccogliere, conservare e interpretare correttamente i registri degli eventi in conformità all’articolo 12.

ART. 12 TFUE

Divieto di abuso di posizione dominante

È vietato, in quanto incompatibile con il mercato interno, qualsiasi abuso di posizione dominante da parte di una o più imprese nel mercato interno o in una parte significativa di esso, nella misura in cui tale abuso possa influire sul commercio tra Stati membri.

Tale abuso può consistere, in particolare, in:

  1. a) l’imposizione, direttamente o indirettamente, di prezzi di acquisto o di vendita o di altre condizioni commerciali non eque;
  2. b) limitare la produzione o il mercato o lo sviluppo tecnico a danno dei consumatori;
  3. c) applicare condizioni dissimili a prestazioni equivalenti fornite ad altri partner commerciali, in modo da porli in una situazione di disparità;
  4. d) subordinare la conclusione di contratti all’accettazione da parte degli altri contraenti di prestazioni supplementari che non sono, per loro natura o secondo gli usi commerciali, oggetto di tali contratti.

Tipi di cripto-attività regolamentate dal MiCA

Il regolamento MiCA (Markets in Crypto-Assets) è il primo atto giuridico dell’Unione Europea che disciplina in modo completo i diritti e gli obblighi degli emittenti e dei fornitori di servizi relativi alle cripto-attività. L’obiettivo del MiCA è garantire un elevato livello di protezione degli investitori, in particolare degli investitori al dettaglio, aumentare la trasparenza del mercato delle cripto-attività e armonizzare le norme che disciplinano questo mercato in tutta l’Unione Europea. Grazie al MiCA, il mercato delle cripto-attività sta acquisendo regole chiare, che promuovono la sicurezza degli investimenti e lo sviluppo del settore.

kryptowaluty kryptoaktywa

Tipi di cripto-asset regolamentati dal MiCA

I tipi di cripto-asset regolamentati dal MiCA includono rappresentazioni digitali di valore o diritti memorizzati elettronicamente utilizzando la tecnologia di registro distribuito (DLT) o tecnologie simili.

Il regolamento MiCA distingue tre tipi principali di cripto-asset, che differiscono in termini di caratteristiche e livello di rischio. Questa distinzione è fondamentale in quanto determina gli obblighi normativi delle società che emettono cripto-asset o offrono cripto-asset agli investitori. Grazie alle chiare definizioni contenute nel MiCA, le società possono allineare le loro attività ai requisiti legali e gli investitori sono meglio protetti nel mercato delle criptoasset.

Categorie di criptoasset:

Token referenziati ad attività (ART)

I token referenziati ad attività (ART) sono criptoasset il cui scopo è mantenere un valore stabile essendo collegati ad un altro valore, diritto o combinazione di questi, inclusa almeno una valuta fiat.

Gli ART non sono considerati token di moneta elettronica (EMT). La differenza fondamentale è che il valore di un ART non può essere determinato esclusivamente da una singola valuta fiat. Se una criptoasset basa il proprio valore su più di un parametro o su una combinazione di asset, tra cui almeno una valuta ufficiale, sarà classificata come ART.

L’emittente di un token ART è tenuto a consentirne il rimborso, pagando in contanti, diversi dalla moneta elettronica, un importo corrispondente al valore di mercato delle attività associate al token, oppure consegnando tali attività.

  • Il MiCA consente una certa flessibilità nella determinazione del valore ART, ma il rimborso deve essere possibile in contanti o tramite la consegna dell’attività sottostante.
  • In particolare, l’emittente dovrebbe sempre garantire che il rimborso sia possibile in contanti (diversi dalla moneta elettronica) denominati nella stessa valuta ufficiale accettata al momento della vendita del token.

Token di moneta elettronica (EMT)

I token EMT sono collegati a una singola valuta ufficiale (ad esempio l’euro) e fungono da equivalente digitale del denaro tradizionale. La loro caratteristica principale è il rimborso garantito al valore nominale.

Solo gli enti creditizi o gli istituti di moneta elettronica possono emettere token di moneta elettronica. Questi soggetti devono garantire che i detentori dei token possano esercitare il loro diritto di rimborso in qualsiasi momento, al valore nominale e nella valuta a cui il token è collegato.

Un esempio di token di questo tipo sono le stablecoin collegate all’euro, che mirano a mantenere una parità 1:1 con l’euro. Ai sensi del MiCA, gli emittenti di tali token dovranno soddisfare severi requisiti normativi, tra cui il possesso di uno status giuridico adeguato e la garanzia di una reale possibilità di rimborso dei token al loro valore nominale.

Altre cripto-attività

Questa categoria comprende le criptovalute che non sono classificate come token garantiti da attività, come il Bitcoin (BTC) e l’Ethereum (ETH), che non dispongono di un meccanismo di stabilizzazione del valore. Questo gruppo comprende anche i token di utilità, che danno accesso a servizi o beni offerti dall’emittente.

Questa categoria comprende anche i token di utilità, che consentono ai titolari di accedere a servizi o beni specifici offerti dall’emittente. Tali token possono essere paragonati a un buono o biglietto digitale che dà diritto al titolare di utilizzare un servizio specifico o acquistare un bene specifico.

kryptowaluty kryptoaktywa MICA

Criptoasset esclusi dalla regolamentazione MiCA

Il regolamento MiCA non copre tutti gli asset digitali. Il regolamento esclude dal suo ambito di applicazione alcune categorie di asset digitali che sono già regolamentati da altri atti giuridici dell’UE o che non soddisfano la definizione di criptoasset ai sensi del MiCA. In particolare, le disposizioni escludono gli strumenti finanziari e i prodotti finanziari soggetti alla MiFID II.

Conformemente all’articolo 2, paragrafo 4, del regolamento, sono inoltre esclusi dall’ambito di applicazione del MiCA:

  • i depositi, compresi i depositi strutturati,
  • il contante (a meno che non soddisfi la definizione di gettoni di moneta elettronica),
  • i prodotti e i regimi assicurativi e pensionistici.

Token non fungibili (NFT)

Il regolamento MiCA non disciplina nemmeno i token non fungibili (NFT), a condizione che siano realmente unici e non fungibili. Ciò vale, ad esempio, per le opere d’arte digitali o gli oggetti da collezione unici nei giochi per computer.

Tuttavia, è importante notare una distinzione significativa: se le cripto-attività sono emesse come token non fungibili nell’ambito di una grande serie o collezione, ciò può essere considerato un indicatore della loro effettiva fungibilità, con la conseguenza che sarebbero soggette alle norme MiCA. Inoltre, le parti frazionarie di una cripto-attività unica e non fungibile non sono considerate uniche e non fungibili, quindi saranno anch’esse soggette alle norme MiCA.

Cripto-asset limitati alle reti interne

Il regolamento MiCA non si applica nemmeno ai cripto-asset utilizzati in reti chiuse, come i punti fedeltà o i buoni accettati solo dal loro emittente. Questa eccezione si applica alle risorse digitali che operano all’interno di un ecosistema limitato e non sono destinate a una più ampia negoziazione sul mercato.

kryptowaluty kryptoaktywa MICA

Conclusioni e raccomandazioni

Vi invitiamo a rivolgervi a un legale per ottenere assistenza legale completa nella determinazione della classificazione delle cripto-attività e garantire la conformità alle normative che disciplinano i mercati delle cripto-attività e degli strumenti finanziari.

Sójka AI – guardiano digitale dell’etica e della sicurezza

In un’epoca caratterizzata da una tecnologia in continua evoluzione, l’intelligenza artificiale (IA) sta assumendo un ruolo sempre più importante nella nostra vita quotidiana. Dalle app che ci aiutano a organizzare il nostro tempo agli algoritmi di riconoscimento delle immagini, l’IA sta guadagnando popolarità, ma allo stesso tempo pone sfide importanti. Queste sfide sono particolarmente evidenti nei settori dell’etica, della diffusione delle fake news, del diritto e della sicurezza informatica. In risposta a queste sfide è stato creato il progetto Sójka AI, che combina i limiti etici della tecnologia con un’attenzione particolare alla sicurezza degli utenti.

AI

Intelligenza artificiale etica: una necessità nell’era digitale

Internet è uno spazio che offre possibilità illimitate, ma allo stesso tempo è pieno di minacce. Ad ogni angolo si possono incontrare contenuti tossici, incitamento all’odio o manipolazione. Utilizziamo sempre più spesso strumenti di intelligenza artificiale progettati per supportarci nella vita quotidiana. Purtroppo, se non è progettata e controllata in modo adeguato, l’IA può anche rappresentare una minaccia. Per questo motivo è stato creato il progetto Sójka AI, che funge da guardiano dell’etica digitale, proteggendo gli utenti dai contenuti dannosi.

Perché abbiamo bisogno di un’intelligenza artificiale etica?

Il vantaggio dell’intelligenza artificiale è la sua capacità di analizzare enormi quantità di dati in breve tempo. Ciò consente all’IA di identificare e rispondere a problemi che spesso sfuggono all’attenzione umana.

Tuttavia, senza adeguati limiti etici, tali algoritmi possono generare contenuti pericolosi o incoraggiare comportamenti inappropriati. Sójka AI è la risposta a queste minacce, fornendo strumenti per moderare i contenuti ed eliminare le interazioni tossiche e potenzialmente pericolose.

AI

Bielik AI – un assaggio di intelligenza artificiale responsabile

Bielik AI è il primo passo verso una tecnologia AI più responsabile in Polonia. Il progetto ha ottenuto riconoscimenti per la sua capacità di analizzare dati, rilevare minacce e sostenere lo sviluppo etico dell’IA. Bielik AI ha raggiunto il suo obiettivo utilizzando algoritmi avanzati che analizzano i dati in un contesto etico, garantendo agli utenti un’esperienza online sicura e positiva.

Collaborazione con la comunità

Un aspetto importante di Bielik AI è stata la collaborazione con gli utenti, che hanno contribuito allo sviluppo del progetto attraverso le loro esperienze e i loro suggerimenti. Lo stesso approccio è stato adottato dai creatori di Sójka AI, che si affida anch’essa alla collaborazione con gli utenti di Internet per creare un algoritmo in grado di proteggere efficacemente gli utenti dalle minacce online. Link al sondaggio.

In che modo Bielik AI influenza lo sviluppo di Sójka AI?

Bielik AI è stata fonte di ispirazione per la creazione di Sójka AI. Grazie all’esperienza acquisita nella creazione di Bielik, i creatori di Sójka hanno potuto concentrarsi sullo sviluppo di nuove tecnologie che consentiranno una moderazione dei contenuti ancora più efficace, l’individuazione di attività dannose e la protezione degli utenti da manipolazioni e contenuti inappropriati.

LLM security

Cosa può fare Sójka AI, il guardiano dell’etica digitale?

Sójka AI è un algoritmo che funge da guardiano digitale, eliminando i contenuti tossici e proteggendo gli utenti dalle informazioni dannose. Grazie al suo design avanzato, Sójka è in grado di:

  • analizzare le chat e rilevare intenzioni tossiche – l’algoritmo è in grado di riconoscere quando una conversazione online prende una piega negativa e gli utenti iniziano a utilizzare parole o espressioni offensive;
  • verificare le risposte dell’IA ed eliminare i contenuti pericolosi – Sójka AI è in grado di analizzare le risposte generate da altri modelli di IA, assicurando che siano conformi ai principi etici e non contengano contenuti dannosi;.
  • moderare i contenuti, proteggendo dall’odio e dalla manipolazione – Sójka AI è in grado di moderare efficacemente i contenuti in vari spazi, eliminando quelli che contengono odio, incitamento all’odio o manipolazione;.
  • Garantire il benessere mentale degli utenti più giovani – Sójka AI è anche uno strumento che presta particolare attenzione agli utenti più giovani di Internet, proteggendoli da contenuti che potrebbero avere un impatto negativo sulla loro salute mentale.

Applicazioni pratiche di Sójka AI

Sójka AI può essere utilizzato in molti settori, sia nel mondo degli affari che nella vita quotidiana degli utenti. Grazie alla sua capacità di analizzare grandi quantità di dati e di rispondere rapidamente alle minacce, può essere utilizzato, ad esempio, per:

  • moderare le discussioni online – le aziende e le piattaforme online possono potenzialmente utilizzare Sójka per gestire le discussioni ed eliminare i contenuti negativi in tempo reale;.
  • supportare piattaforme educative – Sójka AI può essere utilizzato su piattaforme educative per monitorare le interazioni degli studenti, garantendo che non siano esposti a contenuti dannosi o inappropriati;.
  • migliorare le piattaforme dei social media – con Sójka AI, le piattaforme dei social media possono diventare un luogo più accogliente e sicuro per tutti gli utenti, in particolare per i più giovani;.
  • e molto altro ancora.

ai law

Contesto giuridico e futuro dei modelli di IA etici

Progetti come Sójka AI sono solo l’inizio della ricerca per creare un Internet sicuro, etico e responsabile. Con il passare degli anni, la tecnologia dell’IA diventerà sempre più complessa e il suo ruolo nella nostra vita diventerà sempre più significativo.

Modelli di IA etici nell’Unione europea: legislazione, prassi e orientamenti per lo sviluppo

Con il rapido sviluppo dell’intelligenza artificiale, l’Unione europea è diventata un leader globale nella definizione del quadro giuridico ed etico di questa tecnologia. Progetti come Sójka AI e Bielik AI in Polonia illustrano l’evoluzione dalla pura innovazione all’implementazione responsabile di sistemi che rispettano i diritti fondamentali, la trasparenza e la sicurezza degli utenti. Al centro di questa trasformazione c’è l’AI Act, la prima normativa globale che disciplina l’IA, che, insieme ad altre iniziative, crea un ecosistema coerente per un’intelligenza artificiale etica.

Base giuridica per un’IA etica nell’UE

Legge sull’IA – classificazione dei rischi e obblighi

La legge sull’IA, entrata in vigore il 1° agosto 2024, introduce un modello di rischio a quattro livelli:

  • rischio inaccettabile (ad esempio sistemi di valutazione sociale, IA manipolativa che sfrutta le vulnerabilità dei gruppi vulnerabili) – divieto totale di utilizzo;.
  • rischio elevato (ad esempio sistemi di reclutamento, rating creditizi, diagnostica medica) – certificazione, audit e supervisione continua obbligatori;.
  • rischio limitato (ad esempio chatbot) – obbligo di informare gli utenti sull’interazione con l’IA;.
  • rischio minimo (ad esempio filtri antispam) – nessuna normativa aggiuntiva oltre ai principi etici generali.

Esempio: i sistemi di moderazione dei contenuti come Sójka AI possono essere considerati sistemi ad alto rischio a causa del loro impatto sulla libertà di espressione e sulla protezione dei dati. Se un sistema di IA è classificato in questa categoria, deve quindi soddisfare i requisiti della legge sull’IA in materia di qualità dei dati, trasparenza degli algoritmi e meccanismi di ricorso.

Linee guida etiche dell’UE

Nel 2019 la Commissione europea ha definito sette pilastri dell’IA affidabile:

  1. rispetto dell’autonomia umana;
  2. sicurezza tecnica e sociale;
  3. protezione della privacy;
  4. trasparenza;
  5. diversità e non discriminazione;
  6. responsabilità sociale;
  7. e sviluppo sostenibile.

Questi principi sono diventati la base dell’atto sull’IA, in particolare nel contesto del requisito di una progettazione dei sistemi “centrata sull’uomo”.

Iniziative nell’UE

  • GenAI4EU – un programma a sostegno dell’attuazione dell’IA generativa in settori chiave dell’economia.

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

Passaggi per le imprese: come sviluppare un’IA etica in linea con la legge sull’IA?

1. Mappatura dei rischi e audit dei sistemi

– garantire che le funzionalità e gli obiettivi siano legittimi, etici e non creino opportunità di abuso. Considerare in che modo i risultati del lavoro del sistema di IA potrebbero essere utilizzati da terzi;

– identificare eventuali requisiti di conformità (che possono variare a seconda dell’ubicazione della vostra azienda e dei mercati di destinazione) e confermare di essere in grado di soddisfarli;

– creare un elenco di tutti i potenziali rischi e delle misure di mitigazione dei rischi in relazione alle funzionalità e ai requisiti legali;

– condurre analisi dei rischi nel contesto dei requisiti di conformità a cui siete soggetti. Ad esempio, se il sistema utilizzerà dati personali come parte di un database di formazione, condurre una DPIA (valutazione d’impatto sulla protezione dei dati). Ciò vi aiuterà a comprendere la portata del progetto e le sfide che esso comporta.

Maggiori informazioni qui: Come sviluppare strumenti di IA in modo legale?

2. Implementare la governance

  • Istituire un team di etica dell’IA composto da avvocati, ingegneri e specialisti della conformità, a seconda della situazione e delle capacità.
  • Sviluppare una politica sull’uso dell’IA che tenga conto delle linee guida dell’UE e delle specificità del settore. Maggiori informazioni al riguardo sono disponibili qui:

Co powinna zawierać Polityka wykorzystywania systemów AI?

3. Trasparenza e controllo

  • Per i sistemi ad alto rischio:
  • Fornire sintesi tecniche che descrivano la logica alla base dell’IA (ad esempio attraverso dashboard come Explainable AI Booster). Esempio: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview
  • Introdurre l’approvazione umana obbligatoria dei risultati nei processi chiave.

4. Gestione dei dati

  • Utilizzare algoritmi di debiasing per eliminare i pregiudizi nei dati di addestramento.

I algoritmi di debiasing sono tecniche utilizzate nell’intelligenza artificiale (IA) e nell’apprendimento automatico per rimuovere o ridurre i pregiudizi nei dati che possono portare a risultati ingiusti, discriminatori o inaccurati. Nel contesto dell’IA, il pregiudizio si riferisce a tendenze involontarie in un sistema che possono insorgere a seguito di errori nei dati di input o nel modo in cui il modello di IA viene addestrato.

  • Eseguire regolari controlli di qualità dei dati, in particolare per i sistemi che utilizzano dati sensibili (razza, religione, salute).

5. Certificazione e conformità

  • Utilizzare le piattaforme di certificazione sviluppate nell’ambito del progetto CERTAIN, che automatizzano i controlli di conformità con l’AI Act.
  • Registrare i sistemi ad alto rischio nella banca dati europea sull’IA.

6. Formazione e cultura organizzativa

  • Condurre programmi di formazione per i dipendenti.

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Sfide e futuro dell’IA etica nell’UE

Tendenze chiave per i prossimi anni:

  1. sviluppo dell’IA per l’ESG
  2. regolamentazione dei modelli di base – piani per estendere la regolamentazione ai requisiti per i modelli generici (ad esempio Meta Llama 3).
  3. cooperazione transfrontaliera

Sintesi

L’approccio dell’UE all’IA etica, sebbene impegnativo, offre alle imprese un’opportunità unica per conquistare la fiducia dei clienti e un vantaggio competitivo. Progetti come Sójka AI dimostrano che è possibile coniugare innovazione e responsabilità, ma ciò richiede una pianificazione strategica, investimenti nella governance e una stretta cooperazione con le autorità di regolamentazione.

Nel prossimo decennio l’etica diventerà il principale motore del progresso tecnologico in Europa.

 

Contatto

Hai domande?guarda il telefono+48 663 683 888
vedi e-mail

Ufficio a Varsavia

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Ufficio a Breslavia

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hello User,
ti sei già iscritto alle nostre newsletter?

    Leggi come trattiamo i tuoi dati personali qui