Trump cambia la normativa sull’intelligenza artificiale: un nuovo approccio all’IA negli Stati Uniti
10 Febbraio 2025 / AI
Donald Trump ha iniziato il suo mandato con cambiamenti significativi nell’approccio alla regolamentazione dell’intelligenza artificiale (IA). Uno dei primi passi è stata l’abrogazione dell’Ordine esecutivo 2023 di Joe Biden, che introduceva requisiti di sicurezza dettagliati per i sistemi di IA. La decisione ha suscitato polemiche tra gli esperti, che sottolineano come la mancanza di un’adeguata regolamentazione potrebbe portare sia opportunità che gravi minacce alla società e alla posizione di leader tecnologico degli Stati Uniti.
Su cosa verteva l’ordine esecutivo di Biden sull’IA?
L’ordine esecutivo di Joe Biden mirava a garantire uno sviluppo sicuro e responsabile dell’intelligenza artificiale. Si è concentrato su diverse aree chiave:
- Standard di sicurezza e test dei sistemi di intelligenza artificiale
- Le aziende che sviluppano l’intelligenza artificiale sono tenute a condurre test di sicurezza sui loro sistemi e a condividerne i risultati con il governo statunitense. Questo per identificare i rischi potenziali, come le distorsioni degli algoritmi o il rischio che l’IA venga utilizzata in attività che minacciano la sicurezza nazionale.
- Protezione dalla disinformazione generata dall’IA
- Il Dipartimento del Commercio doveva sviluppare linee guida per i watermark e i sistemi di autenticazione dei contenuti per consentire una facile identificazione del materiale generato dall’IA. Questo per ridurre l’impatto della disinformazione e delle fake news sul pubblico.
- Privacy e protezione dei dati
- Il regolamento ha posto l’accento sulla protezione dei dati dei cittadini dall’uso illegale per addestrare modelli di IA. Sebbene il Presidente Biden abbia esortato il Congresso ad approvare leggi appropriate, all’epoca mancava una legislazione specifica che affrontasse la questione.
- Prevenzione della discriminazione algoritmica
- Uno dei punti chiave della normativa riguardava la prevenzione della creazione di algoritmi di IA basati su dati non rappresentativi che potessero portare a discriminazioni, ad esempio nei sistemi di reclutamento, nel settore giudiziario o in quello sanitario.
- Sicurezza nell’assistenza sanitaria e nelle scienze della vita
- L’amministrazione Biden ha messo in atto meccanismi per prevenire l’uso dell’IA per creare materiali biologici pericolosi. Il Dipartimento della Salute doveva sviluppare programmi di sicurezza relativi all’IA in medicina, concentrandosi sul miglioramento dell’assistenza sanitaria e sullo sviluppo di terapie innovative. Questi programmi dovevano essere soddisfatti come condizione per ricevere finanziamenti federali per progetti nel campo delle scienze della vita.
- Il mercato del lavoro e l’impatto dell’IA
- I regolamenti presuppongono lo sviluppo di regole per proteggere i dipendenti dall’uso scorretto dell’IA nei sistemi di valutazione delle prestazioni o di assunzione.
Per saperne di più sui sistemi di intelligenza artificiale negli Stati Uniti, cliccare qui:
- ChatGPT al centro delle polemiche. Esplosione del cybertruck a Las Vegas
- Dirottamento dell’IA: il caso di Mike Johns e i rischi legali dei veicoli autonomi
Vale la pena notare che la versione abrogata del regolamento non è più disponibile nemmeno sul sito web della Casa Bianca, quindi il regolamento non solo è stato abrogato, ma anche rimosso insieme alle versioni archiviate dalla fonte ufficiale. A questo punto, si può trovare solo qui.
Perché Trump ha abrogato il regolamento?
Donald Trump ha sostenuto che i regolamenti introdotti da Joe Biden erano troppo rigidi e potevano limitare lo sviluppo di tecnologie innovative. Dal punto di vista dei repubblicani, norme come la segnalazione obbligatoria dei test di sicurezza e la condivisione delle informazioni con il governo potrebbero ostacolare le aziende tecnologiche e minare la loro competitività nel mercato globale.
Trump ha sottolineato che l’approccio degli Stati Uniti all’IA dovrebbe essere meno burocratico e più incentrato sulla promozione dell’innovazione. La decisione di abrogare il regolamento è in linea con la sua filosofia di deregolamentazione e di riduzione delle interferenze governative nel settore privato.
Inoltre, il regolamento di Biden mirava a rendere più sicuro lo sviluppo dell’IA introducendo standard di trasparenza, riducendo il rischio di disinformazione e contrastando la discriminazione algoritmica. Le aziende tecnologiche dovevano anche condividere informazioni sui potenziali difetti dei loro modelli, compresi i pregiudizi dell’IA, cosa che è stata particolarmente criticata dagli ambienti affiliati a Trump in quanto minacciava la loro competitività.
La decisione di Trump: liberalizzazione o rischio?
La decisione di abrogare il regolamento ha suscitato reazioni contrastanti. Esperti come Alondra Nelson del Center for American Progress avvertono che la mancanza di standard di sicurezza indebolirà la protezione dei consumatori contro i rischi dell’IA. Alexander Nowrasteh del Cato Institute, invece, ha osservato che l’abbandono di alcune disposizioni di Biden, come la facilitazione dell’immigrazione per i professionisti dell’IA, potrebbe avere conseguenze negative per il settore.
Tuttavia, i sostenitori di Trump sostengono che la sua decisione sia un’opportunità per accelerare lo sviluppo tecnologico. Sottolineano che una regolamentazione troppo rigida, come quella introdotta in Europa, potrebbe soffocare l’innovazione.
Fonte grafica: sito web della Casa Bianca
Conseguenze della decisione di Trump
Gli esperti avvertono che la mancanza di regole chiaramente definite che governino lo sviluppo dell’IA potrebbe portare a una serie di rischi:
- Disinformazione e fake news: la mancanza di linee guida per l’autenticazione dei contenuti generati dall’IA potrebbe facilitare la diffusione di informazioni false.
- Minacce alla sicurezza nazionale: Senza un’adeguata verifica della sicurezza, i sistemi di IA potrebbero essere vulnerabili all’uso nella criminalità informatica o nella guerra.
- Etica e fiducia: la mancanza di regolamentazione aumenta il rischio di discriminazioni algoritmiche e di violazioni della privacy, che possono minare la fiducia del pubblico nella tecnologia dell’IA.
D’altro canto, i sostenitori della decisione di Trump sottolineano che la liberalizzazione dei regolamenti consentirà un più rapido sviluppo della tecnologia e attirerà investimenti nel settore dell’IA.
Gli Stati Uniti resteranno leader nell’IA?
La decisione di Trump di abrogare l’ordine esecutivo di Biden apre un nuovo capitolo nell’approccio degli Stati Uniti alla regolamentazione dell’IA. Mentre l’Europa si concentra sulla tutela dei diritti civili, gli Stati Uniti potrebbero seguire una strada più liberale, dando priorità alla libertà di innovazione, ma compromettendo anche i diritti umani fondamentali.
Tuttavia, la mancanza di un quadro normativo chiaramente definito nel lungo periodo potrebbe indebolire la posizione degli Stati Uniti come leader nell’IA, soprattutto nel contesto della cooperazione internazionale e della creazione di standard globali. Sarà fondamentale trovare un equilibrio tra il sostegno allo sviluppo e la minimizzazione dei rischi posti da questa tecnologia rivoluzionaria.
L’intelligenza artificiale (IA) rimane una delle tecnologie più importanti del XXI secolo e le decisioni prese questa settimana dai leader mondiali negli Stati Uniti influenzeranno il suo sviluppo per decenni.
Hai bisogno di aiuto con questo argomento?
Scrivi al nostro esperto
Articoli in questa categoria
Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioni
Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioniBREAKING Il nuovo ordine esecutivo del presidente Trump
BREAKING Il nuovo ordine esecutivo del presidente TrumpLa chat GPT non funziona. Migliaia di richieste da parte degli utenti
La chat GPT non funziona. Migliaia di richieste da parte degli utentiIn che modo l’intelligenza artificiale può migliorare l’analisi dei dati finanziari della GOCC e aumentare la trasparenza dell’ente?
In che modo l’intelligenza artificiale può migliorare l’analisi dei dati finanziari della GOCC e aumentare la trasparenza dell’ente?