AGI – la macchina creata dall’uomo. La legge può stare al passo con la tecnologia?

27 Febbraio 2025   /  AI

L‘intelligenza artificiale generale (AGI) sta diventando una prospettiva sempre più reale, che pone sfide senza precedenti ai legislatori e alla società. Il recente AI Action Summit di Parigi e la conferenza dell’International Association for Safe and Ethical AI (IASEAI ’25) hanno messo in luce l’urgente necessità di un quadro giuridico completo per questa tecnologia dirompente.

ai

Le origini dell’idea di intelligenza artificiale

Il concetto di intelligenza artificiale risale agli anni Cinquanta, quando i pionieri dell’informatica iniziarono a esplorare la possibilità di creare macchine in grado di eguagliare l’intelligenza umana. Alan Turing, uno dei precursori dell’IA, propose il test di Turing, un esperimento per valutare se una macchina fosse in grado di sostenere una conversazione indistinguibile da quella umana.

Un punto di svolta nella storia dell’IA è stata la Conferenza di Dartmouth del 1956, dove è stato ufficialmente coniato il termine “intelligenza artificiale”. All’epoca si prevedeva che l’intelligenza di livello umano sarebbe stata raggiunta rapidamente, ma i progressi tecnologici non hanno tenuto il passo con l’ottimismo dei ricercatori.

Crisi e rinascita dell’IA

Gli anni ’80 e ’90 hanno portato cambiamenti nell’approccio all’intelligenza artificiale. La ricerca si è concentrata su applicazioni più ristrette dell’IA, come i sistemi esperti, e l’idea dell’IA è passata in secondo piano. Solo il rapido sviluppo delle tecnologie computazionali, dei big data e del deep learning nel XXI secolo ha riportato l’attenzione dei ricercatori sul tema dell’intelligenza artificiale generale.

AI

Che cos’è l’AGI?

L’AGI, a differenza degli attuali sistemi di IA, ha il potenziale per svolgere un’ampia gamma di compiti intellettuali a un livello paragonabile a quello umano. Questa versatilità porta con sé sia grandi opportunità sia seri rischi che devono essere adeguatamente regolamentati.

Al momento non esiste una definizione legale che copra il funzionamento delle IA, ma con il rapido sviluppo della tecnologia IA nel prossimo futuro, è probabile che sarà necessario crearne una.

Molte aziende e organizzazioni stanno già cercando di definire l’AGI. Ad esempio, OpenAI ha creato una definizione di AGI e cinque livelli di indagine nel 2024.

Come concordato da OpenAI:

Gli attuali chatbot, come ChatGPT, sono al primo livello di sviluppo.

OpenAI afferma che ci si sta avvicinando al secondo livello, ovvero a un sistema in grado di risolvere problemi di base al livello di una persona con un dottorato di ricerca.

Il terzo livello è quello dell’intelligenza artificiale che agisce come un agente in grado di prendere decisioni ed eseguire compiti per conto dell’utente.

Al quarto livello, l’intelligenza artificiale raggiunge la capacità di creare nuove innovazioni.

Il quinto livello, il più alto, si riferisce all’IA che può svolgere il lavoro di intere organizzazioni di persone.

OpenAI ha precedentemente descritto l’IA come “un sistema altamente autonomo che supera gli esseri umani nella maggior parte dei compiti di alto valore economico”.

Stargate Project

Progetto Stargate

Uno degli sforzi più ambiziosi dell’AGI è il Progetto Stargate, che prevede un investimento di 500 miliardi di dollari nello sviluppo di infrastrutture AI negli Stati Uniti. L’obiettivo principale è quello di rafforzare la posizione degli Stati Uniti come leader nell’IA, oltre a creare centinaia di migliaia di posti di lavoro e generare benefici economici globali.

L’intelligenza artificiale ha il potenziale per assumere un’ampia varietà di compiti che in precedenza richiedevano la creatività e l’adattabilità dell’uomo.

Per saperne di più su Stargate:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Perché la regolamentazione dell’AGI è fondamentale? Opinioni degli esperti

Alla IASEAI ’25 di Parigi e all’AI Action Summit, gli esperti hanno sottolineato la necessità di una regolamentazione completa dell’AGI.

  • Il dott. Szymon Łukasik (NASK) ha sottolineato che la legge deve tenere il passo con il ritmo dell’innovazione, garantendone al contempo la sicurezza.
  • Il Prof. Stuart Russell ha sostenuto l’introduzione di salvaguardie obbligatorie per evitare che l’AGI venga utilizzata in modo dannoso.
  • Joseph Stiglitz ha sottolineato la necessità di tenere conto degli interessi della società nel processo legislativo.
  • Max Tegmark del Future of Life Institute ha invece sottolineato l’importanza della cooperazione internazionale, soprattutto tra Stati Uniti e Cina. Solo un approccio globale permetterà di regolamentare efficacemente lo sviluppo dell’AGI.

AGI

Rischi associati all’AGI

A Parigi molti esperti hanno espresso preoccupazione per lo sviluppo dell’IA, che a loro avviso sta avvenendo molto rapidamente: secondo alcuni, l’IA sarà creata già nei prossimi 10 anni. Le domande chiave riguardanti l’AGI sono state:

  • L’AGI può modificare le regole da sola per raggiungere i suoi obiettivi?
  • Quali dovrebbero essere i meccanismi di ripiego dell’AGI?
  • Come garantire che gli obiettivi dell’IA non divergano dagli interessi dell’umanità?

I ricercatori stanno già verificando che se un modello ha un obiettivo prefissato, come vincere una partita, è in grado di modificare le proprie regole per vincere. Alla luce di questo fatto, è necessario modellare gli obiettivi di un sistema di IA in modo che non si discostino dagli interessi dell’umanità.

Queste considerazioni e proposte mirano a creare un quadro giuridico e norme che consentano uno sviluppo sicuro ed etico dell’IA, senza ostacolare il progresso tecnologico. Gli esperti concordano sul fatto che le normative dovrebbero essere complete e tenere conto sia degli aspetti tecnici che delle implicazioni sociali dello sviluppo dell’AGI. Per questo motivo, la cooperazione internazionale è fondamentale per creare standard etici e di sicurezza uniformi.

Trasparenza e meccanismi di sicurezza

La trasparenza e i meccanismi di sicurezza sono altri aspetti chiave che devono essere inclusi nelle normative future. Il professor Steward Russell ha sostenuto che le aziende che sviluppano IA dovrebbero essere legalmente obbligate a implementare misure di salvaguardia per proteggere dall’uso dannoso della loro tecnologia. Gli esperti propongono anche un requisito legale per un meccanismo di spegnimento di emergenza per i modelli di IA e la creazione di standard per testare le salvaguardie.

Nel contesto dei meccanismi di spegnimento di emergenza per i modelli di IA, esistono due norme ISO chiave che affrontano la questione:

  • ISO 13850 è uno standard per la funzionalità di arresto di emergenza delle macchine. Sebbene non riguardi direttamente i modelli di IA, stabilisce principi generali per la progettazione di meccanismi di arresto di emergenza che possono potenzialmente essere applicati anche ai sistemi di IA. Lo standard sottolinea che la funzione di arresto di emergenza deve essere sempre disponibile e operativa e che la sua attivazione deve avere la precedenza su tutte le altre funzioni;
  • ISO/IEC 42001, invece, è uno standard più recente, pubblicato nel dicembre 2023, che si occupa direttamente dei sistemi di gestione dell’IA. Copre aspetti più ampi della gestione del rischio dell’intelligenza artificiale, tra cui la valutazione del rischio e dell’impatto dell’intelligenza artificiale e la gestione del ciclo di vita del sistema di intelligenza artificiale.

Secondo la norma ISO/IEC 42001, le organizzazioni sono tenute a implementare processi per l’identificazione, l’analisi, la valutazione e il monitoraggio dei rischi associati ai sistemi di intelligenza artificiale durante l’intero ciclo di vita del sistema di gestione. Questa norma pone l’accento sul miglioramento continuo e sul mantenimento di standard elevati nello sviluppo dei sistemi di IA.

Vale la pena notare che, mentre questi standard forniscono una guida, i meccanismi di ripiego specifici per i sistemi di IA avanzati come l’AGI sono ancora oggetto di ricerca e dibattito a livello internazionale. Gli esperti sottolineano che con lo sviluppo di sistemi di IA sempre più avanzati, i metodi tradizionali di “spegnimento” potrebbero non essere sufficienti, per cui sarà necessario sviluppare altri standard e soluzioni.

Sztuczna inteligencja

Per saperne di più sull’IA:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Regolamentazione dell’IA e sicurezza informatica

L’IA è in grado di identificare e sfruttare le vulnerabilità più velocemente di qualsiasi essere umano o degli attuali sistemi di IA. Pertanto, la regolamentazione dell’IA dovrebbe includere:

  • Impedire l ‘uso dell’IA per attacchi informatici.
  • Standardizzare la sicurezza dei sistemi AGI, per ridurre il rischio di acquisizione da parte di soggetti malintenzionati.
  • Definire la responsabilità legale in caso di incidenti legati all’AGI.

Approccio interdisciplinare al processo legislativo

Lo sviluppo dell’intelligenza artificiale richiede un approccio interdisciplinare, che comprende:

  • Collaborazione di giuristi con esperti di IA, etici ed economisti.
  • Regolamenti globali che proteggano i diritti umani e la privacy.
  • Trasparenza dei meccanismi disviluppo e controllodell’AGI.

Un approccio legale proattivo può rendere l’IA sicura e vantaggiosa per tutta l’umanità, senza bloccare il progresso tecnologico.

L’AGI è una tecnologia con un enorme potenziale, ma anche con seri rischi. È fondamentale creare un quadro giuridico e norme che ne consentano uno sviluppo sicuro. La cooperazione internazionale e un approccio interdisciplinare sono fondamentali per garantire che l’AGI serva all’umanità piuttosto che comporti dei rischi.

Condividere

Condividere

Hai bisogno di aiuto con questo argomento?

Scrivi al nostro esperto

Grzegorz Leśniewski

Managing Partner, Attorney at law

+48 531 871 707 Contatto

Articoli in questa categoria

Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioni

AI

Maggiori informazioni
Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioni

E l’Oscar va a… AI Brody

AI

Maggiori informazioni
E l’Oscar va a… AI Brody

BREAKING Il nuovo ordine esecutivo del presidente Trump

AI

Maggiori informazioni
BREAKING Il nuovo ordine esecutivo del presidente Trump

La chat GPT non funziona. Migliaia di richieste da parte degli utenti

AI

Maggiori informazioni
La chat GPT non funziona. Migliaia di richieste da parte degli utenti

Trump cambia la normativa sull’intelligenza artificiale: un nuovo approccio all’IA negli Stati Uniti

AI

Maggiori informazioni
Trump cambia la normativa sull’intelligenza artificiale: un nuovo approccio all’IA negli Stati Uniti
Maggiori informazioni

Contatto

Hai domande?guarda il telefono+48 663 683 888
vedi e-mail

Ufficio a Varsavia

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Ufficio a Breslavia

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hello User,
ti sei già iscritto alle nostre newsletter?

    Leggi come trattiamo i tuoi dati personali qui