Intelligenza artificiale: cos’è (da un punto di vista legale) e come il mondo la sta affrontando

27 Novembre 2024   /  Articoli

Nel campo della tecnologia in rapida evoluzione, l’intelligenza artificiale (AI) è una forza dirompente che non solo ha trasformato le industrie, ma ha anche sollevato molte domande e sfide legali”.

Chat GPT ha chiesto di presentare l’intelligenza artificiale nel contesto delle sfide legali.

Esiste una definizione di intelligenza artificiale?

Attualmente non esiste una definizionelegaledi intelligenza artificiale né in Polonia né nell’Unione Europea. Una situazione simile esiste anche in altre importanti giurisdizioni del mondo. Probabilmente la definizione più vicina all’IA è quella di “processo decisionale automatizzato” contenuta nel RODO, che può includere alcuni sistemi di IA.

Il RODO, all’articolo 22, definisce il processo decisionale automatizzato come:

“… una decisione basata esclusivamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici nei confronti di (…) una persona o che incida significativamente su tale persona in modo analogo”.

Tuttavia, questa definizione nella sua forma attualenon è abbastanza specifica da “coprire” sufficientemente il concetto di sistemi di intelligenza artificiale come li conosciamo oggi.

Da un punto di vista legale, l’intelligenza artificiale è quindi “solo” una tecnologia o un insieme di tecnologie ed è regolamentata come qualsiasi altra tecnologia – attraverso una serie di norme diverse applicabili a contesti o applicazioni specifiche. Può essere usata per scopi positivi o per causare danni, può essere legale o illegale: tutto dipende dalla situazione e dal contesto.

Perché la regolamentazione dell’intelligenza artificiale è così importante?

Il ritmo di sviluppo dell’intelligenza artificiale sta accelerando. E poiché l’intelligenza artificiale è una “forza dirompente”, i diversi Paesi stanno lottando per descrivere la tecnologia a fini legislativi. In passato, i legislatori raramente prendevano in considerazione la creazione di una nuova legislazione a livello internazionale specifica per una singola tecnologia. Tuttavia, gli ultimi anni hanno dimostrato che un numero sempre maggiore di scoperte tecnologiche richiede una risposta giuridica rapida: non occorre guardare lontano, basta pensare al cloud computing, alla blockchain e ora all’intelligenza artificiale.

Ad esempio, diverse parti o componenti di questa tecnologia possono essere di proprietà di persone o aziende diverse (ad esempio, il copyright di un certo codice di programma o la proprietà dei database), ma l’idea di intelligenza artificiale è pubblica. E poiché un numero sempre maggiore di strumenti e di conoscenze sull’intelligenza artificiale sono resi disponibili a tutti, in teoria chiunque può utilizzare gli strumenti dell’intelligenza artificiale o crearne di nuovi. Questo può comportare potenziali abusi, ed è per questo che la regolamentazione della tecnologia è così importante.

Perché? Tutti concordano sul fatto che l’intelligenza artificiale ha il potenziale per cambiare il panorama economico e sociale del mondo. Naturalmente, ciò sta già accadendo e il processo si accelera ogni giorno, il che è tanto eccitante quanto spaventoso. La velocità di sviluppo delle nuove tecnologie rende difficile prevederne i risultati. È quindi fondamentale disporre di alcuni principi giuridici per garantire che l’intelligenza artificiale venga utilizzata in modo vantaggioso per tutti. Trattandosi di un “fenomeno globale”, sarebbe meglio che ci fosse almeno un accordo universale su cosa sia l’intelligenza artificiale dal punto di vista legale.

Tuttavia, è improbabile che ciò avvenga a livello globale. Alcuni Paesi stanno cercando di definire l’intelligenza artificiale in base al suo scopo o alle sue funzioni, altri in base alle tecnologie utilizzate e altri ancora stanno combinando approcci diversi. Tuttavia, molte giurisdizioni chiave stanno cercando di concordare una definizione di IA e di trovare principi comuni. Questo è importante per evitare problemi pratici, soprattutto per i fornitori di soluzioni globali di IA, che presto dovranno affrontare numerosi problemi di conformità. Solo un’interoperabilità almeno di base tra le giurisdizioni permetterà all’IA di raggiungere il suo pieno potenziale.

L’approccio dell’UE

Diversi Paesi dell’Unione Europea hanno cercato di “approcciare” la questione dell’IA in molti modi. Tuttavia, se cerchiamo una risposta rapida alla domanda “qual è la definizione più probabile di IA nell’UE?”, la maggior parte ci rimanda alla legge sull’intelligenza artificiale, o legge sull’IA, o piuttosto alla sua bozza. Gli Stati membri stanno rimandando decisioni concrete fino all’adozione della versione finale dell’AI Act, che regolerà in modo completo la tecnologia a livello europeo in tutti gli Stati membri.

La versione attualmente disponibile al pubblico dell’AI Act contiene la seguente definizione di sistema di intelligenza artificiale:

“Un sistema di intelligenza artificiale è un sistema basato su una macchina progettato per operare con vari livelli di autonomia e che può mostrare capacità di adattamento dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Fonte: https://www.linkedin.com/feed/update/urn:li:activity:7155091883872964608/

Che può essere tradotto come: “Un sistema di intelligenza artificiale è un sistema macchina progettato per operare con vari livelli di autonomia, che può mostrare adattabilità quando viene impiegato e che, per scopi espliciti o impliciti o nascosti, infonde dagli input che riceve come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.”

Ciò è in contrasto con l’ultimo testo della legge sull’intelligenza artificiale del 2023, che definiva un sistema di intelligenza artificiale come “un software sviluppato utilizzando una o più delle tecniche e degli approcci elencati nell’allegato I che può, per una determinata serie di scopi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagisce”.

L’UE si è quindi avvicinata, nella sua definizione di sistema di intelligenza artificiale, allo standard dell’OCSE.

E qual è questo standard? Nel novembre 2023. L’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha aggiornato la definizione di IA contenuta nei Principi dell’IA dell’OCSE. Si tratta del primo standard intergovernativo sull’IA (è stato adottato nel 2019). Numerose autorità in tutto il mondo si sono impegnate ad applicare questa definizione direttamente o con piccole modifiche. Anche l’Unione Europea fa parte di questo gruppo.

Fonte: https://oralytics.com/2022/03/14/oced-framework-for-classifying-of-ai-systems/

Definizione OCSE di sistema di IA:

Un sistema di IAè un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. I diversi sistemi di IA variano nei loro livelli di autonomia e adattabilità dopo l’implementazione”.

(IT: “Un sistema di intelligenza artificialeè un sistema basato su una macchina che, per scopi espliciti o impliciti, deduce dagli input ricevuti come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di intelligenza artificiale variano nel loro livello di autonomia e adattabilità una volta implementati”).

L’attuale modello di sistema di intelligenza artificiale dell’OCSE

Oltre a questa definizione, le raccomandazioni dell’OCSE stabiliscono altri cinque principi basati sui valori per una gestione responsabile dell’intelligenza artificiale affidabile.

Questi includono:

crescita inclusiva, sostenibilità e prosperità

valori e giustizia incentrati sull’uomo

trasparenza e “spiegabilità

solidità, sicurezza e protezione

responsabilità.

Nel contesto di quanto sopra, i Paesi che si sono impegnati a rispettare i Principi dell’OCSE sull’intelligenza artificiale dovrebbero riflettere gli aspetti elencati (almeno in teoria). In questo contesto, l’UE è sulla strada giusta.

Come viene interpretata l’intelligenza artificiale a livello globale?

Gli Stati Uniti

Secondo il sito web della National Conference of State Legislatures, almeno 25 Stati, Porto Rico e il Distretto di Columbia hanno introdotto una legislazione sull’intelligenza artificiale nel 2023, mentre 15 Stati e Porto Rico hanno approvato risoluzioni in materia. I singoli Stati hanno adottato più di 120 iniziative in relazione a questioni generali di IA (la legislazione su tecnologie specifiche di IA, come il riconoscimento facciale o le auto autonome, è monitorata separatamente).

L’approccio negli Stati Uniti è quindi variabile. A titolo di curiosità, nel maggio 2023 è stata presentata in California una proposta di legge che chiede al governo degli Stati Uniti di imporre una moratoria immediata sull’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4 per almeno sei mesi, per dare tempo allo sviluppo di un sistema di gestione dell’IA – il suo stato è attualmente “in sospeso”, ma non sembra probabile che venga adottata.

Per quanto riguarda la definizione di intelligenza artificiale, negli Stati Uniti non esiste una definizione legale uniforme. Tuttavia, uno dei principali atti legislativi in materia di IA – il National AI Initiative Act del 2020. – ha istituito l’Ufficio nazionale per l’iniziativa sull’intelligenza artificiale e ha definito l’intelligenza artificiale come “un sistema basato su una macchina che può, per un determinato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che riguardano ambienti reali o virtuali”. Il documento prosegue spiegando che “i sistemi di intelligenza artificiale utilizzano input basati sulla macchina e sull’uomo per: (A) percepire ambienti reali e virtuali; (B) astrarre tali percezioni in modelli attraverso l’analisi in modo automatizzato; e (C) utilizzare l’inferenza del modello per formulare opzioni di informazione o azione”. Tuttavia, il documento si concentra principalmente sull’organizzazione dell’Ufficio AI per sostenere lo sviluppo di questa tecnologia negli Stati Uniti, piuttosto che sulla regolamentazione dell’intelligenza artificiale stessa.

Gli Stati Uniti si sono impegnati a rispettare i principi dell’OCSE sull’intelligenza artificiale. Tuttavia, esistono anche altre indicazioni su cosa aspettarsi dalle normative federali sull’intelligenza artificiale. Il “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” è il punto di partenza. È stato pubblicato dall’Ufficio della politica scientifica e tecnologica della Casa Bianca nell’ottobre del 2022 e contiene un elenco di cinque principi per “aiutare a fornire una guida ogni volta che i sistemi automatizzati possono influenzare in modo significativo i diritti, le opportunità o l’accesso alle esigenze critiche del pubblico”. Questi principi includono:

1. sistemi sicuri ed efficienti

2. protezione dalla discriminazione algoritmica

3. privacy dei dati

4. notifica e spiegazione

5. alternative umane, considerazioni e soluzioni di ripiego.

La definizione di sistemi di intelligenza artificiale coperta dal Blueprint comprende due elementi: (i) hanno il potenziale per incidere in modo significativo sui diritti, le capacità o l’accesso di individui o comunità e (ii) sono un “sistema automatizzato”. Un sistema automatizzato è inoltre definito come “qualsiasi sistema, software o processo che utilizzi l’informatica come parte o tutto il sistema per determinare risultati, prendere o supportare decisioni, informare l’attuazione di politiche, raccogliere dati o osservazioni o interagire in altro modo con individui e/o comunità”. I sistemi automatizzati includono, ma non sono limitati a, sistemi derivati dall’apprendimento automatico, dalla statistica o da altre tecniche di elaborazione dei dati o dall’intelligenza artificiale ed escludono le infrastrutture informatiche passive”. Per chiarire, “l’infrastruttura informatica passiva è qualsiasi tecnologia intermediaria che non influenza o determina l’esito di una decisione, non prende o assiste nel prendere una decisione, non informa l’attuazione di una politica o non raccoglie dati o osservazioni”, compreso, ad esempio, il web hosting.

In termini di altre giurisdizioni chiave, nessuna delle seguenti ha una definizione legale ampiamente riconosciuta, ma:

Cina

La Cina ha definito standard a livello nazionale e adattamenti locali che si basano su alcune definizioni relative alla funzionalità dei sistemi di intelligenza artificiale;

Hong Kong

ha creato linee guida per lo sviluppo e l’uso etico dell’intelligenza artificiale, che definiscono l’intelligenza artificiale come “una famiglia di tecnologie che prevedono l’uso di programmi informatici e macchine per imitare le capacità decisionali e di risoluzione dei problemi degli esseri umani”.

Il Giappone

Il Giappone ha definito una “Strategia AI 2022”. È stata pubblicata dal Consiglio per la promozione della strategia di innovazione integrata dell’Ufficio di Gabinetto. Il documento suggerisce che “AI” si riferisce a un sistema in grado di svolgere funzioni ritenute intelligenti.

Singapore

Singapore, invece, ha cercato di definire l’“IA” come un insieme di tecnologie progettate per simulare caratteristiche umane come la conoscenza, il ragionamento, la risoluzione di problemi, la percezione, l’apprendimento e la pianificazione e, a seconda del modello di IA, produrre un risultato o una decisione (come una previsione, una raccomandazione e/o una classificazione). Questa definizione è contenuta nel Model Framework for the Management of Artificial Intelligence pubblicato dalla Infocomm Media Development Authority e dalla Personal Data Protection Commission.

***

I tentativi di creare una definizione giuridica di intelligenza artificiale sono in corso in tutto il mondo. Attualmente, una delle proposte più recenti è quella avanzata dall’OCSE. La promulgazione della legge sull’IA nella sua versione finale accelererà certamente il processo di unificazione dell’approccio alla definizione di IA a livello mondiale. Resta aperta la questione se alcuni Paesi non vorranno comunque “distinguersi” con un approccio fortemente liberale all’IA per attirare a sé i creatori di questa tecnologia (senza curarsi particolarmente degli aspetti legali ed etici).

Autori:Mateusz Borkiewicz,Agata Jałowiecka,Grzegorz Leśniewski

Condividere

Condividere

Hai bisogno di aiuto con questo argomento?

Scrivi al nostro esperto

Mateusz Borkiewicz

Managing partner, attorney at law

+48 663 683 888 Contatto

Articoli in questa categoria

Cyber Monday: come non farsi fregare? Sicurezza informatica per i clienti dell’e-commerce

Articoli

Maggiori informazioni
Cyber Monday: come non farsi fregare? Sicurezza informatica per i clienti dell’e-commerce

Chat GPT e dati personali

Articoli

Maggiori informazioni
Chat GPT e dati personali

Conseguenze del mancato pagamento dei salari in tempo utile

Articoli

Maggiori informazioni
Conseguenze del mancato pagamento dei salari in tempo utile

🛒 Mr buy, Mrs buy – i diritti dei consumatori contro le vendite B2B 

Articoli

Maggiori informazioni
🛒 Mr buy, Mrs buy – i diritti dei consumatori contro le vendite B2B 

Internet non ha confini – o i problemi legali della vendita di servizi e prodotti all’estero

Articoli

Maggiori informazioni
Internet non ha confini – o i problemi legali della vendita di servizi e prodotti all’estero
Maggiori informazioni

Contatto

Hai domande?guarda il telefono+48 663 683 888
vedi e-mail

Ufficio a Varsavia

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Ufficio a Breslavia

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hello User,
ti sei già iscritto alle nostre newsletter?

    Leggi come trattiamo i tuoi dati personali qui