La musica del futuro – Suno AI e Sora AI: l’intelligenza artificiale sarà la nuova generazione di creatori di musica?

L’intelligenza artificiale (IA) sta cambiando rapidamente il modo di fare musica. Strumenti come Suno AI e Sora AI consentono ad artisti e produttori di generare melodie e testi e sperimentare nuovi suoni. Tuttavia, lo sviluppo di questa tecnologia solleva interrogativi sul diritto d’autore, sulla proprietà intellettuale e sugli aspetti etici dell’uso dell’IA nella musica.

Le canzoni generate dall’IA sono protette da copyright? Chi è l’autore? Quali sono le conseguenze dell’uso dell’intelligenza artificiale nel processo creativo? In questo articolo, esamineremo tali questioni sulla base dell’analisi presentata da Anna Adamiak, praticante avvocato e associata junior presso LBK&P, in “Przegląd Radcowski” e delle normative legali applicabili.

ai muzyka

La musica generata dall’IA è protetta da copyright?

Secondo la legge sul copyright polacca, per essere protetta un’opera deve essere il risultato dell’attività creativa umana con un carattere individuale (articolo 1 della legge sul copyright e sui diritti connessi). Ciò significa che le opere create esclusivamente da Suno AI, Sora AI o altri modelli generativi non possono essere protette dal copyright.

Poiché una macchina non ha la capacità di esprimere personalità o fare scelte creative consapevoli, le opere create senza un significativo contributo umano sono considerate parte del pubblico dominio.

Chi è il creatore delle opere generate dall’IA?

La questione della paternità delle opere generate dall’IA è una delle sfide legali più importanti. Ci sono tre posizioni principali:

  1. Utente dello strumento di IA: una persona che utilizza Suno AI o Sora AI può essere considerata un co-creatore se il suo contributo al processo creativo è stato significativo. Tuttavia, l’impostazione di alcuni parametri o l’inserimento di una breve descrizione non soddisfa i requisiti della legge sul copyright che conferisce lo status di creatore.

Creatore dell’algoritmo: le aziende che sviluppano l’IA spesso rivendicano i risultati dei loro modelli. È anche discutibile che l’IA lavori in modo autonomo e che non vi sia alcun contributo umano individuale a un particolare lavoro.

  1. Creatore dell’algoritmo: le aziende che sviluppano l’IA spesso rivendicano i risultati dei loro modelli. È inoltre discutibile che l’IA funzioni in modo autonomo e che non vi sia alcun contributo umano individuale a un lavoro specifico.
  2. Mancanza di un autore – In molte giurisdizioni (ad esempio negli Stati Uniti e nel Regno Unito), le opere di IA sono trattate come parte del dominio pubblico e non hanno un autore assegnato.

Queste sono le questioni analizzate da Anna Adamiak in “Przegląd Radcowski”, sottolineando che la legge attuale non può tenere il passo con lo sviluppo della tecnologia generativa.

Logo SUNO AI

Suno AI: l’intelligenza artificiale al servizio della musica

Suno AI è uno strumento avanzato di intelligenza artificiale che consente di generare musica in diversi stili. Analizza enormi database musicali e quindi crea nuovi brani, testi e arrangiamenti. È particolarmente apprezzato da artisti indipendenti e produttori musicali.

Sora AI: il futuro della generazione di composizioni

Sora AI, invece, è una piattaforma di IA per la composizione automatica di musica. I suoi algoritmi consentono la personalizzazione dei suoni, l’adattamento delle melodie alle preferenze dell’utente e l’integrazione con software di produzione musicale.

L’impatto di Suno AI e Sora AI sull’industria musicale

Gli strumenti di IA stanno cambiando l’industria musicale offrendo:

Automazione del processo di composizione: gli artisti possono generare melodie uniche in pochi secondi.

Riduzione dei costi di produzione: l’IA elimina la necessità di costosi produttori.

Nuove possibilità creative: l’IA supporta la sperimentazione di stili e armonie insoliti.

LLM czym jest . 

Tuttavia, l’uso dell’IA nella musica è associato a numerosi problemi legali:

Rischio di plagio: modelli come Suno AI vengono addestrati su enormi database, il che può portare alla copia involontaria di canzoni esistenti.

Mancanza di regolamentazione: mancano regolamenti chiari in materia di IA, il che solleva interrogativi sul diritto d’autore e sulla proprietà intellettuale.

Norme giuridiche relative alle opere generate dall’IA

Al fine di adattare la legge alla tecnologia dell’IA, sono emerse nuove iniziative giuridiche:

🔹 Generative AI Copyright Disclosure Act (USA) – una legge del 2024 che richiede la divulgazione dell’uso di opere protette da copyright per addestrare l’IA.

🔹 Linee guida ZAiKS (Polonia) – stabiliscono chiaramente che le opere generate esclusivamente dall’IA non sono soggette a tutela legale.

Entrambi i regolamenti sono un tentativo di risolvere il problema della mancanza di standard globali per quanto riguarda la musica creata dall’intelligenza artificiale.

AGI

Sommario

L’intelligenza artificiale nella musica sta rivoluzionando il mondo, ma sta anche mettendo in discussione la legge sul copyright. Suno AI e Sora AI offrono nuove possibilità creative, ma il loro utilizzo solleva questioni relative alla proprietà intellettuale, al plagio e alla paternità.

Un’analisi di Anna Adamiak su “Przegląd Radcowski” mostra che le normative attuali non stanno tenendo il passo con lo sviluppo dell’IA e che la musica generata dall’intelligenza artificiale non soddisfa gli attuali criteri di protezione legale.

Cosa ci riserva il futuro? Per il momento, l’intelligenza artificiale contribuisce alla musica, ma non sostituisce completamente gli artisti umani. Tuttavia, questo potrebbe cambiare nel corso degli anni con lo sviluppo della tecnologia. 🎶

L’IA dominerà l’industria musicale? I prossimi anni di sviluppo tecnologico e di regolamentazione legale forniranno la risposta.

Fonti:

📌 “Przegląd Radcowski” – articolo di Anna Adamiak “Wyzwania dla prawa autorskiego w muzyce”

Violazioni della protezione dei dati: cosa è necessario sapere?

Nel mondo digitale di oggi, la protezione dei dati sta diventando un argomento sempre più importante. Ogni organizzazione che elabora dati personali deve essere preparata a potenziali violazioni dei dati e sapere come procedere in tale situazione. In questo articolo, discuteremo le questioni più importanti relative alle violazioni dei dati alla luce del GDPR sulla base della pubblicazione dell’UODO (Autorità polacca per la protezione dei dati) intitolata “Guida ai sensi del GDPR – obblighi degli amministratori relativi alle violazioni dei dati personali v2”.

Poradnik na gruncie RODO

Che cos’è una violazione dei dati?

Una violazione dei dati è un incidente di sicurezza che porta a: distruzione accidentale o illegale dei dati

perdita accidentale o illegale dei dati

modifica accidentale o illegale dei dati

divulgazione non autorizzata dei dati

accesso non autorizzato ai dati

Una violazione può essere sia un’azione deliberata (ad esempio un attacco informatico) che un evento accidentale (ad esempio la perdita di un supporto dati). Il punto chiave è che la violazione riguarda i dati personali in fase di elaborazione e può avere un impatto negativo sui diritti e le libertà degli interessati.

Perché le violazioni sono pericolose?

Le violazioni dei dati possono avere gravi conseguenze per gli interessati, quali:

  • lesioni fisiche
  • danni materiali (ad es. furto d’identità, frode finanziaria)
  • danni non pecuniari (ad es. danni alla reputazione, stress mentale)

Anche incidenti apparentemente insignificanti possono avere conseguenze di vasta portata. È quindi importante che i responsabili del trattamento dei dati rispondano adeguatamente a qualsiasi violazione.

dane osobowe

Chi è responsabile della protezione dei dati?

La responsabilità principale spetta al titolare del trattamento, ossia il soggetto che determina le finalità e i mezzi del trattamento dei dati personali. È il titolare del trattamento che deve attuare misure tecniche e organizzative adeguate per garantire la sicurezza dei dati.

Anche i seguenti soggetti svolgono un ruolo importante:

  • Responsabili del trattamento – trattano i dati per conto del titolare del trattamento
  • I responsabili della protezione dei dati (RPD) forniscono consulenza e monitorano la conformità al GDPR.

Quali sono le responsabilità del titolare del trattamento?

Nel contesto delle violazioni dei dati personali, il titolare del trattamento ha le seguenti responsabilità:

  1. Prevenire le violazioni implementando adeguate misure di sicurezza.
  2. Rilevare e identificare le violazioni.
  3. Rispondere alle violazioni:
  4. Rimediare alla violazione e minimizzarne gli effetti
  5. Valutare il rischio associato alla violazione
  6. Segnalare la violazione all’autorità di controllo (se c’è un rischio)
  7. Notificare gli interessati (in caso di rischio elevato)
  8. Documentare la violazione

dane osobowe

Come si possono prevenire le violazioni dei dati?

La chiave è implementare misure tecniche e organizzative appropriate, come:

  • Crittografia e pseudonimizzazione dei dati
  • Test e valutazione regolari dell’efficacia delle misure di sicurezza
  • Formazione del personale
  • Procedure di risposta agli incidenti
  • Controllo dell’accesso ai dati
  • Backup dei dati

La selezione delle misure dovrebbe basarsi su un’analisi dei rischi associati al trattamento.

Come rilevare le violazioni?

Gli amministratori devono implementare sistemi di monitoraggio e rilevamento degli incidenti, come ad esempio:

  • Sistemi di rilevamento delle intrusioni (IDS/IPS)
  • Software antivirus
  • Analisi dei registri di sistema
  • Procedure per la segnalazione di incidenti da parte dei dipendenti

È inoltre importante formare il personale a riconoscere potenziali violazioni.

dane osobowe

Cosa fare dopo aver rilevato una violazione?

Dopo aver rilevato una violazione, il responsabile del trattamento deve:

  1. Intervenire immediatamente per contenere la violazione e ridurne al minimo l’impatto
  2. Valutare il rischio per i diritti e le libertà degli interessati
  3. Segnalare la violazione all’autorità di controllo entro 72 ore se sussiste un rischio (a meno che non si possa dimostrare che il rischio è improbabile che si concretizzi)
  4. Informare gli interessati se sussiste un rischio elevato
  5. Documentare la violazione e le misure adottate

Segnalazione delle violazioni all’autorità di controllo

La notifica al Presidente dell’Ufficio per la protezione dei dati personali deve includere:

  • Una descrizione della natura della violazione
  • Le categorie e il numero approssimativo di soggetti interessati
  • Le possibili conseguenze della violazione
  • Le misure adottate per porre rimedio alla violazione
  • I recapiti del responsabile della protezione dei dati o di altro punto di contatto

La notifica può essere effettuata elettronicamente tramite un modulo dedicato o ePUAP.

dane osobowe

Notifica agli interessati

In caso di rischio elevato, il responsabile del trattamento deve informare gli interessati senza indebito ritardo. La notifica deve:

  • Essere scritta in un linguaggio semplice e chiaro
  • Descrivere la natura della violazione
  • Includere i dati di contatto del responsabile della protezione dei dati o di altro punto di contatto
  • Descrivere le possibili conseguenze della violazione
  • Descrivere le misure adottate per porre rimedio alla violazione
  • Includere raccomandazioni per le persone al fine di ridurre al minimo i potenziali effetti negativi

Le notifiche possono essere effettuate direttamente (ad esempio via e-mail) o tramite un annuncio pubblico.

Documentazione delle violazioni

Il responsabile del trattamento deve documentare tutte le violazioni, indipendentemente dal fatto che siano state segnalate o meno. La documentazione deve includere:

  • Le circostanze della violazione
  • I suoi effetti
  • Le misure correttive adottate
  • La giustificazione delle decisioni di segnalazione
  • La documentazione serve come prova della conformità al GDPR e può essere soggetta a ispezione da parte dell’autorità di controllo.

dane osobowe

Violazioni transfrontaliere dei dati personali

Una violazione dei dati transfrontaliera è un incidente che coinvolge il trattamento dei dati personali in più di uno Stato membro dell’Unione Europea. Ciò può essere dovuto al fatto che il responsabile del trattamento o l’incaricato del trattamento hanno unità organizzative in diversi paesi dell’UE, oppure quando la violazione riguarda persone interessate in diversi Stati membri.

Nel caso di violazioni dei dati transfrontaliere, il processo di segnalazione e gestione degli incidenti diventa più complesso. I responsabili del trattamento devono cooperare con le autorità di controllo dei diversi paesi e tenere conto anche delle differenze nelle normative e procedure locali. È fondamentale determinare rapidamente quale autorità di controllo sia l’autorità principale in un determinato caso e garantire una comunicazione efficace tra tutte le parti coinvolte. La natura transfrontaliera della violazione può anche influenzare la valutazione del rischio e il modo in cui gli interessati vengono informati, soprattutto quando è necessario tenere conto delle differenze culturali e linguistiche nei diversi paesi.

Riassunto Rispondere in modo adeguato alle violazioni dei dati è fondamentale per proteggere i diritti degli interessati. Ciò richiede ai responsabili del trattamento di: Implementare adeguate misure di sicurezza Preparare procedure di risposta agli incidenti Agire rapidamente in caso di violazione Comunicare in modo trasparente con l

Sintesi

Rispondere in modo adeguato alle violazioni dei dati personali è fondamentale per proteggere i diritti degli interessati. Ciò richiede ai responsabili del trattamento di:

  • Implementare adeguate misure di sicurezza
  • Preparare procedure di risposta agli incidenti
  • Agire rapidamente in caso di violazione
  • Comunicare in modo trasparente con l’autorità di controllo e gli interessati

Ricordate che lo scopo principale di queste misure è proteggere i diritti e le libertà delle persone, non evitare sanzioni. Un approccio responsabile alla protezione dei dati crea fiducia e riduce al minimo gli effetti negativi di possibili violazioni.

Volete saperne di più?

Leggete la nuova guida dell’UODO (l’autorità polacca per la protezione dei dati):

https://uodo.gov.pl/pl/138/3561

Poradnik UODO

Quali sono le novità della guida?

La nuova versione tiene conto delle più recenti interpretazioni delle normative, della giurisprudenza e dei consigli pratici che aiuteranno gli amministratori a prendere le giuste decisioni in caso di violazione dei dati personali. Include, tra l’altro:

  • procedure aggiornate per rispondere alle violazioni (segnalazione al Presidente dell’Ufficio per la protezione dei dati personali);
  • esempi pratici e casi di studio;
  • linee guida sulla cooperazione con il Presidente dell’Ufficio per la protezione dei dati personali e altre autorità di controllo;
  • raccomandazioni chiave sulla valutazione dei rischi e la prevenzione delle violazioni.

 

Inizia l’implementazione del MiCA: cosa significa per il mercato delle criptovalute in Polonia?

MiCA e regolamenti polacchi: a chi sono rivolti i nuovi regolamenti?

Il regolamento MiCA (Markets in Crypto-Assets Regulation) introduce norme uniformi per il mercato delle cripto-attività nell’Unione Europea. Le nuove norme riguardano sia l’emissione di token che le attività dei fornitori di servizi di cripto-attività (CASP).
In pratica, ciò significa che le entità che offrono cripto-asset al pubblico o che gestiscono piattaforme di trading dovranno soddisfare determinati requisiti di licenza e trasparenza.

krypto

Chi è soggetto al MiCA?

Secondo il MiCA, un fornitore di servizi di cripto-asset è una persona giuridica o una società che fornisce professionalmente servizi di cripto-asset ai clienti. Per poter operare legalmente, ciascuna di queste entità deve ottenere una licenza CASP, che in Polonia sarà rilasciata dall’Autorità di vigilanza finanziaria polacca (KNF).
Il regolamento distingue 10 categorie di servizi relativi alle cripto-attività. I servizi relativi alle cripto-attività sono regolati dall’articolo 3(1)(16) del MiCA, tra cui:

  • fornire servizi di archiviazione e amministrazione di cripto-asset per conto dei clienti;
  • gestire una piattaforma di trading per cripto-asset;
  • scambiare cripto-asset con denaro contante;
  • scambiare cripto-asset con altri cripto-asset;
  • eseguire ordini relativi a cripto-asset per conto dei clienti;
  • Collocare cripto-attività;
  • Accettare e inoltrare ordini relativi a cripto-attività per conto dei clienti;
  • Fornire consulenza sulle cripto-attività;
  • Gestire un portafoglio di cripto-attività;
  • Fornire servizi di trasferimento di cripto-attività per conto dei clienti;


Qualsiasi entità che fornisca anche uno solo dei servizi di cui sopra deve rispettare le nuove normative MiCA.

krypto

MiCA e il mercato polacco delle criptovalute: i cambiamenti chiave

Fino ad ora, il mercato polacco delle criptovalute ha operato in assenza di normative settoriali dedicate. L’unico requisito era essere iscritti nel registro delle attività nel campo delle valute virtuali e rispettare la legge antiriciclaggio.
Dopo l’entrata in vigore del MiCA, la situazione cambierà radicalmente:

✅ L’Autorità di vigilanza finanziaria polacca (KNF) acquisirà pieni poteri di vigilanza sugli scambi di criptovalute, sui cambiavalute criptati e sulle società di custodia,
✅ Obbligo di ottenere una licenza CASP: dopo un periodo di transizione, sarà illegale operare senza licenza
✅ Introduzione di requisiti patrimoniali: 50.000 euro, 125.000 euro o 150.000 euro per i fornitori di servizi di cripto-asset.
La necessità di implementare sistemi di gestione del rischio, di audit e di conformità.

Per le aziende polacche, ciò significa la necessità di conformarsi a requisiti rigorosi o cessare l’attività. È anche possibile che il consolidamento del mercato acceleri, con l’acquisizione di entità più piccole da parte di aziende più grandi.

La Polonia è pronta per MiCA?

Il progetto di legge polacco sul mercato dei cripto-asset riflette in generale i presupposti della MiCA, adattando l’ordinamento giuridico nazionale alle nuove normative dell’UE, ma potenziali ritardi legislativi potrebbero portare a un caos normativo.

📌 Periodo di transizione – La Polonia ha ridotto il periodo di transizione alla fine di giugno 2025 e quindi ha dovuto attuare le normative pertinenti prima del 30 dicembre 2024 per limitare efficacemente il “periodo di grazia” dell’UE.
📌 Rischio di abbandono delle aziende – poiché in Polonia non è ancora possibile richiedere una licenza, le aziende di criptovalute potrebbero trasferire le loro attività in altri paesi dell’UE dove le procedure sono già in atto. Riepilogo – come prepararsi
📌 Rischio di abbandono da parte delle aziende: poiché in Polonia non è ancora possibile richiedere una licenza, le aziende di criptovalute potrebbero trasferire le loro attività in altri paesi dell’UE dove le procedure sono già in fase di attuazione.

 

krypto

Sommario: come preparare la tua azienda al MiCA?

Il MiCA è una rivoluzione per il mercato delle criptovalute in Polonia. Ogni azienda che opera in questo settore dovrebbe al più presto:

✅ Verificare se è soggetta al MiCA e quali licenze dovrà ottenere,
✅ Prepararsi a implementare i requisiti organizzativi e di capitale,
✅ Monitorare i progressi legislativi e adattarsi alle nuove normative,
✅ Considerare la possibilità di richiedere assistenza legale nel processo di ottenimento di una licenza CASP.

Il mancato rispetto delle nuove normative comporterà la chiusura o il trasferimento in un altro paese dell’UE.
Se gestisci un’azienda legata al mercato delle criptovalute, contattaci subito per prepararti ai cambiamenti!

 

Fondo PMI 2025 – finanziamenti per la registrazione dei marchi per le PMI

Proteggete il vostro marchio e beneficiate di finanziamenti nel 2025!

Buone notizie per le piccole e medie imprese (PMI)! Il 3 febbraio 2025 partirà la prossima edizione del Fondo per le PMI, che offre finanziamenti per la registrazione di marchi a livello di Unione Europea. Questo programma rappresenta un’ottima opportunità per proteggere il vostro marchio e aumentare la vostra competitività sul mercato europeo.

sme fund 2025

Che cos’è il Fondo PMI 2025?

Il Fondo per le PMI è un’iniziativa dell’Ufficio dell’Unione europea per la proprietà intellettuale (EUIPO) che mira a sostenere le piccole e medie imprese nella protezione dei diritti di proprietà intellettuale. Nell’ambito del programma, gli imprenditori possono ottenere un voucher del valore massimo di 1.000 euro per coprire i costi di registrazione di marchi e disegni industriali.

Perché proteggere un marchio?

La registrazione di un marchio a livello europeo offre all’impresa una serie di vantaggi, tra cui:

✅ Diritti esclusivi sul marchio in tutta l’Unione europea,

✅ Protezione contro la concorrenza sleale e la contraffazione,

✅ Aumento dell’avviamento e del riconoscimento sul mercato,

✅ Investimenti sicuri nel branding e nel marketing,

✅ Acquisizione facilitata di investitori e finanziamenti.

sme fund 2025

Chi può beneficiare dei finanziamenti?

Il programma Fondo PMI 2025 si rivolge alle piccole e medie imprese (PMI) con sede nell’Unione europea, tra cui:

✔ Imprese individuali,

✔ Società commerciali,

✔ Società di persone.

La condizione per la partecipazione è che siano soddisfatti i criteri per le PMI, ossia meno di 250 dipendenti e un fatturato annuo non superiore a 50 milioni di euro.

Come ottenere i finanziamenti del Fondo PMI 2025?

Per ricevere un finanziamento, è necessario seguire un processo in quattro fasi:

1. presentazione di una domanda di finanziamento attraverso la piattaforma EUIPO,

2. ricezione della decisione di concedere il voucher,

3. registrazione del marchio e pagamento delle tasse,

4. richiesta di rimborso delle spese sostenute.

L’intero processo dura circa 2 mesi, dalla presentazione della domanda al ricevimento del rimborso.

sme fund 2025

Quanto si può ottenere? Importo del finanziamento

Nell’ambito del programma Fondo PMI 2025, gli imprenditori possono ottenere:

💰 75% di rimborso delle tasse per una domanda di marchio a livello europeo o nazionale,

💰 50% di rimborso delle tasse di base per una domanda internazionale,

💰 L’importo massimo del finanziamento è di 1.000 euro per PMI.

Perché agire in fretta?

🕒 Il pool di fondi del programma è limitato!

I finanziamenti vengono assegnati in base al principio “primo arrivato, primo servito”, quindi è opportuno presentare domanda il prima possibile dopo il lancio del programma, il 3 febbraio 2025.

Come possiamo aiutarvi?

Il nostro studio legale assiste da anni gli imprenditori nella registrazione dei marchi. Offriamo un supporto completo in ogni fase del processo:

🔹 Analisi della registrabilità del marchio,

🔹 Preparazione e presentazione della domanda di registrazione,

🔹 Deposito della domanda di marchio presso l’ufficio competente,

🔹 Gestione delle formalità di rimborso.

Proteggete il vostro marchio con il Fondo PMI 2025 e il nostro studio legale! Con il Fondo PMI 2025 e il nostro supporto, potete proteggere il vostro marchio con costi minimi.

📞 Contattateci oggi stesso e fissate una consulenza gratuita:

Non aspettate! I fondi sono limitati: fate domanda il prima possibile e proteggete il vostro marchio nell’UE!

Potete trovare maggiori informazioni qui:

https://uprp.gov.pl/pl/aktualnosci/informacje/rusza-kolejna-edycja-programu-pn-fundusz-dla-msp

Aspetti fiscali dell’attività commerciale in Germania

Gentili Signori,

Vi invitiamo a partecipare a un webinar gratuito sugli aspetti fiscali dell’attività in Germania organizzato dallo studio legale Leśniewski Borkiewicz Kostka & Partners (LBK&P), in collaborazione con lo studio di consulenza fiscale tedesco Dr. Klein, Dr. Mönstermann International Tax Services GmbH. L’evento è rivolto sia alle aziende che si affacciano per la prima volta sul mercato tedesco sia a quelle che già vi operano, soprattutto nel settore delle PMI e delle grandi imprese. Vi preghiamo inoltre di inoltrare l’invito alle vostre aziende amiche che potrebbero essere interessate agli argomenti del webinar.

📅 Data: 18 febbraio 2025.

Ora: 10:00

📍Sede: online

Durante il webinar, gli esperti di LBK&P Paweł Suliga (consulente fiscale in Polonia e Germania, esperto riconosciuto di diritto tributario e commerciale tedesco, assiste quotidianamente in Germania, tra le altre, aziende polacche del settore edile, quotate al WSE) e Bartłomiej Chałupiński (consulente fiscale in Polonia, responsabile del settore fiscale @ LBK&P) discuteranno le questioni chiave riguardanti le normative e gli obblighi fiscali relativi alla conduzione di affari in Germania.

Ordine del giorno:

✅ Principali cambiamenti fiscali in Germania dal 01.01.2025.

✅ Quali sono gli obblighi fiscali per la creazione di un’attività in Germania?

✅ Obblighi di documentazione e di informazione nella gestione di un’attività transfrontaliera – a cosa prestare attenzione.

NOTE:

Dopo il webinar, è prevista la possibilità di una consulenza individuale gratuita di 30 minuti con i nostri esperti (è necessaria la prenotazione separata, il numero di posti è limitato). Per prenotare, inviare un’e-mail a rezerwacje@lbplegal.com.

🔗 link di registrazione al webinar – il link per partecipare al webinar e i dati di accesso vi saranno inviati al più tardi 3 giorni prima dell’evento.

I dettagli dell’evento sono descritti anche nell’appendice, insieme al link di registrazione.

Siete i benvenuti!

Scarica l’allegato:

Webinar - Podatkowe aspekty prowadzenia działalności gospodarczej w Niemczech

Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioni

🚨 AVVISO IMPORTANTE – Dal 2 febbraio sono in vigore gli articoli 1-5 dell’AI Act e la mancata osservanza può comportare pesanti sanzioni. Molte aziende all’interno dell’UE non hanno ancora intrapreso le azioni richieste: ecco i punti salienti.

ai law

A partire dal 2 febbraio 2025, si applicano le prime disposizioni del Regolamento sull’Intelligenza Artificiale (AI Act) volte ad aumentare la sicurezza e a regolamentare il mercato dell’AI all’interno dell’Unione Europea.

Le principali modifiche includono:

  • Pratiche vietate – divieto di utilizzo e commercializzazione o immissione sul mercato di sistemi di IA che soddisfano i criteri delle pratiche vietate. Tra gli esempi vi sono i sistemi di manipolazione che sfruttano le vulnerabilità umane, i sistemi di social scoring e i sistemi che analizzano le emozioni sul posto di lavoro o nell’istruzione. Le violazioni di queste norme comportano pesanti sanzioni finanziarie, fino a 35 milioni di euro o al 7% del fatturato globale annuo di un’azienda.
  • Obbligo di alfabetizzazione all’IA. I datori di lavoro devono garantire che i dipendenti siano adeguatamente formati e informati sull’IA, in modo da poter utilizzare in sicurezza i sistemi di IA sul lavoro. La mancanza di formazione sull’IA può portare alla non conformità e aumentare il rischio che i sistemi di IA vengano utilizzati in modo inappropriato. In relazione all’alfabetizzazione all’IA, vale la pena di assicurarsi che la politica aziendale sull’uso dell’IA sia implementata. Come si può fare?

Si vedano gli articoli:

Una politica per l’utilizzo dell’IA in un’azienda può includere, ad esempio, procedure chiare, regole per l’utilizzo dell’IA, condizioni per il rilascio dei sistemi, modalità di gestione degli incidenti e la nomina di una persona responsabile dell’effettiva implementazione e dell’utilizzo dell’IA nell’organizzazione (ambasciatore dell’IA).

 

Importanza della formazione sull’IA (articolo 4 della legge sull’IA)

La consapevolezza e la conoscenza dell’IA non sono solo un requisito legale, ma anche una necessità strategica per le organizzazioni. L’articolo 4 della legge sull’IA impone alle aziende di attuare programmi di formazione adeguati alle conoscenze, al ruolo e all’esperienza dei dipendenti.

“I fornitori e gli adottanti di sistemi di IA adottano misure per garantire, nella misura più ampia possibile, un livello adeguato di competenza in materia di IA tra il loro personale e le altre persone coinvolte nel funzionamento e nell’uso dei sistemi di IA per loro conto, tenendo conto delle loro conoscenze tecniche, dell’esperienza, dell’istruzione e della formazione e del contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone contro cui i sistemi di IA devono essere utilizzati”.

L’inosservanza di questo principio comporta gravi conseguenze, tra cui:

  • Rischio di violazione delle norme sulla protezione dei dati e sulla privacy.
  • Aumento della probabilità di violazioni legali e sanzioni finanziarie.

Oltre alla conformità normativa, la formazione sull’IA contribuisce a creare una cultura dell’uso responsabile della tecnologia e a ridurre al minimo i potenziali rischi operativi.

Dove cercare una guida?

Lo standard ISO/IEC 42001 per un sistema di gestione dell’intelligenza artificiale può essere d’aiuto. Nell’affrontare le competenze appropriate di coloro che si occupano di IA in un’organizzazione, lo standard indica, ad esempio, quanto segue:

  • tutoraggio
  • formazione
  • trasferimento dei dipendenti a mansioni pertinenti all’interno dell’organizzazione sulla base di un’analisi delle loro competenze.

Allo stesso tempo, i ruoli o le aree di competenza rilevanti dovrebbero riguardare, ad esempio:

  • supervisione del sistema AI
  • la sicurezza
  • protezione
  • la privacy.

LLM security

Pratiche di IA vietate (articolo 5 della legge sull’IA)

Il regolamento dell’AI Act vieta l’uso di determinati sistemi di IA che possono comportare gravi rischi per il pubblico. I fornitori e le aziende che utilizzano l’IA devono garantire di non essere coinvolti direttamente o indirettamente nel suo sviluppo o nella sua implementazione. Tra le altre cose, l’AI Act elenca specifiche pratiche vietate considerate particolarmente pericolose. Queste includono

  • Tecniche subliminali o manipolative – sistemi di IA che alterano inconsciamente il comportamento di un utente in modo che prenda una decisione che altrimenti non prenderebbe.
  • Sfruttamento delle vulnerabilità umane – sistemi che sfruttano la disabilità, la situazione sociale o economica di una persona.
  • Punteggio sociale – sistemi che valutano i cittadini e concedono loro determinati diritti in base al loro comportamento.
  • Valutazione del rischio criminale – sistemi che tracciano un profilo degli individui e valutano le loro caratteristiche individuali senza una base legittima.
  • Creazione di database di immagini facciali – acquisizione non mirata di immagini da Internet o dalla sorveglianza cittadina per creare sistemi di riconoscimento facciale.
  • Analisi delle emozioni sul posto di lavoro o nell’istruzione – sistemi di intelligenza artificiale che analizzano le emozioni dei dipendenti o degli studenti.
  • Categorizzazione biometrica di dati sensibili – utilizzo della biometria per estrarre informazioni su razza, opinioni politiche, ecc.
  • Identificazione biometrica remota in tempo reale – utilizzo di sistemi di riconoscimento facciale negli spazi pubblici per scopi di polizia.

Dove cercare le linee guida?

  • Progetto di linee guida sulle pratiche vietate di intelligenza artificiale (AI) – 4 febbraio 2025. La Commissione ha pubblicato delle linee guida sulle pratiche vietate di intelligenza artificiale (IA), che mirano a garantire un’applicazione coerente, efficace e uniforme della legge sull’IA in tutta l’UE.

Scadenze importanti:

  • Dal 2 febbraio 2025. – Capitolo II (pratiche vietate)
  • Dal 2 agosto 2025. – Capo V (modelli per scopi generali), Capo XII (sanzioni) senza l’Articolo 101
  • Dal 2 agosto 2026. – Articolo 6, paragrafo 2, e Allegato III (sistemi ad alto rischio), Capo IV (obblighi di trasparenza)
  • Dal 2 agosto 2027 – Articolo 6(1) (sistemi ad alto rischio) e obblighi corrispondenti.

Lezioni chiave per le aziende:

  • La conformità agli articoli 1-5 della legge sull’AI è obbligatoria e non può essere ignorata.
  • Laformazione sull’IA è fondamentale per evitare errori dovuti alla scarsa consapevolezza dei dipendenti e alla potenziale responsabilità dell’azienda.
  • L‘esecuzione di audit sui fornitori di tecnologia è necessaria per garantire la conformità dei sistemi di IA.
  • Implementare una politica per l’uso dell’IA, creando una documentazione chiara per organizzare i rischi. Le politiche possono includere, ad esempio, procedure chiare, regole per l’utilizzo dell’IA, condizioni per il rilascio dei sistemi, modalità di gestione degli incidenti e la nomina di una persona responsabile della supervisione (AI Ambassador).
  • Sviluppare strumenti di IA in modo legale – le aziende che sviluppano strumenti di IA devono considerare gli aspetti legali ed etici in ogni fase dello sviluppo. Ciò include, ma non solo, l’analisi della legalità degli obiettivi del sistema, la legalità dei database, la sicurezza informatica e i test del sistema. È importante che il processo di sviluppo dei sistemi di IA sia conforme ai principi di privacy by design e privacy by default del RODO – Come sviluppare strumenti di IA in modo legale?

Si consiglia di consultare le seguenti fonti:

DeepSeek – L’IA cinese open source. Hong Kong ha la possibilità di battere OpenAI?

DeepSeek è una serie di modelli di lingua cinese che impressiona per le sue prestazioni e i bassi costi di formazione. Con il loro approccio open source, DeepSeek-R1 e DeepSeek-V3 stanno facendo scalpore nel settore dell’IA.

DeepSeek

Fonte: www.deepseek.com

DeepSeek: una rivoluzione nel mondo dell’IA nativa di Hong Kong

DeepSeek è sempre più presente nelle discussioni sul futuro dell’intelligenza artificiale. Questo progetto con sede a Hong Kong fornisce modelli linguistici di grandi dimensioni (Large Language Models, LLM) caratterizzati da codice aperto, alte prestazioni e – cosa fondamentale – costi di addestramento molto più bassi rispetto alle soluzioni concorrenti di OpenAI o Meta.

In questo articolo, diamo uno sguardo a DeepSeek-R1, DeepSeek-V3 e discutiamo le ultime informazioni sul processo di sviluppo e distribuzione di questi modelli, basandoci sia sul materiale ufficiale disponibile sullapiattaforma Hugging Face, sia sulle pubblicazioni diSpider’s Webechina24.com.

Indice dei contenuti

  1. Come è nato DeepSeek?
  2. DeepSeek-R1 e DeepSeek-V3: una breve introduzione tecnica
  3. Costi di formazione e prestazioni: dov’è il segreto?
  4. Open source e licenze
  5. I modelli DeepSeek-R1, R1-Zero e Distill: cosa li differenzia?
  6. Rivalità Cina-USA: sanzioni, semiconduttori e innovazione
  7. DeepSeek minaccerà il dominio di OpenAI?
  8. Sintesi
  9. Fonti

AI born

Come è nato DeepSeek?

Secondo recenti notizie di stampa, nel 2015 è stata fondata a Hong Kong High-Flyer Capital Management, una società che fino a poco tempo fa era quasi sconosciuta nel settore IT al di fuori dell’Asia. La situazione è cambiata radicalmente con DeepSeek, una serie di modelli linguistici di grandi dimensioni che hanno conquistato gli esperti della Silicon Valley.

Tuttavia, DeepSeek non è solo un progetto commerciale: è anche una ventata di apertura in un mondo solitamente dominato da soluzioni chiuse con budget enormi, come i modelli di OpenAI (tra cui GPT-4 e OpenAI o1).

DeepSeek-R1 e DeepSeek-V3: una breve introduzione tecnica

Secondo lapagina ufficiale del progetto su Hugging Face, DeepSeek sta attualmente pubblicando diverse varianti dei suoi modelli:

  1. DeepSeek-R1-Zero: creato attraverso un addestramento avanzato senza la fase iniziale di SFT (Supervised Fine-Tuning), concentrandosi sul rafforzamento delle capacità di ragionamento (la cosiddetta catena del pensiero).
  2. DeepSeek-R1: in cui gli autori hanno inserito un ulteriore fine-tuning pre-supervisionato (SFT) prima della fase di apprendimento per rinforzo, che ha migliorato la leggibilità e la coerenza del testo generato.
  3. DeepSeek-V3: il nome del modello di base da cui sono derivate le varianti R1-Zero e R1 descritte sopra. DeepSeek-V3 può avere fino a 671 miliardi di parametri ed è stato addestrato in due mesi al costo di circa 5,58 milioni di dollari (dati:china24.com).

ai tech

Contesto tecnico

  • L’elevato numero di parametri (fino a 671 miliardi) si traduce nella capacità di generare dichiarazioni e analisi molto complesse.
  • Un processo di addestramento ottimizzato fa sì che anche un’architettura così grande non richieda un budget paragonabile a quello di OpenAI.
  • L’obiettivo principale: elaborare soluzioni a più fasi in modo indipendente e ridurre al minimo le “allucinazioni” così comuni in altri modelli.

Costi di formazione e prestazioni: dov’è il segreto?

SiaSpider’s Web chechina24.comsottolineano che i costi di addestramento di DeepSeek-R1 (circa 5 milioni di dollari per la prima iterazione) sono di gran lunga inferiori a quelli di cui si parla nel contesto del GPT-4 o di altri modelli OpenAI chiusi, per i quali si parla di miliardi di dollari.

Dove sta la ricetta del successo?

  • Metodi proprietari per ottimizzare il processo di apprendimento,
  • Architettura agile che consente al modello di apprendere in modo più efficiente con un numero inferiore di GPU,
  • Gestione economica dei dati di addestramento (evitando inutili ripetizioni e selezionando con precisione il set di dati).

open source

Open source e licenze

DeepSeek, a differenza della maggior parte dei concorrenti occidentali, si basa su un codice aperto. Come si legge nella documentazione ufficiale del modellosu Hugging Face:

“La serie DeepSeek-R1 supporta l’uso commerciale, consente qualsiasi modifica e opera derivata, compresa, ma non solo, la distillazione…”.

Ciò significa che la comunità non solo è libera di utilizzare questi modelli, ma anche di modificarli e svilupparli. Inoltre, all’interno della linea DeepSeek-R1-Distill sono già state sviluppate diverse varianti, ottimizzate per ridurre i requisiti di risorse.

Importante:

  • I modelli DeepSeek-R1-Distill si basano, tra l’altro, su Qwen2.5 e Llama3, disponibili pubblicamente, con le relative licenze Apache 2.0 e Llama.
  • Tuttavia, il tutto è reso disponibile alla comunità su base molto libera, stimolando la sperimentazione e l’ulteriore innovazione.

AI

I modelli DeepSeek-R1, R1-Zero e Distill: cosa li differenzia?

Dalla documentazione pubblicatasu Hugging Face, emerge una divisione in tre livelli:

1. DeepSeek-R1-Zero

  • Addestramento solo con RL (apprendimento per rinforzo), senza SFT preliminare,
  • Il modello può generare catene di ragionamento molto elaborate (chain-of-thought),
  • Tuttavia, può soffrire di problemi di ripetizione e leggibilità.

2. DeepSeek-R1

  • L’inclusione della fase SFT prima di RL ha risolto i problemi riscontrati in R1-Zero,
  • migliore coerenza e minore tendenza all’allucinazione,
  • Secondo i test (benchmark) è paragonabile a OpenAI o1 nei compiti matematici, di programmazione e di analisi.

3. DeepSeek-R1-Distill

  • Versioni “snelle” del modello (parametri 1.5B, 7B, 8B, 14B, 32B, 70B),
  • Consentono implementazioni più semplici su hardware più debole,
  • Creati attraverso la distillazione (trasferimento di conoscenze dal modello R1 completo ad architetture più piccole).

Rivalità Cina-USA: sanzioni, semiconduttori e innovazione

Come sottolineail South China Morning Post (citato da china24.com), lo sviluppo dei modelli di IA cinesi avviene in un contesto di accesso limitato ai semiconduttori avanzati, a causa delle sanzioni statunitensi.

Nel frattempo, le aziende cinesi – tra cui DeepSeek o ByteDance (Doubao) – stanno dimostrando che, anche in un clima così sfavorevole, sono in grado di creare modelli

  • Incomparabili con le soluzioni occidentali,
  • e spesso molto più economiche da mantenere.

Come osserva Jim Fan (scienziato di Nvidia), il progetto DeepSeek potrebbe essere la prova che l’innovazione e le condizioni restrittive (meno finanziamenti, sanzioni) non si escludono a vicenda.

DeepSeek minaccerà il dominio di OpenAI?

High-Flyer Capital Management e altre aziende cinesi stanno entrando nel mercato con un modello che:

  • si comporta meglio dei concorrenti occidentali in alcuni test,
  • è più economico da sviluppare e mantenere
  • fornisce repository aperti, consentendo un rapido sviluppo dell’ecosistema basato sulla comunità.

A meno che OpenAI (e altri colossi) non sviluppino una strategia per competere con modelli più economici e altrettanto validi, le soluzioni cinesi – come DeepSeek o Doubao – potrebbero attirare una quota significativa del mercato.

LLM przyszłość

L’era dei modelli di IA costosi sta per finire?

DeepSeek è un esempio vivente del fatto che l’era dei modelli di IA giganti e ultra costosi potrebbe essere giunta al termine. Con il suo codice aperto, i bassi costi di formazione e gli ottimi punteggi dei benchmark, le ambiziose startup cinesi potrebbero scuotere l’attuale equilibrio di potere nel settore dell’IA.

Date le crescenti tensioni tecnologiche tra Cina e Stati Uniti, è probabile che l’ulteriore sviluppo di DeepSeek e di progetti simili diventi uno dei fili conduttori della competizione globale per diventare leader nell’IA.

Fonti

  1. “DeepSeek della Cina batte tutti i modelli OpenAI. L’Occidente ha un grosso problema” – La tela del ragno
  2. “DeepSeek. Una startup cinese costruisce un’intelligenza artificiale open-source” – china24.com
  3. Il sito ufficiale di DeepSeek-R1 su Hugging Face

Autore: compilazione propria basata sulle pubblicazioni indicate.

Testo a scopo informativo e giornalistico.

E l’Oscar va a… AI Brody

Sono state annunciate le nomination agli Oscar. Tra i favoriti c’è The Brutalist di Brady Corbet, con Adrien Brody, anch’egli candidato al prestigioso premio. Il film racconta la storia delle lotte di un architetto di origine ebraica che emigra dall’Europa del dopoguerra agli Stati Uniti, alla ricerca di un rifugio sicuro per sé e per la moglie. Prima ancora che venissero annunciate le nomination, c’è stato un acceso dibattito sul fatto che Adrien Brody dovesse ricevere il premio per la sua fenomenale interpretazione, a causa del fatto che il suo accento, che sentiamo per tutto il film, è stato corretto da strumenti di intelligenza artificiale. Come si può notare, questo aspetto era irrilevante nel contesto della candidatura di Adrien, ma alla fine la controversia sull’uso dell’IA nel film avrà un’influenza decisiva sul verdetto dell’American Academy of Motion Picture Arts and Sciences?

cinema

L’intelligenza artificiale ha migliorato l’accento di Adrien Brody in The Brutalist: come la tecnologia sta cambiando il cinema?

Il filmThe Brutalistha utilizzato l’intelligenza artificiale per correggere sottilmente la pronuncia ungherese degli attori Adrien Brody e Felicity Jones. Il montatore del film, Dávid Jancsó, ha rivelato che la tecnologia Respeecher è stata utilizzata per migliorare l’autenticità dei dialoghi in lingua ungherese. Entrambi gli attori hanno lavorato con un coach dialettale, ma i produttori volevano una pronuncia perfetta, difficile da ottenere con i metodi tradizionali. Queste pratiche sono il futuro del cinema o piuttosto una minaccia per l’autenticità delle interpretazioni degli attori?

Come funziona la tecnologia Respeecher

Respeecher è uno strumento avanzato di sintesi vocale che consente di trasformare la voce di una persona in quella di un’altra, conservando tutte le emozioni, l’intonazione e la naturalezza del suono. Il processo si basa su algoritmi di apprendimento automatico che operano in diverse fasi chiave:

  1. Raccolta dei dati vocali– I creatori registrano innanzitutto dei campioni della voce di destinazione. Nel caso diThe Brutalist, si trattava di registrazioni di attori che utilizzavano un accento ungherese.
  2. Analisi acustica– Il sistema Respeecher analizza le caratteristiche uniche della voce, come il timbro, la velocità del parlato e il modo in cui vengono pronunciati determinati fonemi.
  3. Apprendimentoautomatico– Sulla base dei campioni forniti, gli algoritmi imparano le caratteristiche della voce e generano una versione digitale che rispecchia fedelmente le caratteristiche originali.
  4. Sintesi audio– Nel processo finale, la voce dell’attore viene modificata per soddisfare i requisiti dei creatori – in questo caso si trattava del suono autentico di un accento ungherese.

Il vantaggio di questo approccio è che l’attore non deve registrare nuovamente il dialogo. Come sottolineato dai registi, la tecnologia è stata utilizzata solo come strumento di supporto, senza sostituire il lavoro degli attori.

ai cinema

L’IA nell’industria cinematografica: svolta o minaccia?

L’uso dell’IA in film comeThe Brutalistè solo la punta dell’iceberg. La tecnologia trova sempre più applicazioni nella cinematografia:

  • Effetti speciali– l’IA permette di generare effetti visivi realistici, riducendo i costi di produzione.
  • Post-produzione– Gli strumenti basati sull’intelligenza artificiale automatizzano processi come il montaggio, la correzione del colore e il miglioramento del suono.
  • Sceneggiatura– Gli algoritmi che analizzano le trame dei film più popolari possono suggerire nuove storie.
  • Digitalizzazione degli attori– L’intelligenza artificiale consente di ringiovanire o “rianimare” attori deceduti per utilizzarli in nuove produzioni. (Raindance)

usa law ai

Aspetti legali ed etici dell’uso dell’IA nella cinematografia

L’uso dell’IA nel cinema solleva una serie di questioni legali ed etiche che si fanno sempre più pressanti con l’aumentare dell’uso di questa tecnologia. Nel caso diThe Brutalist, possiamo individuare diverse questioni chiave:

  1. Copyright– La voce digitale generata dall’IA appartiene all’attore, alla società tecnologica o ai produttori del film? L’uso della voce dell’attore in forma sintetica può dare adito a richieste di compenso per l’uso aggiuntivo dell’immagine.
  2. Trasparenza– Il pubblico non è stato informato dell’uso di Respeecher durante le prime proiezioni del film. I registi dovrebbero essere aperti su queste pratiche, soprattutto quando influenzano la ricezione degli spettacoli?
  3. Impatto sulla professione di attore– I critici temono che lo sviluppo dell’IA possa portare a una riduzione della domanda di doppiatori o addirittura degli attori stessi, quando le loro voci possono essere generate sinteticamente.

oscar ai

Polemiche e impatto sulle possibilità di vincere l’Oscar

La rivelazione dell’uso dell’IA inThe Brutalistha suscitato polemiche nell’industria cinematografica. Sono state sollevate preoccupazioni sul fatto che tali pratiche possano minare l’autenticità delle performance degli attori e portare a dilemmi etici sull’uso della tecnologia nelle arti. Nel contesto dei prossimi Oscar, alcuni esperti hanno suggerito che l’uso dell’IA inThe Brutalistpotrebbe compromettere le possibilità di Adrien Brody di vincere il premio come miglior attore. Tuttavia, sia il regista che il montatore del film assicurano che l’IA è stata solo uno strumento per aiutare, non per sostituire, il talento e il lavoro degli attori.

Sintesi

The Brutalistè diventato il simbolo di una nuova era della cinematografia, in cui l’intelligenza artificiale sta diventando uno strumento creativo, ma anche oggetto di controversie. Il caso di Adrien Brody e dell’uso di Respeecher apre una discussione sui limiti della tecnologia nell’arte. L’intelligenza artificiale sarà solo un supporto per i creatori o dominerà l’industria, sostituendo la creatività umana? Una cosa è certa: il futuro del cinema sarà strettamente legato allo sviluppo della tecnologia.

Fonti:

BREAKING Il nuovo ordine esecutivo del presidente Trump

Il 23 gennaio 2025 il Presidente Donald Trump ha firmato un ordine esecutivo che definisce le nuove priorità degli Stati Uniti in materia di intelligenza artificiale (IA). Questa decisione segue l’abrogazione dell’ordine esecutivo EO 14110, emesso da Joe Biden nel 2023, e introduce nuove regole che disciplinano lo sviluppo dell’IA negli Stati Uniti. Questa mossa dell’amministrazione Trump sottolinea l’importanza dell’IA per mantenere il dominio globale degli Stati Uniti, promuovere l’innovazione e garantire la sicurezza nazionale.

AI USA

Nuove priorità nella politica sull’IA

L’ordine esecutivo del Presidente Trump definisce i principali obiettivi degli Stati Uniti nel campo dell’intelligenza artificiale. Il documento sottolinea chiaramente che lo sviluppo dell’IA deve basarsi sui principi del libero mercato, eliminando “pregiudizi ideologici”. Un elemento chiave della nuova politica è il rafforzamento della posizione globale degli Stati Uniti nell’IA per promuovere la competitività economica, lo sviluppo umano e la sicurezza nazionale.

A differenza dell’approccio dell’amministrazione Biden, che prevedeva test di sicurezza più rigorosi e la condivisione dei risultati con il governo, la nuova politica privilegia una maggiore libertà per le aziende tecnologiche. Trump ha definito troppo restrittive le normative precedenti, che a suo dire potrebbero aver ostacolato lo sviluppo dell’IA negli Stati Uniti.

business ai

Elementi chiave della normativa di Trump

  1. Abrogazione del regolamento EO 14110
  2. Il regolamento di Biden, che aveva lo scopo di garantire uno sviluppo sicuro e affidabile dell’IA, è stato ritenuto dall’amministrazione Trump indebitamente restrittivo della libertà di innovazione. La nuova legislazione apre la strada a una revisione di tutti i regolamenti e le azioni derivanti dal regolamento abrogato.
  3. Rafforzare la posizione degli Stati Uniti come leader globale nell’IA
  4. Il documento sottolinea che la politica statunitense mira a mantenere e sviluppare la posizione dominante nel campo dell’intelligenza artificiale. Questo per promuovere l’innovazione tecnologica, la competitività economica e la sicurezza nazionale.
  5. Sviluppo di un piano d’azione sull’IA
  6. Entro 180 giorni dalla firma dell’ordine esecutivo, i consiglieri speciali, tra cui l’Assistente del Presidente per la scienza e la tecnologia e il Consigliere speciale per l’IA e le criptovalute, in collaborazione con l’Assistente del Presidente per la politica economica, l’Assistente del Presidente per la politica interna, il Direttore dell’Ufficio per la gestione e il bilancio (Direttore dell’OMB) e i capi dei dipartimenti e delle agenzie esecutive ritenuti rilevanti, devono presentare un piano d’azione che illustri nel dettaglio l’attuazione delle nuove priorità.
  7. Aggiornamento delle politiche di supervisione
  8. All’Office of Management and Budget (OMB) è stato richiesto di aggiornare i memorandum di supervisione dell’AI esistenti per renderli coerenti con la nuova politica.

bialy dom

Rilevanza per gli Stati Uniti

1 Impatto sul settore tecnologico

Il nuovo ordine esecutivo di Trump ha il potenziale per aumentare la spinta all’innovazione nel settore dell’IA eliminando le barriere normative. Ciò darà alle aziende tecnologiche maggiore libertà di sviluppare nuovi sistemi e applicazioni, il che potrebbe rafforzare la posizione globale degli Stati Uniti in questo campo. Allo stesso tempo, la mancanza di una regolamentazione rigorosa solleva preoccupazioni sull’uso etico della tecnologia e sul rischio di abusi.

2 Sicurezza nazionale e competizione globale

L’enfasi sul ruolo dell’IA nel contesto della sicurezza nazionale evidenzia la crescente importanza della tecnologia nella difesa e nell’intelligence. Gli Stati Uniti, leader nell’innovazione, devono affrontare la concorrenza soprattutto della Cina, che sta investendo molto nell’IA. La nuova politica è pensata per dare agli Stati Uniti un vantaggio tecnologico.

3 Critiche e polemiche

La decisione di abrogare il regolamento di Biden è stata accolta con critiche da numerosi esperti che temono che la mancanza di restrizioni possa portare allo sviluppo di pericolose tecnologie di IA. Alondra Nelson del Center for American Progress avverte che il pubblico americano potrebbe essere privato della protezione dai potenziali danni dello sviluppo dell’IA.

AI Act – una normativa pionieristica per l’IA nell’UE

L’Unione europea, invece, ha adottato un approccio diverso. L’AI Act è un regolamento che pone l’Unione europea all’avanguardia degli sforzi globali per creare un quadro giuridico responsabile e trasparente per l’intelligenza artificiale. Pubblicato il 12 luglio 2024 nella Gazzetta ufficiale della Commissione europea, il regolamento è fondamentale per plasmare il futuro della tecnologia AI in Europa, garantendo al contempo un elevato livello di protezione dei diritti dei cittadini e dei consumatori.

Il regolamento definisce i sistemi di IA in termini di rischio, classificandoli in diversi livelli (minimo, limitato, elevato e inaccettabile). I sistemi di IA ad alto rischio, come quelli utilizzati nell’assistenza sanitaria, nell’istruzione o nei processi di assunzione, dovranno soddisfare requisiti specifici in materia di sicurezza, trasparenza e affidabilità. Inoltre, sono state vietate le applicazioni dell’IA ritenute inaccettabili, come la sorveglianza biometrica di massa negli spazi pubblici o la manipolazione del comportamento umano.

Confronto con l’approccio statunitense

A differenza della politica statunitense, più rilassata, l’Unione Europea pone maggiore enfasi sulla prevenzione e sulla protezione dei diritti dei cittadini. Nell’UE, le normative mirano a prevenire potenziali minacce dell’IA come la discriminazione algoritmica, la sorveglianza o la manipolazione dell’opinione pubblica.


Conclusioni e prospettive

Il nuovo ordine esecutivo del Presidente Trump dimostra che l’amministrazione sta dando priorità allo sviluppo dell’IA come elemento chiave della strategia economica e tecnologica degli Stati Uniti. La politica del libero mercato mira ad attrarre investimenti e a promuovere l’innovazione, ma i suoi effetti collaterali possono portare alla mancanza di adeguate tutele etiche e legali.

La chat GPT non funziona. Migliaia di richieste da parte degli utenti

Chat GPT

Illustrazione generata dal concorrente #GoogleGemini.

Giovedì 23 gennaio, la popolare chat GPT ha smesso di funzionare. L’interruzione è stata segnalata da migliaia di utenti internet preoccupati.

Il sito web che fornisce l’accesso online alla popolare Chat GPT giovedì 23 gennaio ha smesso di funzionare per un po’. L’interruzione si è verificata intorno alle 13:00 ora polacca, come si può ben vedere nel grafico di segnalazione di downdetector.co.uk. È interessante notare che i siti web di OpenAI, la società responsabile di Chat GPT, funzionavano ancora alla stessa ora.

Contemporaneamente sono stati segnalati problemi con altri servizi OpenAI. I modelli GPT-4o e GPT-4 non funzionavano e alcuni utenti hanno segnalato che i siti web chatgpt.com e chat.openai.com non si aprivano. Altri hanno notato che Chat GPT non rispondeva alle loro richieste. Anche le applicazioni sviluppate per supportare questo modello non rispondevano.

Questo non sarebbe il primo fallimento di Chat GPT. Nelle ultime settimane si sono verificate brevi interruzioni del servizio. La più grave risale a dicembre, quando si è verificata una grave interruzione negli Stati Uniti, con conseguenti errori anche per gli altri servizi OpenAI.

Contatto

Hai domande?guarda il telefono+48 663 683 888
vedi e-mail

Ufficio a Varsavia

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Ufficio a Breslavia

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hello User,
ti sei già iscritto alle nostre newsletter?

    Leggi come trattiamo i tuoi dati personali qui