AGI – la macchina creata dall’uomo. La legge può stare al passo con la tecnologia?

L‘intelligenza artificiale generale (AGI) sta diventando una prospettiva sempre più reale, che pone sfide senza precedenti ai legislatori e alla società. Il recente AI Action Summit di Parigi e la conferenza dell’International Association for Safe and Ethical AI (IASEAI ’25) hanno messo in luce l’urgente necessità di un quadro giuridico completo per questa tecnologia dirompente.

ai

Le origini dell’idea di intelligenza artificiale

Il concetto di intelligenza artificiale risale agli anni Cinquanta, quando i pionieri dell’informatica iniziarono a esplorare la possibilità di creare macchine in grado di eguagliare l’intelligenza umana. Alan Turing, uno dei precursori dell’IA, propose il test di Turing, un esperimento per valutare se una macchina fosse in grado di sostenere una conversazione indistinguibile da quella umana.

Un punto di svolta nella storia dell’IA è stata la Conferenza di Dartmouth del 1956, dove è stato ufficialmente coniato il termine “intelligenza artificiale”. All’epoca si prevedeva che l’intelligenza di livello umano sarebbe stata raggiunta rapidamente, ma i progressi tecnologici non hanno tenuto il passo con l’ottimismo dei ricercatori.

Crisi e rinascita dell’IA

Gli anni ’80 e ’90 hanno portato cambiamenti nell’approccio all’intelligenza artificiale. La ricerca si è concentrata su applicazioni più ristrette dell’IA, come i sistemi esperti, e l’idea dell’IA è passata in secondo piano. Solo il rapido sviluppo delle tecnologie computazionali, dei big data e del deep learning nel XXI secolo ha riportato l’attenzione dei ricercatori sul tema dell’intelligenza artificiale generale.

AI

Che cos’è l’AGI?

L’AGI, a differenza degli attuali sistemi di IA, ha il potenziale per svolgere un’ampia gamma di compiti intellettuali a un livello paragonabile a quello umano. Questa versatilità porta con sé sia grandi opportunità sia seri rischi che devono essere adeguatamente regolamentati.

Al momento non esiste una definizione legale che copra il funzionamento delle IA, ma con il rapido sviluppo della tecnologia IA nel prossimo futuro, è probabile che sarà necessario crearne una.

Molte aziende e organizzazioni stanno già cercando di definire l’AGI. Ad esempio, OpenAI ha creato una definizione di AGI e cinque livelli di indagine nel 2024.

Come concordato da OpenAI:

Gli attuali chatbot, come ChatGPT, sono al primo livello di sviluppo.

OpenAI afferma che ci si sta avvicinando al secondo livello, ovvero a un sistema in grado di risolvere problemi di base al livello di una persona con un dottorato di ricerca.

Il terzo livello è quello dell’intelligenza artificiale che agisce come un agente in grado di prendere decisioni ed eseguire compiti per conto dell’utente.

Al quarto livello, l’intelligenza artificiale raggiunge la capacità di creare nuove innovazioni.

Il quinto livello, il più alto, si riferisce all’IA che può svolgere il lavoro di intere organizzazioni di persone.

OpenAI ha precedentemente descritto l’IA come “un sistema altamente autonomo che supera gli esseri umani nella maggior parte dei compiti di alto valore economico”.

Stargate Project

Progetto Stargate

Uno degli sforzi più ambiziosi dell’AGI è il Progetto Stargate, che prevede un investimento di 500 miliardi di dollari nello sviluppo di infrastrutture AI negli Stati Uniti. L’obiettivo principale è quello di rafforzare la posizione degli Stati Uniti come leader nell’IA, oltre a creare centinaia di migliaia di posti di lavoro e generare benefici economici globali.

L’intelligenza artificiale ha il potenziale per assumere un’ampia varietà di compiti che in precedenza richiedevano la creatività e l’adattabilità dell’uomo.

Per saperne di più su Stargate:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Perché la regolamentazione dell’AGI è fondamentale? Opinioni degli esperti

Alla IASEAI ’25 di Parigi e all’AI Action Summit, gli esperti hanno sottolineato la necessità di una regolamentazione completa dell’AGI.

  • Il dott. Szymon Łukasik (NASK) ha sottolineato che la legge deve tenere il passo con il ritmo dell’innovazione, garantendone al contempo la sicurezza.
  • Il Prof. Stuart Russell ha sostenuto l’introduzione di salvaguardie obbligatorie per evitare che l’AGI venga utilizzata in modo dannoso.
  • Joseph Stiglitz ha sottolineato la necessità di tenere conto degli interessi della società nel processo legislativo.
  • Max Tegmark del Future of Life Institute ha invece sottolineato l’importanza della cooperazione internazionale, soprattutto tra Stati Uniti e Cina. Solo un approccio globale permetterà di regolamentare efficacemente lo sviluppo dell’AGI.

AGI

Rischi associati all’AGI

A Parigi molti esperti hanno espresso preoccupazione per lo sviluppo dell’IA, che a loro avviso sta avvenendo molto rapidamente: secondo alcuni, l’IA sarà creata già nei prossimi 10 anni. Le domande chiave riguardanti l’AGI sono state:

  • L’AGI può modificare le regole da sola per raggiungere i suoi obiettivi?
  • Quali dovrebbero essere i meccanismi di ripiego dell’AGI?
  • Come garantire che gli obiettivi dell’IA non divergano dagli interessi dell’umanità?

I ricercatori stanno già verificando che se un modello ha un obiettivo prefissato, come vincere una partita, è in grado di modificare le proprie regole per vincere. Alla luce di questo fatto, è necessario modellare gli obiettivi di un sistema di IA in modo che non si discostino dagli interessi dell’umanità.

Queste considerazioni e proposte mirano a creare un quadro giuridico e norme che consentano uno sviluppo sicuro ed etico dell’IA, senza ostacolare il progresso tecnologico. Gli esperti concordano sul fatto che le normative dovrebbero essere complete e tenere conto sia degli aspetti tecnici che delle implicazioni sociali dello sviluppo dell’AGI. Per questo motivo, la cooperazione internazionale è fondamentale per creare standard etici e di sicurezza uniformi.

Trasparenza e meccanismi di sicurezza

La trasparenza e i meccanismi di sicurezza sono altri aspetti chiave che devono essere inclusi nelle normative future. Il professor Steward Russell ha sostenuto che le aziende che sviluppano IA dovrebbero essere legalmente obbligate a implementare misure di salvaguardia per proteggere dall’uso dannoso della loro tecnologia. Gli esperti propongono anche un requisito legale per un meccanismo di spegnimento di emergenza per i modelli di IA e la creazione di standard per testare le salvaguardie.

Nel contesto dei meccanismi di spegnimento di emergenza per i modelli di IA, esistono due norme ISO chiave che affrontano la questione:

  • ISO 13850 è uno standard per la funzionalità di arresto di emergenza delle macchine. Sebbene non riguardi direttamente i modelli di IA, stabilisce principi generali per la progettazione di meccanismi di arresto di emergenza che possono potenzialmente essere applicati anche ai sistemi di IA. Lo standard sottolinea che la funzione di arresto di emergenza deve essere sempre disponibile e operativa e che la sua attivazione deve avere la precedenza su tutte le altre funzioni;
  • ISO/IEC 42001, invece, è uno standard più recente, pubblicato nel dicembre 2023, che si occupa direttamente dei sistemi di gestione dell’IA. Copre aspetti più ampi della gestione del rischio dell’intelligenza artificiale, tra cui la valutazione del rischio e dell’impatto dell’intelligenza artificiale e la gestione del ciclo di vita del sistema di intelligenza artificiale.

Secondo la norma ISO/IEC 42001, le organizzazioni sono tenute a implementare processi per l’identificazione, l’analisi, la valutazione e il monitoraggio dei rischi associati ai sistemi di intelligenza artificiale durante l’intero ciclo di vita del sistema di gestione. Questa norma pone l’accento sul miglioramento continuo e sul mantenimento di standard elevati nello sviluppo dei sistemi di IA.

Vale la pena notare che, mentre questi standard forniscono una guida, i meccanismi di ripiego specifici per i sistemi di IA avanzati come l’AGI sono ancora oggetto di ricerca e dibattito a livello internazionale. Gli esperti sottolineano che con lo sviluppo di sistemi di IA sempre più avanzati, i metodi tradizionali di “spegnimento” potrebbero non essere sufficienti, per cui sarà necessario sviluppare altri standard e soluzioni.

Sztuczna inteligencja

Per saperne di più sull’IA:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Regolamentazione dell’IA e sicurezza informatica

L’IA è in grado di identificare e sfruttare le vulnerabilità più velocemente di qualsiasi essere umano o degli attuali sistemi di IA. Pertanto, la regolamentazione dell’IA dovrebbe includere:

  • Impedire l ‘uso dell’IA per attacchi informatici.
  • Standardizzare la sicurezza dei sistemi AGI, per ridurre il rischio di acquisizione da parte di soggetti malintenzionati.
  • Definire la responsabilità legale in caso di incidenti legati all’AGI.

Approccio interdisciplinare al processo legislativo

Lo sviluppo dell’intelligenza artificiale richiede un approccio interdisciplinare, che comprende:

  • Collaborazione di giuristi con esperti di IA, etici ed economisti.
  • Regolamenti globali che proteggano i diritti umani e la privacy.
  • Trasparenza dei meccanismi disviluppo e controllodell’AGI.

Un approccio legale proattivo può rendere l’IA sicura e vantaggiosa per tutta l’umanità, senza bloccare il progresso tecnologico.

L’AGI è una tecnologia con un enorme potenziale, ma anche con seri rischi. È fondamentale creare un quadro giuridico e norme che ne consentano uno sviluppo sicuro. La cooperazione internazionale e un approccio interdisciplinare sono fondamentali per garantire che l’AGI serva all’umanità piuttosto che comporti dei rischi.

Fondo PMI 2025 – finanziamenti per la registrazione dei marchi per le PMI

Proteggete il vostro marchio e beneficiate di finanziamenti nel 2025!

Buone notizie per le piccole e medie imprese (PMI)! Il 3 febbraio 2025 partirà la prossima edizione del Fondo per le PMI, che offre finanziamenti per la registrazione di marchi a livello di Unione Europea. Questo programma rappresenta un’ottima opportunità per proteggere il vostro marchio e aumentare la vostra competitività sul mercato europeo.

sme fund 2025

Che cos’è il Fondo PMI 2025?

Il Fondo per le PMI è un’iniziativa dell’Ufficio dell’Unione europea per la proprietà intellettuale (EUIPO) che mira a sostenere le piccole e medie imprese nella protezione dei diritti di proprietà intellettuale. Nell’ambito del programma, gli imprenditori possono ottenere un voucher del valore massimo di 1.000 euro per coprire i costi di registrazione di marchi e disegni industriali.

Perché proteggere un marchio?

La registrazione di un marchio a livello europeo offre all’impresa una serie di vantaggi, tra cui:

✅ Diritti esclusivi sul marchio in tutta l’Unione europea,

✅ Protezione contro la concorrenza sleale e la contraffazione,

✅ Aumento dell’avviamento e del riconoscimento sul mercato,

✅ Investimenti sicuri nel branding e nel marketing,

✅ Acquisizione facilitata di investitori e finanziamenti.

sme fund 2025

Chi può beneficiare dei finanziamenti?

Il programma Fondo PMI 2025 si rivolge alle piccole e medie imprese (PMI) con sede nell’Unione europea, tra cui:

✔ Imprese individuali,

✔ Società commerciali,

✔ Società di persone.

La condizione per la partecipazione è che siano soddisfatti i criteri per le PMI, ossia meno di 250 dipendenti e un fatturato annuo non superiore a 50 milioni di euro.

Come ottenere i finanziamenti del Fondo PMI 2025?

Per ricevere un finanziamento, è necessario seguire un processo in quattro fasi:

1. presentazione di una domanda di finanziamento attraverso la piattaforma EUIPO,

2. ricezione della decisione di concedere il voucher,

3. registrazione del marchio e pagamento delle tasse,

4. richiesta di rimborso delle spese sostenute.

L’intero processo dura circa 2 mesi, dalla presentazione della domanda al ricevimento del rimborso.

sme fund 2025

Quanto si può ottenere? Importo del finanziamento

Nell’ambito del programma Fondo PMI 2025, gli imprenditori possono ottenere:

💰 75% di rimborso delle tasse per una domanda di marchio a livello europeo o nazionale,

💰 50% di rimborso delle tasse di base per una domanda internazionale,

💰 L’importo massimo del finanziamento è di 1.000 euro per PMI.

Perché agire in fretta?

🕒 Il pool di fondi del programma è limitato!

I finanziamenti vengono assegnati in base al principio “primo arrivato, primo servito”, quindi è opportuno presentare domanda il prima possibile dopo il lancio del programma, il 3 febbraio 2025.

Come possiamo aiutarvi?

Il nostro studio legale assiste da anni gli imprenditori nella registrazione dei marchi. Offriamo un supporto completo in ogni fase del processo:

🔹 Analisi della registrabilità del marchio,

🔹 Preparazione e presentazione della domanda di registrazione,

🔹 Deposito della domanda di marchio presso l’ufficio competente,

🔹 Gestione delle formalità di rimborso.

Proteggete il vostro marchio con il Fondo PMI 2025 e il nostro studio legale! Con il Fondo PMI 2025 e il nostro supporto, potete proteggere il vostro marchio con costi minimi.

📞 Contattateci oggi stesso e fissate una consulenza gratuita:

Non aspettate! I fondi sono limitati: fate domanda il prima possibile e proteggete il vostro marchio nell’UE!

Potete trovare maggiori informazioni qui:

https://uprp.gov.pl/pl/aktualnosci/informacje/rusza-kolejna-edycja-programu-pn-fundusz-dla-msp

Aspetti fiscali dell’attività commerciale in Germania

Gentili Signori,

Vi invitiamo a partecipare a un webinar gratuito sugli aspetti fiscali dell’attività in Germania organizzato dallo studio legale Leśniewski Borkiewicz Kostka & Partners (LBK&P), in collaborazione con lo studio di consulenza fiscale tedesco Dr. Klein, Dr. Mönstermann International Tax Services GmbH. L’evento è rivolto sia alle aziende che si affacciano per la prima volta sul mercato tedesco sia a quelle che già vi operano, soprattutto nel settore delle PMI e delle grandi imprese. Vi preghiamo inoltre di inoltrare l’invito alle vostre aziende amiche che potrebbero essere interessate agli argomenti del webinar.

📅 Data: 18 febbraio 2025.

Ora: 10:00

📍Sede: online

Durante il webinar, gli esperti di LBK&P Paweł Suliga (consulente fiscale in Polonia e Germania, esperto riconosciuto di diritto tributario e commerciale tedesco, assiste quotidianamente in Germania, tra le altre, aziende polacche del settore edile, quotate al WSE) e Bartłomiej Chałupiński (consulente fiscale in Polonia, responsabile del settore fiscale @ LBK&P) discuteranno le questioni chiave riguardanti le normative e gli obblighi fiscali relativi alla conduzione di affari in Germania.

Ordine del giorno:

✅ Principali cambiamenti fiscali in Germania dal 01.01.2025.

✅ Quali sono gli obblighi fiscali per la creazione di un’attività in Germania?

✅ Obblighi di documentazione e di informazione nella gestione di un’attività transfrontaliera – a cosa prestare attenzione.

NOTE:

Dopo il webinar, è prevista la possibilità di una consulenza individuale gratuita di 30 minuti con i nostri esperti (è necessaria la prenotazione separata, il numero di posti è limitato). Per prenotare, inviare un’e-mail a rezerwacje@lbplegal.com.

🔗 link di registrazione al webinar – il link per partecipare al webinar e i dati di accesso vi saranno inviati al più tardi 3 giorni prima dell’evento.

I dettagli dell’evento sono descritti anche nell’appendice, insieme al link di registrazione.

Siete i benvenuti!

Scarica l’allegato:

Webinar - Podatkowe aspekty prowadzenia działalności gospodarczej w Niemczech

Dal 2 febbraio 2025 sono in vigore gli articoli 1-5 della legge sull’AI, il mancato rispetto può comportare pesanti sanzioni

🚨 AVVISO IMPORTANTE – Dal 2 febbraio sono in vigore gli articoli 1-5 dell’AI Act e la mancata osservanza può comportare pesanti sanzioni. Molte aziende all’interno dell’UE non hanno ancora intrapreso le azioni richieste: ecco i punti salienti.

ai law

A partire dal 2 febbraio 2025, si applicano le prime disposizioni del Regolamento sull’Intelligenza Artificiale (AI Act) volte ad aumentare la sicurezza e a regolamentare il mercato dell’AI all’interno dell’Unione Europea.

Le principali modifiche includono:

  • Pratiche vietate – divieto di utilizzo e commercializzazione o immissione sul mercato di sistemi di IA che soddisfano i criteri delle pratiche vietate. Tra gli esempi vi sono i sistemi di manipolazione che sfruttano le vulnerabilità umane, i sistemi di social scoring e i sistemi che analizzano le emozioni sul posto di lavoro o nell’istruzione. Le violazioni di queste norme comportano pesanti sanzioni finanziarie, fino a 35 milioni di euro o al 7% del fatturato globale annuo di un’azienda.
  • Obbligo di alfabetizzazione all’IA. I datori di lavoro devono garantire che i dipendenti siano adeguatamente formati e informati sull’IA, in modo da poter utilizzare in sicurezza i sistemi di IA sul lavoro. La mancanza di formazione sull’IA può portare alla non conformità e aumentare il rischio che i sistemi di IA vengano utilizzati in modo inappropriato. In relazione all’alfabetizzazione all’IA, vale la pena di assicurarsi che la politica aziendale sull’uso dell’IA sia implementata. Come si può fare?

Si vedano gli articoli:

Una politica per l’utilizzo dell’IA in un’azienda può includere, ad esempio, procedure chiare, regole per l’utilizzo dell’IA, condizioni per il rilascio dei sistemi, modalità di gestione degli incidenti e la nomina di una persona responsabile dell’effettiva implementazione e dell’utilizzo dell’IA nell’organizzazione (ambasciatore dell’IA).

 

Importanza della formazione sull’IA (articolo 4 della legge sull’IA)

La consapevolezza e la conoscenza dell’IA non sono solo un requisito legale, ma anche una necessità strategica per le organizzazioni. L’articolo 4 della legge sull’IA impone alle aziende di attuare programmi di formazione adeguati alle conoscenze, al ruolo e all’esperienza dei dipendenti.

“I fornitori e gli adottanti di sistemi di IA adottano misure per garantire, nella misura più ampia possibile, un livello adeguato di competenza in materia di IA tra il loro personale e le altre persone coinvolte nel funzionamento e nell’uso dei sistemi di IA per loro conto, tenendo conto delle loro conoscenze tecniche, dell’esperienza, dell’istruzione e della formazione e del contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone contro cui i sistemi di IA devono essere utilizzati”.

L’inosservanza di questo principio comporta gravi conseguenze, tra cui:

  • Rischio di violazione delle norme sulla protezione dei dati e sulla privacy.
  • Aumento della probabilità di violazioni legali e sanzioni finanziarie.

Oltre alla conformità normativa, la formazione sull’IA contribuisce a creare una cultura dell’uso responsabile della tecnologia e a ridurre al minimo i potenziali rischi operativi.

Dove cercare una guida?

Lo standard ISO/IEC 42001 per un sistema di gestione dell’intelligenza artificiale può essere d’aiuto. Nell’affrontare le competenze appropriate di coloro che si occupano di IA in un’organizzazione, lo standard indica, ad esempio, quanto segue:

  • tutoraggio
  • formazione
  • trasferimento dei dipendenti a mansioni pertinenti all’interno dell’organizzazione sulla base di un’analisi delle loro competenze.

Allo stesso tempo, i ruoli o le aree di competenza rilevanti dovrebbero riguardare, ad esempio:

  • supervisione del sistema AI
  • la sicurezza
  • protezione
  • la privacy.

LLM security

Pratiche di IA vietate (articolo 5 della legge sull’IA)

Il regolamento dell’AI Act vieta l’uso di determinati sistemi di IA che possono comportare gravi rischi per il pubblico. I fornitori e le aziende che utilizzano l’IA devono garantire di non essere coinvolti direttamente o indirettamente nel suo sviluppo o nella sua implementazione. Tra le altre cose, l’AI Act elenca specifiche pratiche vietate considerate particolarmente pericolose. Queste includono

  • Tecniche subliminali o manipolative – sistemi di IA che alterano inconsciamente il comportamento di un utente in modo che prenda una decisione che altrimenti non prenderebbe.
  • Sfruttamento delle vulnerabilità umane – sistemi che sfruttano la disabilità, la situazione sociale o economica di una persona.
  • Punteggio sociale – sistemi che valutano i cittadini e concedono loro determinati diritti in base al loro comportamento.
  • Valutazione del rischio criminale – sistemi che tracciano un profilo degli individui e valutano le loro caratteristiche individuali senza una base legittima.
  • Creazione di database di immagini facciali – acquisizione non mirata di immagini da Internet o dalla sorveglianza cittadina per creare sistemi di riconoscimento facciale.
  • Analisi delle emozioni sul posto di lavoro o nell’istruzione – sistemi di intelligenza artificiale che analizzano le emozioni dei dipendenti o degli studenti.
  • Categorizzazione biometrica di dati sensibili – utilizzo della biometria per estrarre informazioni su razza, opinioni politiche, ecc.
  • Identificazione biometrica remota in tempo reale – utilizzo di sistemi di riconoscimento facciale negli spazi pubblici per scopi di polizia.

Dove cercare le linee guida?

  • Progetto di linee guida sulle pratiche vietate di intelligenza artificiale (AI) – 4 febbraio 2025. La Commissione ha pubblicato delle linee guida sulle pratiche vietate di intelligenza artificiale (IA), che mirano a garantire un’applicazione coerente, efficace e uniforme della legge sull’IA in tutta l’UE.

Scadenze importanti:

  • Dal 2 febbraio 2025. – Capitolo II (pratiche vietate)
  • Dal 2 agosto 2025. – Capo V (modelli per scopi generali), Capo XII (sanzioni) senza l’Articolo 101
  • Dal 2 agosto 2026. – Articolo 6, paragrafo 2, e Allegato III (sistemi ad alto rischio), Capo IV (obblighi di trasparenza)
  • Dal 2 agosto 2027 – Articolo 6(1) (sistemi ad alto rischio) e obblighi corrispondenti.

Lezioni chiave per le aziende:

  • La conformità agli articoli 1-5 della legge sull’AI è obbligatoria e non può essere ignorata.
  • Laformazione sull’IA è fondamentale per evitare errori dovuti alla scarsa consapevolezza dei dipendenti e alla potenziale responsabilità dell’azienda.
  • L‘esecuzione di audit sui fornitori di tecnologia è necessaria per garantire la conformità dei sistemi di IA.
  • Implementare una politica per l’uso dell’IA, creando una documentazione chiara per organizzare i rischi. Le politiche possono includere, ad esempio, procedure chiare, regole per l’utilizzo dell’IA, condizioni per il rilascio dei sistemi, modalità di gestione degli incidenti e la nomina di una persona responsabile della supervisione (AI Ambassador).
  • Sviluppare strumenti di IA in modo legale – le aziende che sviluppano strumenti di IA devono considerare gli aspetti legali ed etici in ogni fase dello sviluppo. Ciò include, ma non solo, l’analisi della legalità degli obiettivi del sistema, la legalità dei database, la sicurezza informatica e i test del sistema. È importante che il processo di sviluppo dei sistemi di IA sia conforme ai principi di privacy by design e privacy by default del RODO – Come sviluppare strumenti di IA in modo legale?

Si consiglia di consultare le seguenti fonti:

DeepSeek – L’IA cinese open source. Hong Kong ha la possibilità di battere OpenAI?

DeepSeek è una serie di modelli di lingua cinese che impressiona per le sue prestazioni e i bassi costi di formazione. Con il loro approccio open source, DeepSeek-R1 e DeepSeek-V3 stanno facendo scalpore nel settore dell’IA.

DeepSeek

Fonte: www.deepseek.com

DeepSeek: una rivoluzione nel mondo dell’IA nativa di Hong Kong

DeepSeek è sempre più presente nelle discussioni sul futuro dell’intelligenza artificiale. Questo progetto con sede a Hong Kong fornisce modelli linguistici di grandi dimensioni (Large Language Models, LLM) caratterizzati da codice aperto, alte prestazioni e – cosa fondamentale – costi di addestramento molto più bassi rispetto alle soluzioni concorrenti di OpenAI o Meta.

In questo articolo, diamo uno sguardo a DeepSeek-R1, DeepSeek-V3 e discutiamo le ultime informazioni sul processo di sviluppo e distribuzione di questi modelli, basandoci sia sul materiale ufficiale disponibile sullapiattaforma Hugging Face, sia sulle pubblicazioni diSpider’s Webechina24.com.

Indice dei contenuti

  1. Come è nato DeepSeek?
  2. DeepSeek-R1 e DeepSeek-V3: una breve introduzione tecnica
  3. Costi di formazione e prestazioni: dov’è il segreto?
  4. Open source e licenze
  5. I modelli DeepSeek-R1, R1-Zero e Distill: cosa li differenzia?
  6. Rivalità Cina-USA: sanzioni, semiconduttori e innovazione
  7. DeepSeek minaccerà il dominio di OpenAI?
  8. Sintesi
  9. Fonti

AI born

Come è nato DeepSeek?

Secondo recenti notizie di stampa, nel 2015 è stata fondata a Hong Kong High-Flyer Capital Management, una società che fino a poco tempo fa era quasi sconosciuta nel settore IT al di fuori dell’Asia. La situazione è cambiata radicalmente con DeepSeek, una serie di modelli linguistici di grandi dimensioni che hanno conquistato gli esperti della Silicon Valley.

Tuttavia, DeepSeek non è solo un progetto commerciale: è anche una ventata di apertura in un mondo solitamente dominato da soluzioni chiuse con budget enormi, come i modelli di OpenAI (tra cui GPT-4 e OpenAI o1).

DeepSeek-R1 e DeepSeek-V3: una breve introduzione tecnica

Secondo lapagina ufficiale del progetto su Hugging Face, DeepSeek sta attualmente pubblicando diverse varianti dei suoi modelli:

  1. DeepSeek-R1-Zero: creato attraverso un addestramento avanzato senza la fase iniziale di SFT (Supervised Fine-Tuning), concentrandosi sul rafforzamento delle capacità di ragionamento (la cosiddetta catena del pensiero).
  2. DeepSeek-R1: in cui gli autori hanno inserito un ulteriore fine-tuning pre-supervisionato (SFT) prima della fase di apprendimento per rinforzo, che ha migliorato la leggibilità e la coerenza del testo generato.
  3. DeepSeek-V3: il nome del modello di base da cui sono derivate le varianti R1-Zero e R1 descritte sopra. DeepSeek-V3 può avere fino a 671 miliardi di parametri ed è stato addestrato in due mesi al costo di circa 5,58 milioni di dollari (dati:china24.com).

ai tech

Contesto tecnico

  • L’elevato numero di parametri (fino a 671 miliardi) si traduce nella capacità di generare dichiarazioni e analisi molto complesse.
  • Un processo di addestramento ottimizzato fa sì che anche un’architettura così grande non richieda un budget paragonabile a quello di OpenAI.
  • L’obiettivo principale: elaborare soluzioni a più fasi in modo indipendente e ridurre al minimo le “allucinazioni” così comuni in altri modelli.

Costi di formazione e prestazioni: dov’è il segreto?

SiaSpider’s Web chechina24.comsottolineano che i costi di addestramento di DeepSeek-R1 (circa 5 milioni di dollari per la prima iterazione) sono di gran lunga inferiori a quelli di cui si parla nel contesto del GPT-4 o di altri modelli OpenAI chiusi, per i quali si parla di miliardi di dollari.

Dove sta la ricetta del successo?

  • Metodi proprietari per ottimizzare il processo di apprendimento,
  • Architettura agile che consente al modello di apprendere in modo più efficiente con un numero inferiore di GPU,
  • Gestione economica dei dati di addestramento (evitando inutili ripetizioni e selezionando con precisione il set di dati).

open source

Open source e licenze

DeepSeek, a differenza della maggior parte dei concorrenti occidentali, si basa su un codice aperto. Come si legge nella documentazione ufficiale del modellosu Hugging Face:

“La serie DeepSeek-R1 supporta l’uso commerciale, consente qualsiasi modifica e opera derivata, compresa, ma non solo, la distillazione…”.

Ciò significa che la comunità non solo è libera di utilizzare questi modelli, ma anche di modificarli e svilupparli. Inoltre, all’interno della linea DeepSeek-R1-Distill sono già state sviluppate diverse varianti, ottimizzate per ridurre i requisiti di risorse.

Importante:

  • I modelli DeepSeek-R1-Distill si basano, tra l’altro, su Qwen2.5 e Llama3, disponibili pubblicamente, con le relative licenze Apache 2.0 e Llama.
  • Tuttavia, il tutto è reso disponibile alla comunità su base molto libera, stimolando la sperimentazione e l’ulteriore innovazione.

AI

I modelli DeepSeek-R1, R1-Zero e Distill: cosa li differenzia?

Dalla documentazione pubblicatasu Hugging Face, emerge una divisione in tre livelli:

1. DeepSeek-R1-Zero

  • Addestramento solo con RL (apprendimento per rinforzo), senza SFT preliminare,
  • Il modello può generare catene di ragionamento molto elaborate (chain-of-thought),
  • Tuttavia, può soffrire di problemi di ripetizione e leggibilità.

2. DeepSeek-R1

  • L’inclusione della fase SFT prima di RL ha risolto i problemi riscontrati in R1-Zero,
  • migliore coerenza e minore tendenza all’allucinazione,
  • Secondo i test (benchmark) è paragonabile a OpenAI o1 nei compiti matematici, di programmazione e di analisi.

3. DeepSeek-R1-Distill

  • Versioni “snelle” del modello (parametri 1.5B, 7B, 8B, 14B, 32B, 70B),
  • Consentono implementazioni più semplici su hardware più debole,
  • Creati attraverso la distillazione (trasferimento di conoscenze dal modello R1 completo ad architetture più piccole).

Rivalità Cina-USA: sanzioni, semiconduttori e innovazione

Come sottolineail South China Morning Post (citato da china24.com), lo sviluppo dei modelli di IA cinesi avviene in un contesto di accesso limitato ai semiconduttori avanzati, a causa delle sanzioni statunitensi.

Nel frattempo, le aziende cinesi – tra cui DeepSeek o ByteDance (Doubao) – stanno dimostrando che, anche in un clima così sfavorevole, sono in grado di creare modelli

  • Incomparabili con le soluzioni occidentali,
  • e spesso molto più economiche da mantenere.

Come osserva Jim Fan (scienziato di Nvidia), il progetto DeepSeek potrebbe essere la prova che l’innovazione e le condizioni restrittive (meno finanziamenti, sanzioni) non si escludono a vicenda.

DeepSeek minaccerà il dominio di OpenAI?

High-Flyer Capital Management e altre aziende cinesi stanno entrando nel mercato con un modello che:

  • si comporta meglio dei concorrenti occidentali in alcuni test,
  • è più economico da sviluppare e mantenere
  • fornisce repository aperti, consentendo un rapido sviluppo dell’ecosistema basato sulla comunità.

A meno che OpenAI (e altri colossi) non sviluppino una strategia per competere con modelli più economici e altrettanto validi, le soluzioni cinesi – come DeepSeek o Doubao – potrebbero attirare una quota significativa del mercato.

LLM przyszłość

L’era dei modelli di IA costosi sta per finire?

DeepSeek è un esempio vivente del fatto che l’era dei modelli di IA giganti e ultra costosi potrebbe essere giunta al termine. Con il suo codice aperto, i bassi costi di formazione e gli ottimi punteggi dei benchmark, le ambiziose startup cinesi potrebbero scuotere l’attuale equilibrio di potere nel settore dell’IA.

Date le crescenti tensioni tecnologiche tra Cina e Stati Uniti, è probabile che l’ulteriore sviluppo di DeepSeek e di progetti simili diventi uno dei fili conduttori della competizione globale per diventare leader nell’IA.

Fonti

  1. “DeepSeek della Cina batte tutti i modelli OpenAI. L’Occidente ha un grosso problema” – La tela del ragno
  2. “DeepSeek. Una startup cinese costruisce un’intelligenza artificiale open-source” – china24.com
  3. Il sito ufficiale di DeepSeek-R1 su Hugging Face

Autore: compilazione propria basata sulle pubblicazioni indicate.

Testo a scopo informativo e giornalistico.

E l’Oscar va a… AI Brody

Sono state annunciate le nomination agli Oscar. Tra i favoriti c’è The Brutalist di Brady Corbet, con Adrien Brody, anch’egli candidato al prestigioso premio. Il film racconta la storia delle lotte di un architetto di origine ebraica che emigra dall’Europa del dopoguerra agli Stati Uniti, alla ricerca di un rifugio sicuro per sé e per la moglie. Prima ancora che venissero annunciate le nomination, c’è stato un acceso dibattito sul fatto che Adrien Brody dovesse ricevere il premio per la sua fenomenale interpretazione, a causa del fatto che il suo accento, che sentiamo per tutto il film, è stato corretto da strumenti di intelligenza artificiale. Come si può notare, questo aspetto era irrilevante nel contesto della candidatura di Adrien, ma alla fine la controversia sull’uso dell’IA nel film avrà un’influenza decisiva sul verdetto dell’American Academy of Motion Picture Arts and Sciences?

cinema

L’intelligenza artificiale ha migliorato l’accento di Adrien Brody in The Brutalist: come la tecnologia sta cambiando il cinema?

Il filmThe Brutalistha utilizzato l’intelligenza artificiale per correggere sottilmente la pronuncia ungherese degli attori Adrien Brody e Felicity Jones. Il montatore del film, Dávid Jancsó, ha rivelato che la tecnologia Respeecher è stata utilizzata per migliorare l’autenticità dei dialoghi in lingua ungherese. Entrambi gli attori hanno lavorato con un coach dialettale, ma i produttori volevano una pronuncia perfetta, difficile da ottenere con i metodi tradizionali. Queste pratiche sono il futuro del cinema o piuttosto una minaccia per l’autenticità delle interpretazioni degli attori?

Come funziona la tecnologia Respeecher

Respeecher è uno strumento avanzato di sintesi vocale che consente di trasformare la voce di una persona in quella di un’altra, conservando tutte le emozioni, l’intonazione e la naturalezza del suono. Il processo si basa su algoritmi di apprendimento automatico che operano in diverse fasi chiave:

  1. Raccolta dei dati vocali– I creatori registrano innanzitutto dei campioni della voce di destinazione. Nel caso diThe Brutalist, si trattava di registrazioni di attori che utilizzavano un accento ungherese.
  2. Analisi acustica– Il sistema Respeecher analizza le caratteristiche uniche della voce, come il timbro, la velocità del parlato e il modo in cui vengono pronunciati determinati fonemi.
  3. Apprendimentoautomatico– Sulla base dei campioni forniti, gli algoritmi imparano le caratteristiche della voce e generano una versione digitale che rispecchia fedelmente le caratteristiche originali.
  4. Sintesi audio– Nel processo finale, la voce dell’attore viene modificata per soddisfare i requisiti dei creatori – in questo caso si trattava del suono autentico di un accento ungherese.

Il vantaggio di questo approccio è che l’attore non deve registrare nuovamente il dialogo. Come sottolineato dai registi, la tecnologia è stata utilizzata solo come strumento di supporto, senza sostituire il lavoro degli attori.

ai cinema

L’IA nell’industria cinematografica: svolta o minaccia?

L’uso dell’IA in film comeThe Brutalistè solo la punta dell’iceberg. La tecnologia trova sempre più applicazioni nella cinematografia:

  • Effetti speciali– l’IA permette di generare effetti visivi realistici, riducendo i costi di produzione.
  • Post-produzione– Gli strumenti basati sull’intelligenza artificiale automatizzano processi come il montaggio, la correzione del colore e il miglioramento del suono.
  • Sceneggiatura– Gli algoritmi che analizzano le trame dei film più popolari possono suggerire nuove storie.
  • Digitalizzazione degli attori– L’intelligenza artificiale consente di ringiovanire o “rianimare” attori deceduti per utilizzarli in nuove produzioni. (Raindance)

usa law ai

Aspetti legali ed etici dell’uso dell’IA nella cinematografia

L’uso dell’IA nel cinema solleva una serie di questioni legali ed etiche che si fanno sempre più pressanti con l’aumentare dell’uso di questa tecnologia. Nel caso diThe Brutalist, possiamo individuare diverse questioni chiave:

  1. Copyright– La voce digitale generata dall’IA appartiene all’attore, alla società tecnologica o ai produttori del film? L’uso della voce dell’attore in forma sintetica può dare adito a richieste di compenso per l’uso aggiuntivo dell’immagine.
  2. Trasparenza– Il pubblico non è stato informato dell’uso di Respeecher durante le prime proiezioni del film. I registi dovrebbero essere aperti su queste pratiche, soprattutto quando influenzano la ricezione degli spettacoli?
  3. Impatto sulla professione di attore– I critici temono che lo sviluppo dell’IA possa portare a una riduzione della domanda di doppiatori o addirittura degli attori stessi, quando le loro voci possono essere generate sinteticamente.

oscar ai

Polemiche e impatto sulle possibilità di vincere l’Oscar

La rivelazione dell’uso dell’IA inThe Brutalistha suscitato polemiche nell’industria cinematografica. Sono state sollevate preoccupazioni sul fatto che tali pratiche possano minare l’autenticità delle performance degli attori e portare a dilemmi etici sull’uso della tecnologia nelle arti. Nel contesto dei prossimi Oscar, alcuni esperti hanno suggerito che l’uso dell’IA inThe Brutalistpotrebbe compromettere le possibilità di Adrien Brody di vincere il premio come miglior attore. Tuttavia, sia il regista che il montatore del film assicurano che l’IA è stata solo uno strumento per aiutare, non per sostituire, il talento e il lavoro degli attori.

Sintesi

The Brutalistè diventato il simbolo di una nuova era della cinematografia, in cui l’intelligenza artificiale sta diventando uno strumento creativo, ma anche oggetto di controversie. Il caso di Adrien Brody e dell’uso di Respeecher apre una discussione sui limiti della tecnologia nell’arte. L’intelligenza artificiale sarà solo un supporto per i creatori o dominerà l’industria, sostituendo la creatività umana? Una cosa è certa: il futuro del cinema sarà strettamente legato allo sviluppo della tecnologia.

Fonti:

BREAKING Il nuovo ordine esecutivo del presidente Trump

Il 23 gennaio 2025 il Presidente Donald Trump ha firmato un ordine esecutivo che definisce le nuove priorità degli Stati Uniti in materia di intelligenza artificiale (IA). Questa decisione segue l’abrogazione dell’ordine esecutivo EO 14110, emesso da Joe Biden nel 2023, e introduce nuove regole che disciplinano lo sviluppo dell’IA negli Stati Uniti. Questa mossa dell’amministrazione Trump sottolinea l’importanza dell’IA per mantenere il dominio globale degli Stati Uniti, promuovere l’innovazione e garantire la sicurezza nazionale.

AI USA

Nuove priorità nella politica sull’IA

L’ordine esecutivo del Presidente Trump definisce i principali obiettivi degli Stati Uniti nel campo dell’intelligenza artificiale. Il documento sottolinea chiaramente che lo sviluppo dell’IA deve basarsi sui principi del libero mercato, eliminando “pregiudizi ideologici”. Un elemento chiave della nuova politica è il rafforzamento della posizione globale degli Stati Uniti nell’IA per promuovere la competitività economica, lo sviluppo umano e la sicurezza nazionale.

A differenza dell’approccio dell’amministrazione Biden, che prevedeva test di sicurezza più rigorosi e la condivisione dei risultati con il governo, la nuova politica privilegia una maggiore libertà per le aziende tecnologiche. Trump ha definito troppo restrittive le normative precedenti, che a suo dire potrebbero aver ostacolato lo sviluppo dell’IA negli Stati Uniti.

business ai

Elementi chiave della normativa di Trump

  1. Abrogazione del regolamento EO 14110
  2. Il regolamento di Biden, che aveva lo scopo di garantire uno sviluppo sicuro e affidabile dell’IA, è stato ritenuto dall’amministrazione Trump indebitamente restrittivo della libertà di innovazione. La nuova legislazione apre la strada a una revisione di tutti i regolamenti e le azioni derivanti dal regolamento abrogato.
  3. Rafforzare la posizione degli Stati Uniti come leader globale nell’IA
  4. Il documento sottolinea che la politica statunitense mira a mantenere e sviluppare la posizione dominante nel campo dell’intelligenza artificiale. Questo per promuovere l’innovazione tecnologica, la competitività economica e la sicurezza nazionale.
  5. Sviluppo di un piano d’azione sull’IA
  6. Entro 180 giorni dalla firma dell’ordine esecutivo, i consiglieri speciali, tra cui l’Assistente del Presidente per la scienza e la tecnologia e il Consigliere speciale per l’IA e le criptovalute, in collaborazione con l’Assistente del Presidente per la politica economica, l’Assistente del Presidente per la politica interna, il Direttore dell’Ufficio per la gestione e il bilancio (Direttore dell’OMB) e i capi dei dipartimenti e delle agenzie esecutive ritenuti rilevanti, devono presentare un piano d’azione che illustri nel dettaglio l’attuazione delle nuove priorità.
  7. Aggiornamento delle politiche di supervisione
  8. All’Office of Management and Budget (OMB) è stato richiesto di aggiornare i memorandum di supervisione dell’AI esistenti per renderli coerenti con la nuova politica.

bialy dom

Rilevanza per gli Stati Uniti

1 Impatto sul settore tecnologico

Il nuovo ordine esecutivo di Trump ha il potenziale per aumentare la spinta all’innovazione nel settore dell’IA eliminando le barriere normative. Ciò darà alle aziende tecnologiche maggiore libertà di sviluppare nuovi sistemi e applicazioni, il che potrebbe rafforzare la posizione globale degli Stati Uniti in questo campo. Allo stesso tempo, la mancanza di una regolamentazione rigorosa solleva preoccupazioni sull’uso etico della tecnologia e sul rischio di abusi.

2 Sicurezza nazionale e competizione globale

L’enfasi sul ruolo dell’IA nel contesto della sicurezza nazionale evidenzia la crescente importanza della tecnologia nella difesa e nell’intelligence. Gli Stati Uniti, leader nell’innovazione, devono affrontare la concorrenza soprattutto della Cina, che sta investendo molto nell’IA. La nuova politica è pensata per dare agli Stati Uniti un vantaggio tecnologico.

3 Critiche e polemiche

La decisione di abrogare il regolamento di Biden è stata accolta con critiche da numerosi esperti che temono che la mancanza di restrizioni possa portare allo sviluppo di pericolose tecnologie di IA. Alondra Nelson del Center for American Progress avverte che il pubblico americano potrebbe essere privato della protezione dai potenziali danni dello sviluppo dell’IA.

AI Act – una normativa pionieristica per l’IA nell’UE

L’Unione europea, invece, ha adottato un approccio diverso. L’AI Act è un regolamento che pone l’Unione europea all’avanguardia degli sforzi globali per creare un quadro giuridico responsabile e trasparente per l’intelligenza artificiale. Pubblicato il 12 luglio 2024 nella Gazzetta ufficiale della Commissione europea, il regolamento è fondamentale per plasmare il futuro della tecnologia AI in Europa, garantendo al contempo un elevato livello di protezione dei diritti dei cittadini e dei consumatori.

Il regolamento definisce i sistemi di IA in termini di rischio, classificandoli in diversi livelli (minimo, limitato, elevato e inaccettabile). I sistemi di IA ad alto rischio, come quelli utilizzati nell’assistenza sanitaria, nell’istruzione o nei processi di assunzione, dovranno soddisfare requisiti specifici in materia di sicurezza, trasparenza e affidabilità. Inoltre, sono state vietate le applicazioni dell’IA ritenute inaccettabili, come la sorveglianza biometrica di massa negli spazi pubblici o la manipolazione del comportamento umano.

Confronto con l’approccio statunitense

A differenza della politica statunitense, più rilassata, l’Unione Europea pone maggiore enfasi sulla prevenzione e sulla protezione dei diritti dei cittadini. Nell’UE, le normative mirano a prevenire potenziali minacce dell’IA come la discriminazione algoritmica, la sorveglianza o la manipolazione dell’opinione pubblica.


Conclusioni e prospettive

Il nuovo ordine esecutivo del Presidente Trump dimostra che l’amministrazione sta dando priorità allo sviluppo dell’IA come elemento chiave della strategia economica e tecnologica degli Stati Uniti. La politica del libero mercato mira ad attrarre investimenti e a promuovere l’innovazione, ma i suoi effetti collaterali possono portare alla mancanza di adeguate tutele etiche e legali.

La chat GPT non funziona. Migliaia di richieste da parte degli utenti

Chat GPT

Illustrazione generata dal concorrente #GoogleGemini.

Giovedì 23 gennaio, la popolare chat GPT ha smesso di funzionare. L’interruzione è stata segnalata da migliaia di utenti internet preoccupati.

Il sito web che fornisce l’accesso online alla popolare Chat GPT giovedì 23 gennaio ha smesso di funzionare per un po’. L’interruzione si è verificata intorno alle 13:00 ora polacca, come si può ben vedere nel grafico di segnalazione di downdetector.co.uk. È interessante notare che i siti web di OpenAI, la società responsabile di Chat GPT, funzionavano ancora alla stessa ora.

Contemporaneamente sono stati segnalati problemi con altri servizi OpenAI. I modelli GPT-4o e GPT-4 non funzionavano e alcuni utenti hanno segnalato che i siti web chatgpt.com e chat.openai.com non si aprivano. Altri hanno notato che Chat GPT non rispondeva alle loro richieste. Anche le applicazioni sviluppate per supportare questo modello non rispondevano.

Questo non sarebbe il primo fallimento di Chat GPT. Nelle ultime settimane si sono verificate brevi interruzioni del servizio. La più grave risale a dicembre, quando si è verificata una grave interruzione negli Stati Uniti, con conseguenti errori anche per gli altri servizi OpenAI.

Trump cambia la normativa sull’intelligenza artificiale: un nuovo approccio all’IA negli Stati Uniti

Donald Trump ha iniziato il suo mandato con cambiamenti significativi nell’approccio alla regolamentazione dell’intelligenza artificiale (IA). Uno dei primi passi è stata l’abrogazione dell’Ordine esecutivo 2023 di Joe Biden, che introduceva requisiti di sicurezza dettagliati per i sistemi di IA. La decisione ha suscitato polemiche tra gli esperti, che sottolineano come la mancanza di un’adeguata regolamentazione potrebbe portare sia opportunità che gravi minacce alla società e alla posizione di leader tecnologico degli Stati Uniti.

AI USA

Su cosa verteva l’ordine esecutivo di Biden sull’IA?

L’ordine esecutivo di Joe Biden mirava a garantire uno sviluppo sicuro e responsabile dell’intelligenza artificiale. Si è concentrato su diverse aree chiave:

  1. Standard di sicurezza e test dei sistemi di intelligenza artificiale
  2. Le aziende che sviluppano l’intelligenza artificiale sono tenute a condurre test di sicurezza sui loro sistemi e a condividerne i risultati con il governo statunitense. Questo per identificare i rischi potenziali, come le distorsioni degli algoritmi o il rischio che l’IA venga utilizzata in attività che minacciano la sicurezza nazionale.
  3. Protezione dalla disinformazione generata dall’IA
  4. Il Dipartimento del Commercio doveva sviluppare linee guida per i watermark e i sistemi di autenticazione dei contenuti per consentire una facile identificazione del materiale generato dall’IA. Questo per ridurre l’impatto della disinformazione e delle fake news sul pubblico.
  5. Privacy e protezione dei dati
  6. Il regolamento ha posto l’accento sulla protezione dei dati dei cittadini dall’uso illegale per addestrare modelli di IA. Sebbene il Presidente Biden abbia esortato il Congresso ad approvare leggi appropriate, all’epoca mancava una legislazione specifica che affrontasse la questione.
  7. Prevenzione della discriminazione algoritmica
  8. Uno dei punti chiave della normativa riguardava la prevenzione della creazione di algoritmi di IA basati su dati non rappresentativi che potessero portare a discriminazioni, ad esempio nei sistemi di reclutamento, nel settore giudiziario o in quello sanitario.
  9. Sicurezza nell’assistenza sanitaria e nelle scienze della vita
  10. L’amministrazione Biden ha messo in atto meccanismi per prevenire l’uso dell’IA per creare materiali biologici pericolosi. Il Dipartimento della Salute doveva sviluppare programmi di sicurezza relativi all’IA in medicina, concentrandosi sul miglioramento dell’assistenza sanitaria e sullo sviluppo di terapie innovative. Questi programmi dovevano essere soddisfatti come condizione per ricevere finanziamenti federali per progetti nel campo delle scienze della vita.
  11. Il mercato del lavoro e l’impatto dell’IA
  12. I regolamenti presuppongono lo sviluppo di regole per proteggere i dipendenti dall’uso scorretto dell’IA nei sistemi di valutazione delle prestazioni o di assunzione.

Per saperne di più sui sistemi di intelligenza artificiale negli Stati Uniti, cliccare qui:

Vale la pena notare che la versione abrogata del regolamento non è più disponibile nemmeno sul sito web della Casa Bianca, quindi il regolamento non solo è stato abrogato, ma anche rimosso insieme alle versioni archiviate dalla fonte ufficiale. A questo punto, si può trovare solo qui.

bialy dom

Perché Trump ha abrogato il regolamento?

Donald Trump ha sostenuto che i regolamenti introdotti da Joe Biden erano troppo rigidi e potevano limitare lo sviluppo di tecnologie innovative. Dal punto di vista dei repubblicani, norme come la segnalazione obbligatoria dei test di sicurezza e la condivisione delle informazioni con il governo potrebbero ostacolare le aziende tecnologiche e minare la loro competitività nel mercato globale.

Trump ha sottolineato che l’approccio degli Stati Uniti all’IA dovrebbe essere meno burocratico e più incentrato sulla promozione dell’innovazione. La decisione di abrogare il regolamento è in linea con la sua filosofia di deregolamentazione e di riduzione delle interferenze governative nel settore privato.

Inoltre, il regolamento di Biden mirava a rendere più sicuro lo sviluppo dell’IA introducendo standard di trasparenza, riducendo il rischio di disinformazione e contrastando la discriminazione algoritmica. Le aziende tecnologiche dovevano anche condividere informazioni sui potenziali difetti dei loro modelli, compresi i pregiudizi dell’IA, cosa che è stata particolarmente criticata dagli ambienti affiliati a Trump in quanto minacciava la loro competitività.

La decisione di Trump: liberalizzazione o rischio?

La decisione di abrogare il regolamento ha suscitato reazioni contrastanti. Esperti come Alondra Nelson del Center for American Progress avvertono che la mancanza di standard di sicurezza indebolirà la protezione dei consumatori contro i rischi dell’IA. Alexander Nowrasteh del Cato Institute, invece, ha osservato che l’abbandono di alcune disposizioni di Biden, come la facilitazione dell’immigrazione per i professionisti dell’IA, potrebbe avere conseguenze negative per il settore.

Tuttavia, i sostenitori di Trump sostengono che la sua decisione sia un’opportunità per accelerare lo sviluppo tecnologico. Sottolineano che una regolamentazione troppo rigida, come quella introdotta in Europa, potrebbe soffocare l’innovazione.

404 Biały dom

Fonte grafica: sito web della Casa Bianca

Conseguenze della decisione di Trump

Gli esperti avvertono che la mancanza di regole chiaramente definite che governino lo sviluppo dell’IA potrebbe portare a una serie di rischi:

  • Disinformazione e fake news: la mancanza di linee guida per l’autenticazione dei contenuti generati dall’IA potrebbe facilitare la diffusione di informazioni false.
  • Minacce alla sicurezza nazionale: Senza un’adeguata verifica della sicurezza, i sistemi di IA potrebbero essere vulnerabili all’uso nella criminalità informatica o nella guerra.
  • Etica e fiducia: la mancanza di regolamentazione aumenta il rischio di discriminazioni algoritmiche e di violazioni della privacy, che possono minare la fiducia del pubblico nella tecnologia dell’IA.

D’altro canto, i sostenitori della decisione di Trump sottolineano che la liberalizzazione dei regolamenti consentirà un più rapido sviluppo della tecnologia e attirerà investimenti nel settore dell’IA.

business ai

Gli Stati Uniti resteranno leader nell’IA?

La decisione di Trump di abrogare l’ordine esecutivo di Biden apre un nuovo capitolo nell’approccio degli Stati Uniti alla regolamentazione dell’IA. Mentre l’Europa si concentra sulla tutela dei diritti civili, gli Stati Uniti potrebbero seguire una strada più liberale, dando priorità alla libertà di innovazione, ma compromettendo anche i diritti umani fondamentali.

Tuttavia, la mancanza di un quadro normativo chiaramente definito nel lungo periodo potrebbe indebolire la posizione degli Stati Uniti come leader nell’IA, soprattutto nel contesto della cooperazione internazionale e della creazione di standard globali. Sarà fondamentale trovare un equilibrio tra il sostegno allo sviluppo e la minimizzazione dei rischi posti da questa tecnologia rivoluzionaria.

L’intelligenza artificiale (IA) rimane una delle tecnologie più importanti del XXI secolo e le decisioni prese questa settimana dai leader mondiali negli Stati Uniti influenzeranno il suo sviluppo per decenni.

In che modo l’intelligenza artificiale può migliorare l’analisi dei dati finanziari della GOCC e aumentare la trasparenza dell’ente?

La situazione in cui si è trovato Jerzy Owsiak, discussa e commentata negli ultimi giorni dai media, dà origine a numerose discussioni e domande sulle possibilità di azione legale in questi casi. Di seguito indichiamo le principali disposizioni di legge che potrebbero essere applicate in materia di minacce criminali, incitamento pubblico all’odio o violazione dei diritti personali. Questi incidenti servono a ricordare quanto sia importante la protezione legale in situazioni in cui le parole e le azioni possono degenerare fino ad assumere la forma di atti criminali.

Nella seconda parte dell’articolo, illustriamo anche come l’IA stia rivoluzionando l’analisi dei dati finanziari, aumentando la trasparenza e l’efficienza degli enti di beneficenza.

La parte finale dell’articolo si basa su un’analisi approfondita dei rapporti finanziari del GOCC, disponibili sul sito ufficiale dell’organizzazione, e dimostra l’applicazione pratica della tecnologia nel settore non profit.

wosp-2025

Grafica: materiali della Fondazione WOŚP

Minacce criminali e incitamento all’odio – aspetti legali sull’esempio del famoso caso di Jerzy Owsiak

Jerzy Owsiak, presidente della Fondazione Grande Orchestra di Natale (WOŚP), la scorsa settimana ha denunciato alle forze dell’ordine il verificarsi di minacce criminali e di incitamento pubblico all’odio contro di lui e la Fondazione. Le minacce telefoniche e via e-mail, compresi gli inviti alla violenza, hanno fatto sì che il presidente della Fondazione WOŚP temesse ragionevolmente che si realizzassero. Owsiak ha anche segnalato attività mediatiche che considerava manipolative e che hanno intensificato le emozioni negative contro di lui e la WOŚP. Di conseguenza, la fondazione ha vietato l’accesso alla sua sede ad alcune testate editoriali e televisive.

WOŚP Marcin Michon

Materiale della Fondazione GOCC – fotografo Marcin Michon

Minacce criminali: quando è un reato?

Art. 190 CC [Minaccia criminale].

  1. Chiunque minacci un’altra persona di commettere un reato a suo danno o a danno di una persona a lui vicina, se la minaccia induce nella persona a cui è stata rivolta o che riguarda un ragionevole timore che venga messa in atto, è soggetto alla pena della privazione della libertà fino a 3 anni.
  2. L’azione penale si svolge su richiesta della vittima.

Secondo l’articolo 190 del Codice Penale, una minaccia criminale consiste nel minacciare un’altra persona di commettere un reato a suo danno o a danno di una persona a lei vicina, se suscita in lei il fondato timore che venga realizzato. Le considerazioni chiave in questo caso sono:

  1. Considerazioni oggettive – se una persona media in circostanze simili considererebbe la minaccia reale.
  2. Sentimenti soggettivi della vittima – come la minaccia colpisce una persona in particolare.

Nel caso di Jerzy Owsiak e dei dipendenti di WOŚP, le minacce sono state fatte sia per telefono che per e-mail. Sebbene le registrazioni delle conversazioni non siano state conservate, le e-mail costituiscono una prova importante che può essere utilizzata nel procedimento.

Incitamento all’odio – conseguenze legali

Art. 255 CC [Pubblica istigazione a commettere un reato o un illecito fiscale].

  1. Chiunque inciti pubblicamente a commettere un reato o un’infrazione fiscale è soggetto a una multa, alla pena della restrizione della libertà o alla pena della privazione della libertà fino a 2 anni.
  2. Chiunque inciti pubblicamente alla commissione di un reato è soggetto alla pena della privazione della libertà fino a 3 anni.
  3. Chiunque inciti pubblicamente alla commissione di un crimine è soggetto a una multa fino a 180 aliquote giornaliere, alla pena della restrizione della libertà o alla pena della privazione della libertà fino a un anno.

Le azioni che comportano un pubblico incitamento all’odio ai sensi dell’articolo 255 del Codice penale possono comportare una responsabilità penale. Nel caso del GOCC, il presidente della Fondazione ha fatto riferimento alle attività mediatiche svolte da alcune stazioni televisive e redazioni. Secondo lui, esse possono avere le caratteristiche di una manipolazione e di un’escalation di emozioni negative nei confronti della Fondazione e delle sue attività, che, come risultato di forti emozioni sociali, che vengono ulteriormente intensificate e alimentate, possono finire in modo molto grave (qui va indicato in particolare il caso del presidente di Danzica, Paweł Adamowicz).

WOŚP Paweł Krup

Materiale della Fondazione GOCC – fotografo Paweł Krup

Diffamazione e ingiuria – tutela dell’immagine e della dignità

Inoltre, le attività mediatiche che violano l’immagine e il buon nome della Fondazione possono potenzialmente costituire una forma di diffamazione (articolo 212 CC) o di ingiuria (articolo 216 CC).

Ladiffamazione si riferisce a una situazione in cui una persona o un’istituzione viene calunniata per azioni che possono portare al discredito dell’opinione pubblica.

Articolo 212 CC [Diffamazione].

  1. Chiunque calunni un’altra persona, un gruppo di persone, un’istituzione, una persona giuridica o un’unità organizzativa priva di personalità giuridica con una condotta o qualità tali da umiliarla nell’opinione pubblica o da esporla alla perdita della fiducia necessaria per una determinata posizione, professione o tipo di attività, è soggetto a una multa o alla pena della restrizione della libertà.
  2. Se l’autore commette l’atto di cui al § 1 per mezzo di mezzi di comunicazione di massa, è soggetto a una multa, alla pena della restrizione della libertà o alla pena della privazione della libertà fino a un anno.
  3. In caso di condanna per il reato di cui al § 1 o 2, il tribunale può decidere una sovrattassa a favore della parte lesa, della Croce Rossa polacca o per un altro scopo sociale indicato dalla parte lesa.
  4. Il reato di cui ai §§ 1 o 2 è perseguito con un’azione penale privata.

L’ingiuria comprende espressioni o gesti che offendono la dignità di una persona, anche in presenza di altri.

Articolo 216 CC [Insulto].

  1. Chiunque insulti un’altra persona in sua presenza o anche in sua assenza, ma in pubblico o con l’intenzione che l’insulto raggiunga tale persona, è soggetto a una multa o alla pena della restrizione della libertà.
  2. Chiunque insulti un’altra persona per mezzo di comunicazioni di massa è soggetto a una multa, alla pena della restrizione della libertà o alla reclusione fino a un anno.
  3. Se l’insulto è stato provocato da un comportamento di sfida da parte della vittima o se la vittima ha risposto violando l’integrità corporea o insultandosi reciprocamente, il tribunale può rinunciare alla pena.
  4. In caso di condanna per il reato di cui al § 2, il tribunale può ordinare una sovrattassa a favore della parte lesa, della Croce Rossa polacca o per un altro scopo sociale indicato dalla parte lesa.
  5. L’azione penale si svolge per via privata.

Entrambi i reati sono perseguiti con l’azione penale privata, il che significa che la vittima deve presentare un’accusa. L’assistenza di un avvocato o di un legale è preziosa in queste situazioni.

Violazione dei diritti personali – azione civile

In situazioni come questa, la vittima può anche avvalersi della tutela civilistica sulla base delle disposizioni in materia di tutela dei diritti della persona. Ciò include la possibilità di richiedere

  • Un risarcimento economico.
  • Scuse pubbliche.
  • La cessazione dell’azione che viola i diritti personali e la rimozione dei suoi effetti.

groźba fake news

Come comportarsi in caso di minacce o calunnie?

  1. Segnalare il sospetto reato ai servizi competenti – notificare alla polizia o alla Procura della Repubblica le minacce o le dichiarazioni che possono essere ingiuriose o diffamatorie. In caso di minaccia criminale, deve essere presentata anche una richiesta di azione penale. La richiesta può essere formulata sia verbalmente che per iscritto.
  2. Prove sicure – e-mail, registrazioni di conversazioni o altre forme di documentazione sono fondamentali per corroborare le accuse (per paura di cancellare le prove, è una buona idea preparare screenshot o dati sicuri su un sito web o sui social media con una registrazione autenticata).
  3. Ricorrere a una consulenzalegale: un avvocato o un barrister vi assisterà nella stesura dell’avviso e vi sosterrà anche durante il procedimento penale o civile. Vale la pena ricordare che anche gli avvocati o i consulenti legali forniscono assistenza gratuita in questi casi (ex officio).

WOŚP Łukasz Widziszowski

Materiale della Fondazione GOCC – fotografo Łukasz Widziszowski

WOŚP – attività sociale all’ombra delle minacce

La Fondazione WOŚP sostiene il servizio sanitario polacco dal 1993, raccogliendo finora quasi 2,3 miliardi di zloty per la sua causa. Nonostante il suo inestimabile contributo al sistema sanitario, le sue attività sono talvolta oggetto di attacchi, il che dimostra quanto sia importante disporre di efficaci meccanismi di protezione legale, ma anche puntare su informazioni affidabili.

A questo proposito, vale sempre la pena di prestare particolare attenzione alle cosiddette “fake news” che appaiono sui media o in televisione, che spesso sono già a prima vista distinguibili da altre informazioni (sono aggressive, fanno riferimento a persone o eventi inesistenti). Tra le fake news ce ne sono molte: titoli vistosi, manipolazioni di parte che appaiono nelle dichiarazioni di varie persone, oppure immagini o video manipolati. A questo scopo (soprattutto se le fake news riguardano ONG/Organizzazioni non governative), vale la pena di utilizzare il sito web Demagog.

L’Associazione Demagog è la prima organizzazione polacca di factchecking. Dal 2014 verifica le dichiarazioni dei politici e lotta contro le fake news e la disinformazione. Inoltre, è anche un team di analisti ed educatori per i quali i fatti contano. La missione dell’organizzazione è combattere le fake news e la disinformazione e fornire ai cittadini informazioni affidabili, imparziali e verificate.

L’intelligenza artificiale può essere utilizzata anche per analizzare le fake news.

sztuczna inteligencja WOŚP

In che modo l’intelligenza artificiale migliora l’analisi dei dati finanziari della GOCC e aumenta la trasparenza delle attività dell’organizzazione.

  1. Automatizzare l’acquisizione dei dati: L’OCR come strumento chiave nell’analisi dei rapporti finanziari della GOCC

dane OCR

  • Estrazione precisa dei dati dalle fonti ufficiali: La prima fase del processo di analisi è l’acquisizione dei dati. Nel caso di WOŚP, la principale fonte di informazioni è costituita dai rapporti finanziari dettagliati, pubblicati annualmente sotto forma di immagini sul sito ufficiale della fondazione. I moduli AI responsabili del recupero dei dati acquisiscono automaticamente queste immagini, eliminando la necessità di inserire manualmente i dati. Le immagini, che includono i conti, sono disponibili qui: https://www.wosp.org.pl/fundacja/wazne/rozliczenia
  • Riconoscimento ottico dei caratteri (OCR) al servizio del bene: la tecnologia di riconoscimento ottico dei caratteri (OCR) svolge un ruolo fondamentale. Gli algoritmi OCR analizzano accuratamente le immagini dei resoconti, convertendo le informazioni testuali e numeriche in essi contenute (date, importi, descrizioni) in un formato digitale per una successiva elaborazione e analisi. Si tratta di un elemento chiave per automatizzare l’analisi dei rapporti finanziari.
  • Strutturazione intelligente dei dati finanziari: I dati estratti vengono poi organizzati e categorizzati. Gli algoritmi di intelligenza artificiale classificano automaticamente le informazioni, separandole in sezioni leggibili, come ad esempio: spese per le attrezzature mediche, costi di fornitura dei programmi medici, costi amministrativi, donazioni in natura e altro. Questo rende i rapporti finanziari delle GOCC più leggibili e comprensibili, senza la necessità di conoscenze specialistiche per analizzarli.
  1. Analisi oggettiva dei dati finanziari della GOCC: lezioni apprese dall’AI e loro rilevanza per i donatori

analiza ai wośp

  • Visualizzazione dei dati per una migliore comprensione: Sulla base dei dati elaborati, l ‘IA genera visualizzazioni chiare, tra cui grafici e tabelle. Queste facilitano una rapida panoramica delle informazioni chiave, delle tendenze delle finanze dell’UCCG e della struttura di spesa per i donatori e tutti gli stakeholder.
  • Analisi dettagliata della struttura delle spese: Un’analisi approfondita dei dati, supportata da algoritmi di intelligenza artificiale, consente di determinare con precisione dove la GOCC spende i fondi raccolti. Ad esempio, dall’analisi emerge chiaramente che una parte significativa del bilancio viene costantemente investita nell’acquisto di attrezzature mediche specializzate per gli ospedali di tutta la Polonia, che migliorano direttamente la qualità dell’assistenza sanitaria.
  • Individuazione di cambiamenti e tendenze nel corso degli anni: gli algoritmi di IA consentono di tracciare i cambiamenti nella struttura della spesa della GOCC nel corso di finali successivi. Ad esempio, l’analisi può mostrare un aumento della spesa in aree specifiche, come il sostegno a programmi medici specifici, o una risposta flessibile alle esigenze attuali, come nel caso dell’aumento della spesa per la lotta al COVID-19 nella 27a finale.
  • Valutazione dell’efficacia dei costi e ottimizzazione delle attività: L’intelligenza artificiale può anche supportare l’analisi dei costi amministrativi e operativi delle GOCC, identificando potenziali aree di ottimizzazione e aumentando l’efficienza dell’uso di ogni centesimo donato dai donatori.
  • Storie nascoste nei dati: Impatto reale sulla vita delle persone: è importante sottolineare che dietro ogni riga della tabella e ogni barra del grafico ci sono storie umane reali. Le attrezzature mediche acquistate dalla GOCC salvano la vita e la salute dei pazienti in tutta la Polonia e il sostegno ai programmi medici si traduce in un miglioramento della qualità della vita di molte persone. Ogni numero della relazione finanziaria del WOŚP non è solo un dato arido, ma prima di tutto una testimonianza di aiuto concreto e di bontà portata a chi ne ha bisogno. Si tratta di centinaia di migliaia di vite salvate e di sorrisi sui volti dei bambini e dei loro genitori. I dati acquistano un valore reale quando ci rendiamo conto che riflettono un impatto concreto sulla vita delle persone aiutate da WOŚP.
  1. Perché l’intelligenza artificiale è uno strumento così efficace nell’analisi dei dati delle organizzazioni caritative? Vantaggi per la GOCC e i donatori

ai analitics

  • Efficienza e automazione: l’automazione del processo di acquisizione ed elaborazione dei dati, grazie all’IA e all’OCR, riduce significativamente il tempo e l’impegno necessari per preparare relazioni finanziarie complete. Ciò consente al personale e ai volontari della GOCC di concentrarsi sul raggiungimento degli obiettivi statutari.
  • Trasparenza e credibilità: l’utilizzo di algoritmi di intelligenza artificiale oggettivi e precisi per analizzare i dati della GOCC aumenta la trasparenza e la credibilità delle informazioni presentate. I donatori possono essere certi che i dati sono analizzati in modo equo e imparziale, il che aumenta la fiducia nell’organizzazione.
  • Scalabilità: i sistemi basati sull’intelligenza artificiale sono in grado di elaborare enormi quantità di dati, indipendentemente dalle dimensioni dell’organizzazione e dal numero di relazioni finanziarie. Questo è fondamentale per le organizzazioni in rapida crescita come GOCC.
  • Rilevamento di tendenze e modelli per una migliore pianificazione: Gli algoritmi avanzati di apprendimento automatico sono in grado di identificare modelli e tendenze nascoste nei dati finanziari della GOCC. Questi forniscono informazioni preziose a supporto della pianificazione strategica e del processo decisionale, consentendoci di aiutare in modo ancora più efficace.
  1. Prospettive di sviluppo e conclusioni: La GOCC come modello di riferimento

WOŚP AI

L’uso dell’intelligenza artificiale nell’analisi dei dati finanziari della Great Orchestra of Christmas Charity è un ottimo esempio di applicazione efficace della tecnologia moderna nel settore della beneficenza. L’automazione, l’analisi oggettiva e la possibilità di generare rapporti dettagliati contribuiscono alla trasparenza, all’efficienza e alla credibilità delle operazioni dell’organizzazione.

L’esempio della Great Orchestra of Christmas Charity può servire da ispirazione per altri enti che operano nel campo della beneficenza, indicando i vantaggi dell’adattamento di soluzioni tecnologiche innovative. Un ulteriore sviluppo e implementazione dell’IA nel settore potrebbe portare miglioramenti ancora maggiori alla gestione finanziaria e alla realizzazione degli obiettivi statutari delle organizzazioni caritative. Tuttavia, vale la pena ricordare che la tecnologia è solo uno strumento e che il vero valore deriva dal cuore umano e dal desiderio di aiutare. Sono l’empatia e l’impegno, combinati con la potenza analitica dell’IA, a creare il potere di fare davvero la differenza nel mondo in meglio.

Fonti:

Sintesi

La protezione contro le minacce, la diffamazione e l’incitamento all’odio richiede l’uso consapevole degli strumenti legali, ma anche tecnologici, disponibili. Nel caso di episodi come quelli denunciati da Jerzy Owsiak, sono possibili sia azioni di diritto penale sia la tutela dei diritti personali attraverso strumenti civili. Una reazione efficace permette non solo di difendersi da ulteriori attacchi, ma anche di sensibilizzare l’opinione pubblica sulle conseguenze di tali azioni.

Ricordiamoci che se un’informazione ci fa sorgere dei dubbi, vale la pena di verificarla e di andare alla fonte. La tecnologia, nella misura indicata sopra, può aiutarci non solo a verificare l’accuratezza dei dati o delle informazioni, ma anche la loro corretta interpretazione.

Contatto

Hai domande?guarda il telefono+48 663 683 888
vedi e-mail

Ufficio a Varsavia

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Ufficio a Breslavia

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hello User,
ti sei già iscritto alle nostre newsletter?

    Leggi come trattiamo i tuoi dati personali qui