ChatGPT al centro delle polemiche. Esplosione del Cybertruck a Las Vegas
13 Gennaio 2025 / AI
L’esplosione del Tesla Cybertruck fuori dal Trump International Hotel di Las Vegas ha sconvolto l’opinione pubblica. L’autore della tragedia si è rivelato essere il 37enne Matthew Livelsberger, un soldato delle forze speciali che ha utilizzato l’intelligenza artificiale, tra cui ChatGPT, per pianificare un attacco mentre era in vacanza negli Stati Uniti, come hanno riferito le autorità. L’incidente, che si è concluso con la morte del soldato e il ferimento di sette persone, solleva seri interrogativi sulla responsabilità dell’uso della tecnologia AI.
ChatGPT e il ruolo dell’IA nella pianificazione degli attacchi
Secondo la polizia metropolitana di Las Vegas, Livelsberger ha utilizzato ChatGPT per ottenere informazioni sulla costruzione di ordigni esplosivi e sull’organizzazione dell’attacco. Le autorità non hanno rivelato i dettagli delle risposte fornite, ma è stato evidenziato che l’IA è stata in grado di fornire informazioni basate su fonti pubblicamente disponibili su Internet.
L’azienda ha dichiarato che ChatGPT ha fornito solo informazioni pubblicamente disponibili su Internet e ha messo in guardia da attività dannose o illegali. OpenAI sta collaborando con le forze dell’ordine nell’ambito delle indagini.
OpenAI, lo sviluppatore di ChatGPT, ha espresso rammarico per l’uso del suo strumento in questo incidente. L’azienda ha sottolineato che i modelli di intelligenza artificiale sono progettati per negare le istruzioni dannose, riducendo al minimo i contenuti potenzialmente pericolosi. OpenAI ha dichiarato alla CNN che l’azienda è “rattristata da questo incidente e desidera che gli strumenti di IA vengano utilizzati in modo responsabile”.
Lo svolgimento dei tragici eventi
L’esplosione è avvenuta quando il Cybertruck era parcheggiato davanti all’ingresso dell’hotel. Le telecamere a circuito chiuso mostrano Livelsberger che estrae una tanica di carburante e la innaffia. Il veicolo conteneva una bomba o un ordigno improvvisato, che è stato fatto esplodere. Pochi istanti prima, Livelsberger si era sparato nell’auto, come confermato dall’autopsia, e la sua identità è stata identificata grazie al DNA e ai tatuaggi.
Le autorità hanno anche scoperto un manifesto di sei pagine sul telefono del soldato che fa luce sui motivi delle sue azioni. L’agente dell’FBI Spencer Evans ha descritto l’incidente come “un tragico caso di suicidio da parte di un veterano decorato che stava lottando con il PTSD e altri problemi”.
Speculazioni su incidenti correlati
L’esplosione di Las Vegas non è stato l’unico incidente di questo tipo. A New Orleans si è verificato un incidente simile che ha coinvolto un altro veicolo, anch’esso noleggiato tramite l’app Turo. Sebbene le autorità stiano indagando su possibili collegamenti tra questi incidenti, per il momento non ci sono prove evidenti di una connessione.
IA e sfide etiche
Questi eventi sollevano nuovi interrogativi sulla responsabilità degli sviluppatori di tecnologie AI e sulla necessità di una regolamentazione in questo settore. Come sottolineato dallo sceriffo Kevin McMahill, “l’intelligenza artificiale cambia le carte in tavola”, come si è visto in questo tragico incidente. Con lo sviluppo dell’IA, diventa sempre più importante mettere in atto misure di salvaguardia adeguate per evitare che la tecnologia venga utilizzata per scopi criminali.
Cosa c’entra questo con il chatbot GPT?
Nel gennaio 2024 OpenAI ha modificato i termini e le condizioni per l’utilizzo dei suoi modelli linguistici GPT di grandi dimensioni, tra cui il famoso chatbot ChatGPT. Da allora, può essere utilizzato per scopi militari e di guerra.
La modifica delle norme e dei regolamenti di OpenAI per l’utilizzo dei suoi modelli linguistici di grandi dimensioni è stata rilevata per la prima volta daIntercept. Come riporta il sito, fino al 10 gennaio il regolamento di OpenAI vietava l’uso dei suoi modelli linguistici per “attività che comportano un elevato rischio di danni fisici, tra cui lo sviluppo di armi e applicazioni militari e belliche”.
È interessante notare che il cambiamento di questa posizione è avvenuto quandoOpenAI ha iniziato a collaborare con il Dipartimento della Difesa degli Stati Uniti. Come riportato dalla CNBC, il vicepresidente di OpenAI per gli affari globali Anna Makanju e l’amministratore delegato Sam Altman hanno dichiarato in un’intervista con Bloomberg House al World Economic Forum che la collaborazione con il dipartimento statunitense dovrebbe includere il lavoro sugli strumenti di intelligenza artificiale utilizzati per la sicurezza informatica open source.
Come ChatGPT sostiene le forze armate
Inoltre, nel dicembre 2024, Open AI ChatGPT ha firmato un accordo di cooperazione con Anduril, un’azienda specializzata in sistemi senza pilota e robotica per le forze armate statunitensi. Questa partnership mira a sviluppare un sistema avanzato di intelligenza artificiale per le forze armate statunitensi.
Nell’ambito della collaborazione, OpenAI svilupperà il software per i sistemi destinati alla lotta contro i droni, mentre Anduril metterà a disposizione il suo database e la sua esperienza nella costruzione di droni e sistemi militari. Il sistema di intelligenza artificiale previsto dovrebbe essere in grado di riconoscere, identificare e valutare le minacce aeree e rispondere immediatamente, senza bisogno dell’intervento umano.
La legge e l’uso di AI e ChatGPT per scopi militari
La Polonia e l’Unione Europea
In quanto Stato membro dell’Unione Europea, la Polonia è tenuta a rispettare la legislazione dell’UE, come la legge sull’intelligenza artificiale (AI Act). L’AI Act sottolinea il divieto di utilizzare i sistemi di intelligenza artificiale per scopi che violano i diritti umani, il che può limitare alcune applicazioni militari. Inoltre, “un’entità che utilizza un sistema di IA per scopi diversi da quelli militari, di difesa o di sicurezza nazionale deve garantire che il sistema di IA … sia conforme all’AI Act, a meno che il sistema non sia già conforme”. Un elenco di pratiche proibite si trova nel Capitolo II dell’AI Act.
Regolamenti nella legge sull’IA
Leggendo il testo della legge sull’AI si può trovare la disposizione:
(24) “Se e nella misura in cui i sistemi di intelligenza artificiale sono commercializzati, commissionati o utilizzati con o senza modifiche – per scopi militari, di difesa o di sicurezza nazionale, questi sistemi devono essere esclusi dall’ambito di applicazione del presente regolamento, indipendentemente dall’entità che svolge tali attività – è irrilevante, ad esempio, che si tratti di un’entità pubblica o privata”.
I creatori della legge sull’intelligenza artificiale giustificano questo fatto come segue:
“Nel caso di scopi militari e di difesa, tale esenzione è giustificata sia dall’articolo 4, paragrafo 2, del TUE, sia dalla specificità della politica di difesa degli Stati membri e della politica di difesa comune dell’Unione di cui al titolo V, capo 2, del TUE, che sono soggetti al diritto pubblico internazionale, il quale fornisce pertanto un quadro giuridico più appropriato per la regolamentazione dei sistemi di IA nel contesto dell’uso della forza letale e di altri sistemi di IA nel contesto delle attività militari e di difesa” (…).
Inoltre, secondo l’articolo 2(3) della legge sull’IA
(…) 3.
“Ilpresente regolamento non si applica ai sistemi di IA se, e nella misura in cui, sono immessi sul mercato, messi in servizio o utilizzati, con o senza modifiche, esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività”.
Base giuridica per l’uso militare dell’IA nell’Unione Europea
Per quanto riguarda la base giuridica per l’uso militare dell’IA nell’Unione europea, è necessario fare riferimento a quanto sopra indicato:
“L’Unione rispetta l’uguaglianza degli Stati membri davanti ai trattati nonché la loro identità nazionale, insita nelle loro strutture fondamentali, politiche e costituzionali, comprese le autonomie regionali e locali. Rispetta le funzioni essenziali dello Stato, in particolare quelle volte a garantire l’integrità territoriale, a mantenere l’ordine pubblico e a proteggere la sicurezza nazionale. In particolare, la sicurezza nazionale è responsabilità esclusiva di ciascuno Stato membro”.
Pertanto, secondo il diritto dell’Unione europea (AI Act), è possibile utilizzare sistemi di intelligenza artificiale, ma in questo contesto “per scopi militari, di difesa o di sicurezza nazionale”. E ancora: “Nel caso di scopi di sicurezza nazionale (…) è giustificato sia dal fatto che la sicurezza nazionale è di competenza esclusiva degli Stati membri ai sensi dell’articolo 4, paragrafo 2, del TUE, sia dal fatto che le attività di sicurezza nazionale hanno una natura specifica, comportano esigenze operative specifiche e ad esse si applicano norme nazionali specifiche”.
Anche in Polonia si stanno sviluppando le prime strategie relative all’uso dell’intelligenza artificiale nella difesa. Come indicato nella “Strategia del Ministero della Difesa per l’intelligenza artificiale fino al 2039” dell’agosto 2024.
“Entro il 2039, l’uso di tecnologie moderne, compresa l’intelligenza artificiale, sarà un prerequisito per la capacità delle Forze Armate polacche di attuare efficacemente la deterrenza e la difesa. I sistemi di intelligenza artificiale svolgeranno un ruolo significativo nelle operazioni militari, rivoluzionando il modo in cui le operazioni militari vengono gestite e condotte nel futuro ambiente di combattimento digitalizzato. Le sue applicazioni versatili non solo influenzeranno il ritmo operativo e l’efficienza dell’uso delle forze impegnate, ma creeranno anche nuove sfide etiche e legali”.
L’uso dell’IA nelle operazioni militari in Polonia comprenderà:
- Sistemi di combattimento autonomi: Conduzione di operazioni senza il diretto coinvolgimento umano, effettuando missioni di ricognizione, offensive e difensive con maggiore precisione, riducendo al minimo i rischi per il personale.
- Analisi dell’intelligence: Elaborazione di grandi quantità di informazioni, identificazione di modelli, valutazione delle azioni nemiche, miglioramento della pianificazione e dell’esecuzione delle operazioni.
- Ottimizzazione della logistica: Gestione delle risorse, riduzione dei tempi di riparazione, pianificazione degli itinerari e anticipazione delle esigenze di approvvigionamento per un migliore supporto delle unità.
- Sistemi di difesa informatica: identificazione e neutralizzazione rapida delle minacce informatiche, protezione delle infrastrutture e dei dati militari.
- Simulazioni e addestramento: Ambienti di addestramento realistici e percorsi di sviluppo personalizzati per supportare l’addestramento dei soldati e la verifica delle strategie.
- Supporto alle decisioni: Analisi di scenari e raccomandazioni per aumentare la velocità e la precisione delle decisioni dei comandanti.
- E-learning e gestione dei talenti: Progettazione di percorsi di formazione individuali, personalizzazione dei materiali e identificazione dei talenti.
Uso dell’IA per scopi militari negli Stati Uniti d’America
Gli Stati Uniti, a loro volta, sono all’avanguardia nello sviluppo di sistemi di IA per scopi militari. Molte agenzie, tra cui la DARPA (Defense Advanced Research Projects Agency), stanno lavorando a sistemi militari autonomi.
Tuttavia, negli Stati Uniti non esiste una legislazione uniforme che regoli l’uso dell’IA nel settore della difesa. Tuttavia, la legislazione, come il National Defence Authorisation Act, include disposizioni per il finanziamento e lo sviluppo di sistemi militari autonomi. Una sintesi ufficiale è disponibile qui.
Principi del Dipartimento della Difesa (DoD) – negli ultimi anni, il Pentagono ha adottato principi etici per l’IA in ambito militare, sottolineando responsabilità, trasparenza e affidabilità. I sistemi devono essere utilizzati nel rispetto del diritto umanitario internazionale. Inoltre, è stato creato un documento sulla strategia di impiego di dati, analisi e IA. Questa strategia è stata creata dal Dipartimento della Difesa degli Stati Uniti per stabilire una strategia per l’integrazione di dati, analisi e intelligenza artificiale (IA) nelle attività militari e operative.
Sintesi
L’esplosione del Cybertruck a Las Vegas ci ricorda tragicamente i potenziali pericoli dell’utilizzo dell’IA. Sebbene la tecnologia abbia un grande potenziale per migliorare molte aree della vita, il suo uso improprio può portare a conseguenze drammatiche. Sarà fondamentale garantire che l’IA venga sviluppata e utilizzata in modo responsabile, nel rispetto della sicurezza e dell’etica.
Esplosione del Cybertruck, AI nei media, Matthew Livelsberger, intelligenza artificiale e criminalità, ChatGPT sotto attacco, Tesla Cybertruck Las Vegas, etica dell’AI, PTSD nei veterani.
Hai bisogno di aiuto con questo argomento?
Scrivi al nostro esperto
Articoli in questa categoria
Dirottamento dell’intelligenza artificiale: il caso di Mike Johns e i rischi legali dei veicoli autonomi
Dirottamento dell’intelligenza artificiale: il caso di Mike Johns e i rischi legali dei veicoli autonomiOroscopo 2025 – Scoprite qual è l’anno previsto per l’intelligenza artificiale e come la utilizzeranno le persone dei diversi segni zodiacali
Oroscopo 2025 – Scoprite qual è l’anno previsto per l’intelligenza artificiale e come la utilizzeranno le persone dei diversi segni zodiacaliCivilization VII – I modelli LLM svelano i segreti della traccia del titolo
Civilization VII – I modelli LLM svelano i segreti della traccia del titoloPossiamo mantenere i nostri dati al sicuro in modelli LLM (AI) come ChatGPT?
Possiamo mantenere i nostri dati al sicuro in modelli LLM (AI) come ChatGPT?Suno AI – il vostro compositore e cantante personale nel mondo dell’intelligenza artificiale
Suno AI – il vostro compositore e cantante personale nel mondo dell’intelligenza artificiale