ChatGPT w centrum kontrowersji. Eksplozja Cybertrucka w Las Vegas 

9 stycznia 2025   /  AI

Eksplozja Tesli Cybertruck przed hotelem Trump International w Las Vegas wstrząsnęła opinią publiczną. Sprawcą tragedii okazał się 37-letni Matthew Livelsberger, żołnierz sił specjalnych, który podczas urlopu w USA wykorzystał sztuczną inteligencję, w tym ChatGPT, do zaplanowania ataku – podały władze. Incydent, który zakończył się śmiercią żołnierza oraz rannych siedmiu osób rodzi poważne pytania o odpowiedzialność za wykorzystanie technologii AI.  

Eksplozja samochodu cybertruck

ChatGPT i rola AI w planowaniu ataku 

Według policji metropolitalnej w Las Vegas, Livelsberger używał ChatGPT, aby zdobyć informacje na temat budowy urządzeń wybuchowych oraz organizacji ataku. Władze nie ujawniły szczegółów udzielonych odpowiedzi, ale podkreślono, że sztuczna inteligencja mogła udzielić informacji opartych na powszechnie dostępnych źródłach w Internecie.  

Firma poinformowała, że ChatGPT dostarczył jedynie informacji ogólnodostępnych w Internecie i ostrzegł przed szkodliwymi lub nielegalnymi działaniami. OpenAI współpracuje z organami ścigania w ramach dochodzenia.  

OpenAI, twórca ChatGPT wyraził ubolewanie z powodu wykorzystania ich narzędzia w tym incydencie. Firma podkreśliła, że modele AI zostały zaprojektowane tak, aby odmawiały szkodliwych instrukcji, minimalizując potencjalnie niebezpieczne treści. OpenAI powiedział CNN, że firma jest „zasmucona tym incydentem i pragnie, aby narzędzia AI były wykorzystywane w sposób odpowiedzialny”.  

Przebieg tragicznych wydarzeń 

Do eksplozji doszło, gdy Cybertruck został zaparkowany przed wejściem do hotelu. Monitoring ukazuje Livelsbergera, który wyciągał kanister z paliwem, oblewając nim pojazd. W pojeździe znajdowała się bomba lub improwizowane urządzenie wybuchowe, które zostało zdetonowane. Chwilę wcześniej Livelsberger zastrzelił się w samochodzie, co potwierdziła sekcja zwłok, a jego tożsamość zidentyfikowano na podstawie DNA i tatuaży.  

Władze odkryły również sześciostronicowy manifest w telefonie żołnierza, który rzuca światło na motywy jego działań. Agent FBI Spencer Evans opisał incydent jako „tragiczny przypadek samobójstwa odznaczonego weterana, który zmagał się z PTSD i innymi problemami”.  

Spekulacje o powiązanych incydentach 

Eksplozja w Las Vegas nie była jedynym takim zdarzeniem. W Nowym Orleanie doszło do podobnego incydentu z udziałem innego pojazdu, również wynajętego za pomocą aplikacji Turo. Chociaż władze badają ewentualne powiązania między tymi zdarzeniami, na razie brak jednoznacznych dowodów na ich związek.  

AI i wyzwania etyczne 

Wydarzenia te stawiają na nowo pytania o odpowiedzialność twórców technologii AI oraz konieczność regulacji w tym obszarze. Jak podkreślił szeryf Kevin McMahill, „sztuczna inteligencja zmienia reguły gry”, co widać na przykładzie tego tragicznego incydentu. Wraz z rozwojem AI coraz ważniejsze staje się wprowadzenie odpowiednich zabezpieczeń, które zapobiegną wykorzystaniu technologii do celów przestępczych.  

Samochód cybertruck

Jak to się ma to Chatu GPT? 

Firma OpenAI w styczniu 2024 zmieniła regulamin korzystania ze swoich dużych modeli językowych GPT, w tym – słynnego chatbota ChatGPT. Od tamtej chwili może on być wykorzystywany do celów wojskowych i wojennych.   

Zmianę w regulaminie korzystania z dużych modeli językowych OpenAI jako pierwszy wychwycił serwis Intercept. Jak podaje, do dnia 10 stycznia regulamin OpenAI zakazywał wykorzystania swoich modeli językowych do „aktywności, które obciążone są dużym ryzykiem wyrządzenia fizycznej szkody, w tym rozwoju broni oraz zastosowań wojskowych i wojennych”.  

Co ciekawe zmiana tego stanowiska nastąpiła wraz z rozpoczęciem współpracy OpenAI z Departamentem Obrony USA. Jak podał CNBC, wiceprezes OpenAI ds. spraw globalnych Anna Makanju i dyrektor generaln Sam Altman powiedzieli w wywiadzie dla Bloomberg House na Światowym Forum Ekonomicznym, że współpraca z amerykańskim resortem ma dotyczyć między innymi prac nad narzędziami sztucznej inteligencji wykorzystywanymi w zakresie cyberbezpieczeństwa typu open source.  

Sztuczna inteligencja

Jak ChatGPT wspiera siły zbrojne 

Ponadto w grudniu 2024 r. Open AI ChatGPT podpisało umowę o współpracy z firmą Anduril, specjalizującą się w bezzałogowych systemach i robotyce dla sił zbrojnych USA. Partnerstwo to ma na celu stworzenie zaawansowanego systemu AI przeznaczonego dla Sił Zbrojnych Stanów Zjednoczonych.  

W ramach współpracy OpenAI opracuje oprogramowanie do systemów przeznaczonych do zwalczania dronów bojowych, natomiast Anduril udostępni swoją bazę danych oraz doświadczenie w budowie dronów i systemów wojskowych. Planowany system AI ma być zdolny do rozpoznawania, identyfikowania i oceniania zagrożeń w powietrzu oraz natychmiastowego reagowania na nie – bez konieczności ingerencji człowieka.  

Prawo aI

Prawo a wykorzystywanie AI i ChatGPT do celów wojskowych 

Polska i Unia Europejska 

Polska, jako pastwo członkowskie Unii Europejskiej jest zobowiązana do przestrzegania unijnych przepisów, takich jak Akt o Sztucznej Inteligencji (AI Act). AI Act kładzie nacisk na zakaz wykorzystania systemów AI do celów naruszających prawa człowieka, co może ograniczać niektóre zastosowania militarne. Ponadto “podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI (…) AI Act, chyba że system ten jest już z nim zgodny. Listę zakazanych praktyk można znaleźć w rozdziale II AI Act. 

Regulacje w AI Act 

Wczytując się w treść AI Act można znaleźć zapis:  

(24) “Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym”.   

Twórcy aktu w sprawie sztucznej inteligencji tak usprawiedliwiają ten fakt:  

“W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych” (…).  

Ponadto zgodnie z art. 2 ust. 3 AI Act 

(…) 3.   

Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania”.  

AI Law

Prawne podstawy wykorzystania AI w działaniach militarnych w Unii Europejskiej 

Nawiązując więc do podstawy prawnej militarnego wykorzystywania sztucznej inteligencji w Unii Europejskiej należy wskazać wspomniany:  

Art. 4. ust. 2 TUE 

Unia szanuje równość Państw Członkowskich wobec Traktatów, jak również ich tożsamość narodową, nierozerwalnie związaną z ich podstawowymi strukturami politycznymi i konstytucyjnymi, w tym w odniesieniu do samorządu regionalnego i lokalnego. Szanuje podstawowe funkcje państwa, zwłaszcza funkcje mające na celu zapewnienie jego integralności terytorialnej, utrzymanie porządku publicznego oraz ochronę bezpieczeństwa narodowego. W szczególności bezpieczeństwo narodowe pozostaje w zakresie wyłącznej odpowiedzialności każdego Państwa Członkowskiego”.  

W związku z tym zgodnie z prawem Unii Europejskiej (AI Act) jest możliwe wykorzystywanie systemów sztucznej inteligencji, ale w tym kontekście “do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego”. A także “W przypadku celów bezpieczeństwa narodowego (…) jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe”. 

Także w Polsce tworzy się pierwsze strategie związane z wykorzystywaniem sztucznej inteligencji w obronności. Jak zostało określone w “Resortowej strategii sztucznej inteligencji do roku 2039” Ministerstwa Obrony Narodowej z sierpnia 2024 r.  

Do roku 2039 wykorzystanie nowoczesnych technologii, w tym sztucznej inteligencji, będzie warunkiem posiadania zdolności do efektywnej realizacji odstraszania i obrony przez Siły Zbrojne RP. Systemy sztucznej inteligencji będą odgrywać znaczącą rolę w działaniach militarnych, co zrewolucjonizuje sposób zarządzania i prowadzenia operacji wojskowych w przyszłym zdigitalizowanym środowisku walki. Jej wszechstronne zastosowania będą wpływać nie tylko na zwiększenie tempa operacyjnego i efektywności wykorzystania zaangażowanych sił, ale także kreować nowe wyzwania etyczne i prawne”.  

Wykorzystanie AI w działaniach militarnych w Polsce obejmie:  

  • Autonomiczne systemy bojowe: Prowadzenie operacji bez bezpośredniego zaangażowania człowieka, przeprowadzanie misji rozpoznawczych, ofensywnych i defensywnych z większą precyzją, minimalizując ryzyko dla personelu. 
  • Analizę danych wywiadowczych: Przetwarzanie dużych ilości informacji, identyfikacja wzorców, ocena działań przeciwnika, usprawnienie planowania i realizacji operacji. 
  • Optymalizację logistyki: Zarządzanie zasobami, redukcja czasu napraw, planowanie tras i przewidywanie potrzeb zaopatrzeniowych dla lepszego wsparcia jednostek. 
  • Systemy obrony cyberprzestrzeni: Szybka identyfikacja i neutralizacja cyberzagrożeń, ochrona infrastruktury i danych wojskowych. 
  • Symulacje i szkolenia: Realistyczne środowiska treningowe oraz spersonalizowane ścieżki rozwoju, wspierające szkolenie żołnierzy i testowanie strategii. 
  • Wsparcie decyzyjne: Analiza scenariuszy i rekomendacje zwiększające szybkość i trafność decyzji dowódców.
  • E-learning i zarządzanie talentami: Projektowanie indywidualnych ścieżek szkoleniowych, dostosowywanie materiałów i identyfikacja talentów. 

Wojsko sztuczna inteligencja

Korzystania z AI w celach militarnych w Stanach Zjednoczonych Ameryki 

USA z kolei są liderem w rozwijaniu systemów AI do celów militarnych. Wiele agencji, w tym DARPA (Defense Advanced Research Projects Agency) pracuje nad autonomicznymi systemami wojskowymi.  

Stany Zjednoczone nie mają jednak jednolitych aktów prawnych regulującej wykorzystanie AI w sektorze obronnym. Jednakże przepisy, takie jak National Defense Authorization Act, zawierają zapisy dotyczące finansowania i rozwoju autonomicznych systemów wojskowych. Oficjalne podsumowanie można znaleźć tutaj.  

Zasady DoD (Department of Defense) – w ostatnich latach Pentagon przyjął zasady etyczne dla AI w wojsku, kładąc nacisk na odpowiedzialność, przejrzystość i niezawodność. Systemy muszą być używane zgodnie z międzynarodowym prawem humanitarnym. Ponadto stworzono też dokument zawierający informacje dot. strategii wdrażania danych, analityki i sztucznej inteligencji. Strategia ta została stworzona przez Departament Obrony Stanów Zjednoczonych w celu ustanowienia strategii integracji danych, analityki oraz sztucznej inteligencji (AI) w działaniach militarnych i operacyjnych.   

Podsumowanie 

Eksplozja Cybertrucka w Las Vegas to tragiczne przypomnienie o potencjalnych zagrożeniach związanych z wykorzystaniem AI. Choć technologia ta ma ogromny potencjał do usprawnienia wielu dziedzin życia, jej nadużycia mogą prowadzić do dramatycznych skutków. Kluczowe będzie zapewnienie, że sztuczna inteligencja będzie rozwijana i wykorzystywana w sposób odpowiedzialny, z poszanowaniem bezpieczeństwa i etyki.  

Eksplozja Cybertrucka, AI w mediach, Matthew Livelsberger, sztuczna inteligencja a przestępczość, ChatGPT w ataku, Tesla Cybertruck Las Vegas, etyka AI, PTSD u weteranów.   

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Napisz do naszego eksperta

Mateusz Borkiewicz

Managing Partner, adwokat

+48 663 683 888 Kontakt

Artykuły z tej kategorii

Porwanie przez AI: przypadek Mike’a Johnsa a ryzyko prawne pojazdów autonomicznych

AI

Więcej
Porwanie przez AI: przypadek Mike’a Johnsa a ryzyko prawne pojazdów autonomicznych

Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiaku

AI

Więcej
Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiaku

Civilization VII – modele LLM odkrywają tajemnice tytułowego utworu

AI

Więcej
Civilization VII – modele LLM odkrywają tajemnice tytułowego utworu

Czy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?

AI

Więcej
Czy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?

Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej

AI

Więcej
Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej
Więcej

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj