DeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI? 

DeepSeek to seria chińskich modeli językowych, która imponuje wydajnością i niskimi kosztami treningu. Dzięki otwartoźródłowemu podejściu, DeepSeek-R1 i DeepSeek-V3 wywołują spore zamieszanie w branży AI. 

DeepSeek

Źródło: www.deepseek.com

DeepSeek: rewolucja w świecie AI rodem z Hongkongu 

DeepSeek coraz częściej pojawia się w dyskusjach o przyszłości sztucznej inteligencji. Ten hongkoński projekt dostarcza duże modele językowe (ang. Large Language Models, LLM) cechujące się otwartym kodem, wysoką wydajnością i – co kluczowe – znacznie niższymi kosztami treningu niż konkurencyjne rozwiązania od OpenAI czy Mety. 

W niniejszym artykule przyjrzymy się DeepSeek-R1, DeepSeek-V3, a także omówimy najnowsze informacje o procesie rozwoju i dystrybucji tych modeli – oparte zarówno na oficjalnych materiałach dostępnych na platformie Hugging Face, jak i na publikacjach z Spider’s Web oraz chiny24.com

Spis treści 

  1. Jak narodził się DeepSeek? 
  2. DeepSeek-R1 i DeepSeek-V3: krótkie wprowadzenie techniczne 
  3. Koszty treningu i wydajność: gdzie tkwi sekret? 
  4. Open source i licencjonowanie 
  5. DeepSeek-R1, R1-Zero i modele Distill: co je różni? 
  6. Rywalizacja Chin i USA: sankcje, półprzewodniki i innowacje 
  7. Czy DeepSeek zagrozi dominacji OpenAI? 
  8. Podsumowanie 
  9. Źródła 

AI born

Jak narodził się DeepSeek? 

Najnowsze doniesienia prasowe wskazują, że w 2015 roku Hongkongu powstało High-Flyer Capital Management – firma, która do niedawna była niemal nieznana w branży IT poza Azją. Sytuacja zmieniła się diametralnie za sprawą DeepSeek – serii dużych modeli językowych, które szturmem zdobyły uznanie ekspertów w Dolinie Krzemowej. 

DeepSeek to jednak nie tylko projekt komercyjny – to również powiew otwartości w świecie, w którym dominują zazwyczaj zamknięte rozwiązania o ogromnych budżetach, takie jak modele od OpenAI (w tym GPT-4 i OpenAI o1). 

DeepSeek-R1 i DeepSeek-V3: krótkie wprowadzenie techniczne 

Zgodnie z informacjami z oficjalnej strony projektu na Hugging Face, DeepSeek publikuje obecnie kilka wariantów swoich modeli: 

  1. DeepSeek-R1-Zero: powstały dzięki zaawansowanemu treningowi bez wstępnego etapu SFT (Supervised Fine-Tuning), skupiającemu się na wzmocnieniu umiejętności rozumowania (tzw. chain-of-thought). 
  2. DeepSeek-R1: w którym autorzy uwzględnili dodatkowe, wstępne fine-tuning (SFT) przed fazą uczenia ze wzmocnieniem, co poprawiło czytelność i spójność generowanego tekstu. 
  3. DeepSeek-V3: nazwane bazowym modelem, z którego wywodzą się opisane wyżej warianty R1-Zero i R1. DeepSeek-V3 może mieć aż 671 miliardów parametrów i został wytrenowany w czasie dwóch miesięcy, przy kosztach ok. 5,58 mln dolarów (dane: chiny24.com).

ai tech

Kontekst techniczny 

  • Wysoka liczba parametrów (nawet do 671 mld) przekłada się na możliwość generowania bardzo złożonych wypowiedzi i analiz. 
  • Zoptymalizowany proces trenowania sprawia, że nawet tak duża architektura nie wymaga budżetu porównywalnego z OpenAI. 
  • Główny cel: samodzielne wypracowywanie wieloetapowych rozwiązań i minimalizowanie „halucynacji”, tak częstej w innych modelach. 

Koszty treningu i wydajność: gdzie tkwi sekret? 

Zarówno serwis Spider’s Web, jak i portal chiny24.com podkreślają, że koszty treningu DeepSeek-R1 (ok. 5 mln USD dla pierwszej odsłony) są wielokrotnie niższe od tych, o których słyszymy w kontekście GPT-4 czy innych zamkniętych modeli OpenAI, gdzie mówi się o miliardach dolarów. 

Gdzie kryje się recepta na sukces? 

  • Autorskie metody optymalizacji procesu uczenia, 
  • Zwinna architektura pozwalająca modelowi na uczenie się efektywniej przy mniejszej liczbie GPU, 
  • Oszczędne gospodarowanie danymi treningowymi (unikając zbędnych powtórzeń i precyzyjnie dobierając zestaw danych). 

open source

Open source i licencjonowanie 

DeepSeek, w odróżnieniu od większości zachodnich konkurentów, stawia na otwarty kod. Jak czytamy w oficjalnej dokumentacji modelu na Hugging Face

„DeepSeek-R1 series support commercial use, allow for any modifications and derivative works, including, but not limited to, distillation…” 

To oznacza, że społeczność może nie tylko swobodnie korzystać z tych modeli, ale również je modyfikować i rozwijać. Dodatkowo powstało już kilka wariantów w ramach linii DeepSeek-R1-Distill, zoptymalizowanych pod kątem mniejszego zapotrzebowania na zasoby. 

Ważne: 

  • Modele DeepSeek-R1-Distill bazują m.in. na publicznie dostępnych Qwen2.5 i Llama3, z którymi łączą się stosowne licencje Apache 2.0 oraz licencje Llama. 
  • Mimo to całość jest udostępniana społeczności na bardzo liberalnych zasadach – co stymuluje eksperymenty i dalsze innowacje. 

AI

DeepSeek-R1, R1-Zero i modele Distill: co je różni? 

Z dokumentacji opublikowanej na Hugging Face wyłania się trójstopniowy podział: 

1. DeepSeek-R1-Zero 

  • Trening tylko z użyciem RL (reinforcement learning), bez wcześniejszego SFT, 
  • Model potrafi generować bardzo rozbudowane łańcuchy rozumowania (chain-of-thought), 
  • Może jednak cierpieć na problemy z powtarzalnością i czytelnością tekstu. 

2. DeepSeek-R1 

  • Włączenie fazy SFT przed RL rozwiązało problemy zauważone w R1-Zero, 
  • Lepsza spójność i mniejsza skłonność do halucynacji, 
  • Według testów (ang. benchmarks) jest porównywalny z OpenAI o1 w zadaniach matematycznych, programistycznych i analitycznych. 

3. DeepSeek-R1-Distill 

  • „Odchudzone” wersje modelu (1.5B, 7B, 8B, 14B, 32B, 70B parametrów), 
  • Umożliwiają łatwiejsze wdrożenia na słabszym sprzęcie, 
  • Powstały poprzez destylację (przeniesienie wiedzy z pełnego modelu R1 do mniejszych architektur). 

Rywalizacja Chin i USA: sankcje, półprzewodniki i innowacje 

Jak zaznacza „South China Morning Post” (cyt. za chiny24.com), rozwój chińskich modeli AI przebiega w warunkach ograniczonego dostępu do zaawansowanych półprzewodników, czego powodem są amerykańskie sankcje. 

Tymczasem chińskie firmy – w tym DeepSeek czy ByteDance (Doubao) – pokazują, że nawet w tak niesprzyjającym klimacie są w stanie tworzyć modele: 

  • nieustępujące zachodnim rozwiązaniom, 
  • a często znacznie tańsze w utrzymaniu. 

Jak zauważa Jim Fan (naukowiec z Nvidii), projekt DeepSeek może być dowodem, że innowacyjność i restrykcyjne warunki (mniejsze fundusze, sankcje) nie muszą się wykluczać. 

Czy DeepSeek zagrozi dominacji OpenAI? 

High-Flyer Capital Management i inne chińskie firmy wchodzą na rynek z modelem, który: 

  • działa lepiej od zachodniej konkurencji w niektórych testach, 
  • jest tańszy w rozwoju i utrzymaniu, 
  • udostępnia otwarte repozytoria, pozwalając na szybki rozwój ekosystemu w oparciu o community. 

Jeśli OpenAI (i inne giganty) nie opracują strategii konkurowania z tańszymi i równie dobrymi modelami, chińskie rozwiązania – jak DeepSeek czy Doubao – mogą przyciągnąć do siebie znaczną część rynku. 

LLM przyszłość

Era drogich modeli AI się kończy? 

DeepSeek jest żywym przykładem, że era gigantycznych i ultradrogich modeli AI może się kończyć. Otwarty kod, niskie koszty treningu i bardzo dobre wyniki w benchmarkach sprawiają, że ambitne startupy z Chin mogą zachwiać dotychczasowym układem sił w branży sztucznej inteligencji. 

Z uwagi na rosnące napięcia technologiczne między Chinami a USA, dalszy rozwój DeepSeek i podobnych projektów stanie się zapewne jednym z głównych wątków w globalnej rywalizacji o miano lidera AI. 

Źródła 

  1. „Chiński DeepSeek bije wszystkie modele OpenAI. Zachód ma wielki problem” – Spider’s Web 
  2. „DeepSeek. Chiński startup buduje otwartoźródłową AI” – chiny24.com 
  3. Oficjalna strona DeepSeek-R1 na Hugging Face 

Autor: opracowanie własne na bazie wskazanych publikacji.
Tekst przeznaczony do celów informacyjnych i publicystycznych. 

BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa

23 stycznia 2025 roku prezydent Donald Trump podpisał rozporządzenie wykonawcze, które definiuje nowe priorytety Stanów Zjednoczonych w zakresie sztucznej inteligencji (AI). Decyzja ta została podjęta w związku z uchyleniem rozporządzenia EO 14110, wydanego przez Joe Bidena w 2023 r. i wprowadza nowe zasady regulujące rozwój AI w USA. Ten krok administracji Trumpa podkreśla znaczenie AI w utrzymaniu globalnej dominacji USA, wspieraniu innowacji oraz zapewnianiu bezpieczeństwa narodowego.  

AI USA

Nowe priorytety w polityce AI 

Rozporządzenie wykonawcze prezydenta Trumpa określa główne cele Stanów Zjednoczonych w dziedzinie sztucznej inteligencji. Dokument wyraźnie podkreśla, że rozwój AI ma opierać się na zasadach wolnego rynku eliminując ideologiczne uprzedzenia. Kluczowym elementem nowej polityki jest wzmocnienie globalnej pozycji USA w AI, co ma wspierać konkurencyjność gospodarczą, rozwój ludzkości i bezpieczeństwo narodowe. 

W odróżnieniu od podejścia administracji Bidena, które zakładało bardziej rygorystyczne testy bezpieczeństwa i udostępnianie wyników rządowi, nowa polityka stawia na większą swobodę dla firm technologicznych. Trump określił wcześniejsze regulacje jako zbyt restrykcyjne, co według niego mogło hamować rozwój AI w Stanach Zjednoczonych. 

business ai

Kluczowe elementy rozporządzenia Trumpa 

  1. Uchylenie rozporządzenia EO 14110
    Rozporządzenie Bidena, które miało na celu zapewnienie bezpiecznego i zaufanego rozwoju AI zostało uznane przez administrację Trumpa za nadmiernie ograniczające wolność innowacji. Nowe przepisy otwierają drogę do rewizji wszystkich regulacji i działań wynikających z uchylonego rozporządzenia. 
  2. Wzmocnienie pozycji USA jako globalnego lidera w AI
    Dokument podkreśla, że celem polityki USA jest utrzymanie i rozwój dominacji w dziedzinie sztucznej inteligencji. Ma to na celu wspieranie innowacji technologicznych, konkurencyjności gospodarczej oraz bezpieczeństwa narodowego. 
  3. Opracowanie Planu Działania w Dziedzinie AI
    W ciągu 180 dni od podpisania rozporządzenia specjalni doradcy, w tym Asystent Prezydenta ds. Nauki i Technologii oraz Specjalny Doradca ds. AI i Kryptowalut we współpracy z Asystentem Prezydenta ds. Polityki Ekonomicznej, Asystentem Prezydenta ds. Polityki Krajowej, Dyrektorem Biura Zarządzania i Budżetu (OMB Director) oraz szefami takich departamentów wykonawczych i agencji, które ww. uznają za istotne mają przedstawić plan działania, który określi szczegóły realizacji nowych priorytetów. 
  4. Aktualizacja polityk nadzorczych
    Biuro Zarządzania i Budżetu (OMB) zostało zobowiązane do zaktualizowania istniejących memorandum dotyczących nadzoru nad systemami AI, tak aby były zgodne z nową polityką. 

bialy dom

Znaczenie dla Stanów Zjednoczonych 

1. Wpływ na sektor technologiczny

Nowe rozporządzenie wykonawcze Trumpa może zwiększyć dynamikę innowacji w sektorze AI, usuwając bariery regulacyjne. Dzięki temu firmy technologiczne będą miały większą swobodę w rozwijaniu nowych systemów i aplikacji, co może umocnić globalną pozycję USA w tej dziedzinie. Jednocześnie brak ścisłych regulacji budzi obawy o etyczne wykorzystanie technologii oraz ryzyko nadużyć.

2. Bezpieczeństwo narodowe i konkurencja globalna

Podkreślenie roli AI w kontekście bezpieczeństwa narodowego wskazuje na rosnące znaczenie tej technologii w obronności i wywiadzie. USA, jako lider innowacji, muszą sprostać konkurencji przede wszystkim ze strony Chin, które również intensywnie inwestują w AI. Nowa polityka ma za zadanie zapewnić przewagę technologiczną Stanów Zjednoczonych.

3. Krytyka i kontrowersje

Decyzja o uchyleniu rozporządzenia Bidena spotkała się z krytyką licznych ekspertów, którzy obawiają się, że brak restrykcji może prowadzić do rozwoju niebezpiecznych technologii AI. Alondra Nelson z Center for American Progress ostrzega, że amerykańska opinia publiczna może zostać pozbawiona ochrony przed potencjalnymi szkodami wynikającymi z rozwoju AI.

 

AI Act – pionierskie rozporządzenie dla Sztucznej Inteligencji w UE 

Z kolei Unia Europejska stworzyła inne podejście. AI Act to rozporządzenie, które stawia Unię Europejską na czele globalnych wysiłków w kierunku stworzenia odpowiedzialnych i przejrzystych ram prawnych dla sztucznej inteligencji. Opublikowane 12 lipca 2024 r. w Dzienniku Urzędowym Komisji Europejskiej rozporządzenie ma kluczowe znaczenie dla kształtowania przyszłości technologii AI w Europie, zapewniając jednocześnie wysoki poziom ochrony praw obywateli i konsumentów. 

Rozporządzenie definiuje systemy AI pod kątem ich ryzyka, klasyfikując je na różne poziomy (minimalne, ograniczone, wysokie i niedopuszczalne). Systemy AI o wysokim ryzyku, takie jak te wykorzystywane w ochronie zdrowia, edukacji czy w procesach rekrutacyjnych, będą musiały spełniać szczegółowe wymogi dotyczące bezpieczeństwa, transparentności i niezawodności. Co więcej, zakazano zastosowań sztucznej inteligencji uznanych za niedopuszczalne, takich jak masowy nadzór biometryczny w przestrzeni publicznej czy manipulacja zachowaniami ludzi. 

Porównanie z podejściem USA

W odróżnieniu od bardziej swobodnej polityki USA, Unia Europejska kładzie większy nacisk na prewencję i ochronę praw obywateli. W UE regulacje mają na celu zapobieganie potencjalnym zagrożeniom związanym z AI, takim jak dyskryminacja algorytmiczna, inwigilacja czy manipulacja opinią publiczną. 


Wnioski i perspektywy 

Nowe rozporządzenie wykonawcze prezydenta Trumpa pokazuje, że administracja stawia na rozwój AI jako kluczowy element strategii gospodarczej i technologicznej USA. Polityka wolnorynkowa ma przyciągnąć inwestycje i wspierać innowacyjność, jednak jej skutki uboczne mogą prowadzić do braku odpowiednich zabezpieczeń etycznych i prawnych. 

And the Oscar goes to … AI Brody

Nominacje do Oscarów zostały ogłoszone. Wśród faworytów znalazł się The Brutalist Brady’ego Corbeta, w którym w główną rolę wcielił się Adrien Brody – również nominowany do tej prestiżowej nagrody. Film opowiada historię zmagań architekta żydowskiego pochodzenia, który wyemigrował z powojennej Europy do USA, szukając bezpiecznej przystani dla siebie i swojej żony. Jeszcze przed ogłoszeniem nominacji rozgorzała dyskusja czy Adrien Brody powinien otrzymać nagrodę za swoją fenomenalną kreację aktorską, z uwagi na fakt, że jego akcent, który słyszymy podczas całego filmu, został poprawiony przez narzędzia AI. Jak widać nie miało to znaczenia w kontekście samej nominacji dla Adriena, ale czy ostatecznie kontrowersje wokół wykorzystania AI w filmie będą miały decydujący wpływ na werdykt Amerykańskiej Akademii Filmowej ? 

cinema

AI poprawiło akcent Adriena Brody’ego w The Brutalist – jak technologia zmienia kino? 

W filmie The Brutalist wykorzystano sztuczną inteligencję do subtelnej korekty węgierskiej wymowy aktorów Adriena Brody’ego i Felicity Jones. Montażysta filmu, Dávid Jancsó, ujawnił, że użyto technologii Respeecher, aby poprawić autentyczność dialogów w języku węgierskim. Oboje aktorzy pracowali z trenerem dialektu, jednak producentom zależało na perfekcyjnej wymowie, trudnej do osiągnięcia tradycyjnymi metodami. Czy takie praktyki są przyszłością kina, czy raczej zagrożeniem dla autentyczności występów aktorskich? 

Działanie technologii Respeecher 

 Respeecher to zaawansowane narzędzie do syntezy mowy, które umożliwia przekształcanie głosu jednej osoby w głos innej, zachowując przy tym wszystkie emocje, intonacje i naturalność brzmienia. Proces ten opiera się na algorytmach uczenia maszynowego, które działają w kilku kluczowych etapach:  

  1. Zbieranie danych głosowych – Twórcy najpierw rejestrują próbki głosu docelowego. W przypadku The Brutalist, były to nagrania aktorów, którzy mieli posługiwać się węgierskim akcentem. 
  2. Analiza akustyczna – System Respeecher analizuje unikalne cechy głosu, takie jak barwa, tempo mowy i sposób wymawiania określonych fonemów. 
  3. Uczenie maszynowe – Na podstawie dostarczonych próbek algorytmy uczą się charakterystyki głosu, a następnie generują jego cyfrową wersję, wiernie odzwierciedlającą oryginalne cechy. 
  4. Synteza dźwięku – W procesie końcowym głos aktora jest modyfikowany, aby pasował do wymagań twórców – w tym przypadku chodziło o autentyczne brzmienie węgierskiego akcentu. 

Zaletą tego podejścia jest brak konieczności ponownego nagrywania dialogów przez aktora. Jak podkreślali twórcy filmu, technologia była używana wyłącznie jako narzędzie wspomagające, nie zastępując pracy aktorów. 

ai cinema

AI w przemyśle filmowym – przełom czy zagrożenie? 

Zastosowanie AI w filmach takich jak The Brutalist to jedynie wierzchołek góry lodowej. Technologia znajduje coraz więcej zastosowań w kinematografii: 

  • Efekty specjalne – AI pozwala generować realistyczne efekty wizualne, co obniża koszty produkcji. 
  • Postprodukcja – Narzędzia oparte na AI automatyzują procesy takie jak montaż, korekcja kolorów czy poprawa jakości dźwięku. 
  • Tworzenie scenariuszy – Algorytmy analizujące popularne wątki filmowe mogą sugerować nowe historie. 
  • Digitalizacja aktorów – AI umożliwia odmładzanie lub „ożywianie” zmarłych aktorów w celu wykorzystania ich w nowych produkcjach. (Raindance) 

usa law ai

Prawne i etyczne aspekty wykorzystania AI w kinematografii 

Zastosowanie AI w filmie wiąże się z wieloma pytaniami prawnymi i etycznymi, które stają się coraz bardziej palące wraz z rosnącym wykorzystaniem tej technologii. W przypadku The Brutalist możemy wskazać kilka kluczowych zagadnień: 

  1. Prawa autorskie – Czy cyfrowy głos wygenerowany przez AI należy do aktora, do firmy technologicznej, czy do producentów filmu? Wykorzystanie głosu aktora w formie syntetycznej może rodzić roszczenia dotyczące wynagrodzenia za dodatkowe użycie wizerunku. 
  2. Transparentność – Widzowie nie zostali poinformowani o użyciu Respeecher podczas pierwszych pokazów filmu. Czy twórcy filmowi powinni otwarcie informować o takich praktykach, zwłaszcza gdy wpływają one na odbiór występów? 
  3. Wpływ na zawód aktora – Krytycy obawiają się, że rozwój AI może prowadzić do zmniejszenia zapotrzebowania na aktorów dubbingowych czy nawet na samych aktorów, gdy ich głosy będą mogły być syntetycznie generowane. 

oscar ai

Kontrowersje i wpływ na szanse oscarowe 

 Ujawnienie użycia AI w The Brutalist wywołało kontrowersje w branży filmowej. Pojawiły się obawy, że takie praktyki mogą podważać autentyczność występów aktorskich i prowadzić do etycznych dylematów związanych z wykorzystaniem technologii w sztuce. W kontekście zbliżających się Oscarów, niektórzy eksperci sugerują, że zastosowanie AI w The Brutalist może wpłynąć na szanse Adriena Brody’ego na zdobycie nagrody dla najlepszego aktora. Niemniej jednak, zarówno reżyser, jak i montażysta filmu zapewniają, że AI była jedynie narzędziem wspomagającym, a nie zastępującym talent i pracę aktorów.  

Podsumowanie 

The Brutalist stał się symbolem nowej ery w kinematografii, w której sztuczna inteligencja staje się narzędziem twórczym, ale również przedmiotem kontrowersji. Przypadek Adriena Brody’ego i użycia Respeecher otwiera dyskusję na temat granic technologii w sztuce. Czy AI ma być jedynie wsparciem dla twórców, czy też zdominuje przemysł, zastępując ludzką kreatywność? Jedno jest pewne – przyszłość kina będzie ściśle związana z rozwojem technologii. 

 

Źródła: 

Chat GPT nie działa. Tysiące zgłoszeń od użytkowników

Chat GPT

Ilustracja wygenerowana przez konkurencyjny GoogleGemini

W czwartek, 23 stycznia, popularny Chat GPT przestał działać. Awarię zgłosiły tysiące zaniepokojonych internautów.

Strona internetowa zapewniająca dostęp online do popularnego Chatu GPT w czwartek, 23 stycznia, na chwilę przestała działać. Awaria miała miejsce około godziny 13:00 czasu polskiego, co dobrze widać na wykresie zgłoszeń w serwisie downdetector.pl. Co ciekawe, w tym samym czasie nadal działały strony internetowe firmy OpenAI, która odpowiada za Chat GPT.

W tym samym czasie zgłaszano też problemy z innymi usługami OpenAI. Nie działały modele GPT-4o oraz GPT-4. Niektórzy użytkownicy zaznaczali, że nie otwierają im się strony internetowe chatgpt.com i chat.openai.com. Inni zauważali, że Chat GPT nie odpowiada na ich pytania. Nie reagowały również aplikacje stworzone dla obsługi tego modelu.

Nie byłaby to pierwsza awaria Chatu GPT. W ostatnich kilku tygodniach zdarzały się krótkie przerwy w działaniu usługi. Największa miała miejsce w grudniu, kiedy w Stanach Zjednoczonych doszło do poważnej awarii, skutkującej również błędami pozostałych usług OpenAI.

Stargate Project – nowa era infrastruktury AI w Stanach Zjednoczonych 

Stargate Project to jedno z najbardziej ambitnych przedsięwzięć technologicznych współczesności. W ramach projektu planowane jest zainwestowanie 500 miliardów dolarów w ciągu najbliższych czterech lat na rozwój zaawansowanej infrastruktury AI w Stanach Zjednoczonych, z czego 100 miliardów dolarów zostanie przeznaczone na natychmiastowe działania. Celem inicjatywy jest umocnienie pozycji USA jako lidera w dziedzinie sztucznej inteligencji, stworzenie setek tysięcy nowych miejsc pracy oraz zapewnienie znaczących korzyści ekonomicznych na skalę globalną. 

Stargate ProjectŹródło: www.openai.com/index/announcing-the-stargate-project

Reindustrializacja i wzmocnienie bezpieczeństwa narodowego 

Stargate Project stanowi kluczowy element procesu reindustrializacji Stanów Zjednoczonych, przyczyniając się do powrotu produkcji i inwestycji na amerykańską ziemię. Realizacja tego projektu nie tylko wzmocni strategiczne zdolności USA w zakresie bezpieczeństwa narodowego i ochrony interesów międzynarodowych, ale także przyspieszy rozwój technologii, które mogą zrewolucjonizować funkcjonowanie społeczeństw. To znaczący krok w kierunku budowy przyszłości opartej na innowacjach i zaawansowanych rozwiązaniach technologicznych. 

Kontrowersje wokół projektu Stargate 

Projekt wzbudził nie tylko szerokie zainteresowanie, ale również liczne kontrowersje. Elon Musk, znany miliarder i były współzałożyciel OpenAI, publicznie skrytykował inicjatywę. Podczas gdy prezydent Donald Trump określił projekt jako „największy w historii plan infrastruktury AI”, Musk wyraził sceptycyzm, twierdząc, że inwestorzy, w tym SoftBank, nie dysponują wystarczającymi środkami na jego realizację. 

W poście opublikowanym na platformie X Musk napisał: „SoftBank ma znacznie mniej niż 10 miliardów dolarów zabezpieczonych. Mam to z dobrego źródła.” Jego wypowiedzi dodatkowo podkreśliły trwający konflikt z Samem Altmanem, CEO OpenAI, którego Musk określił jako „Swindly Sam”

Stargate Project

Sztuczna Inteligencja Ogólna (AGI) – przełom dla ludzkości 

Jednym z głównych celów Stargate Project jest rozwój AGI (Artificial General Intelligence) – sztucznej inteligencji ogólnej, zdolnej do myślenia, uczenia się i działania na poziomie porównywalnym z człowiekiem. AGI ma potencjał do przejęcia różnorodnych zadań, które dotychczas wymagały ludzkiej kreatywności i zdolności adaptacyjnych.  

Potencjalny wpływ AGI na świat 

  • Rozwiązywanie globalnych problemów 

AGI może przyczynić się do skuteczniejszego radzenia sobie z wyzwaniami takimi jak zmiany klimatyczne, kryzysy zdrowotne czy społeczne. 

  • Postęp w nauce i edukacji 

Przyspieszy odkrycia naukowe oraz zrewolucjonizuje procesy edukacyjne, umożliwiając spersonalizowane podejście do nauczania. 

  • Poprawa jakości życia 

Automatyzacja skomplikowanych procesów pozwoli ludziom skupić się na kreatywności i innowacjach, redukując obciążenie rutynowymi zadaniami. 

AI

Kluczowe innowacje i współpraca technologiczna 

Stargate Project to owoc współpracy liderów branży technologicznej, którzy łączą siły w celu budowy zaawansowanej infrastruktury AI. Projekt koncentruje się na tworzeniu nowoczesnych centrów danych oraz systemów obliczeniowych o ogromnej mocy, które wspomogą rozwój najnowocześniejszych modeli sztucznej inteligencji. Budowa pierwszego z tych centrów danych już się rozpoczęła w Teksasie. 

 

Źródła: 

  1. Informacje o projekcie pochodzą z oficjalnej strony OpenAI: https://openai.com/index/announcing-the-stargate-project/
  2. Informacje na podstawie artykułu CNN: https://edition.cnn.com/2025/01/21/tech/openai-oracle-softbank-trump-ai-investment/index.html
  3. Dodatkowe dane na podstawie artykułu Politico: https://www.politico.eu/article/us-elon-musk-troll-donald-trump-500b-ai-plan/

Trump zmienia regulacje dotyczące sztucznej inteligencji – nowe podejście do AI w USA

Donald Trump rozpoczął swoją kadencję od znacznych zmian w podejściu do regulacji sztucznej inteligencji (AI). Jednym z pierwszych kroków było uchylenie rozporządzenia wykonawczego Joe Bidena z 2023 roku, które wprowadzało szczegółowe wymogi bezpieczeństwa dla systemów AI. Decyzja ta wzbudziła kontrowersje wśród ekspertów, którzy podkreślają, że brak odpowiednich regulacji może przynieść zarówno szanse, jak i poważne zagrożenia dla społeczeństwa oraz pozycji Stanów Zjednoczonych jako lidera technologicznego.

AI USA

Czego dotyczyło rozporządzenie Bidena dotyczące AI?

Rozporządzenie wykonawcze Joe Bidena miało na celu zapewnienie bezpiecznego i odpowiedzialnego rozwoju sztucznej inteligencji. Skupiało się na kilku kluczowych obszarach:

  1. Standardy bezpieczeństwa i testowanie systemów AI
    Firmy zajmujące się rozwijaniem sztucznej inteligencji były zobowiązane do przeprowadzania testów bezpieczeństwa swoich systemów i dzielenia się wynikami z rządem USA. Miało to na celu zidentyfikowanie potencjalnych zagrożeń, takich jak uprzedzenia algorytmiczne czy ryzyko wykorzystania AI w działaniach zagrażających bezpieczeństwu narodowemu.
  2. Ochrona przed dezinformacją generowaną przez AI
    Departament Handlu miał opracować wytyczne dotyczące znaków wodnych oraz systemów uwierzytelniania treści, aby umożliwić łatwe identyfikowanie materiałów generowanych przez AI. Miało to ograniczyć wpływ dezinformacji i fake newsów na społeczeństwo.
  3. Prywatność i ochrona danych
    Rozporządzenie kładło nacisk na ochronę danych obywateli przed nielegalnym wykorzystywaniem ich do trenowania modeli AI. Choć prezydent Biden wezwał Kongres do przyjęcia odpowiednich ustaw, brakowało wówczas szczegółowych przepisów regulujących tę kwestię.
  4. Zapobieganie dyskryminacji algorytmicznej
    Jeden z kluczowych punktów regulacji dotyczył przeciwdziałania tworzeniu algorytmów AI opartych na niereprezentatywnych danych, które mogłyby prowadzić do dyskryminacji, np. w systemach rekrutacyjnych, sądownictwie czy opiece zdrowotnej.
  5. Bezpieczeństwo w ochronie zdrowia i naukach przyrodniczych
    Administracja Bidena wprowadziła mechanizmy mające na celu zapobieganie wykorzystaniu AI do tworzenia niebezpiecznych materiałów biologicznych. Departament Zdrowia miał opracować programy bezpieczeństwa związane z AI w medycynie, skupiające się na poprawie opieki zdrowotnej i rozwoju innowacyjnych terapii. Ich spełnienie miało być warunkiem uzyskania finansowania federalnego projektów z zakresu nauk przyrodniczych.
  6. Rynek pracy i wpływ AI
    Regulacje zakładały opracowanie zasad chroniących pracowników przed niesprawiedliwym wykorzystaniem AI w systemach oceny wydajności czy rekrutacji.

Więcej o systemach sztucznej inteligencji w stanach możesz przeczytać tutaj:

Warte zaznaczenia jest to, że uchylona wersja rozporządzenia nie jest już nawet dostępna na stronie białego domu, więc rozporządzenie nie tylko zostało uchylone, ale również usunięte razem z wersjami archiwalnymi z oficjalnego źródła. Na ten moment można je znaleźć tylko tutaj.

bialy dom

Dlaczego Trump uchylił rozporządzenie?

Donald Trump argumentował, że przepisy wprowadzone przez Joe Bidena są zbyt rygorystyczne i mogą ograniczać rozwój innowacyjnych technologii. Z perspektywy Republikanów regulacje takie jak obowiązek raportowania testów bezpieczeństwa i dzielenia się informacjami z rządem mogły utrudniać działalność firm technologicznych oraz osłabiać ich konkurencyjność na rynku globalnym.

Trump podkreślił, że podejście USA do AI powinno być mniej biurokratyczne, a bardziej skoncentrowane na wspieraniu innowacji. Decyzja o uchyleniu rozporządzenia wpisuje się w jego filozofię deregulacji i ograniczania ingerencji rządu w sektor prywatny.

Ponadto rozporządzenie Bidena miało na celu zwiększenie bezpieczeństwa rozwoju AI poprzez wprowadzenie standardów transparentności, ograniczenie ryzyka dezinformacji i przeciwdziałanie dyskryminacji algorytmicznej. Firmy technologiczne musiały również udostępniać informacje na temat potencjalnych wad swoich modeli, w tym uprzedzeń AI, co było szczególnie krytykowane przez środowiska związane z Trumpem, jako zagrażające ich konkurencyjności.

Decyzja Trumpa – liberalizacja czy ryzyko?

Decyzja o uchyleniu rozporządzenia wzbudziła mieszane reakcje. Eksperci, tacy jak Alondra Nelson z Center for American Progress, ostrzegają, że brak standardów bezpieczeństwa osłabi ochronę konsumentów przed ryzykami związanymi z AI. Z kolei Alexander Nowrasteh z Cato Institute zauważył, że rezygnacja z niektórych przepisów Bidena, np. ułatwień w imigracji dla specjalistów AI, może mieć negatywne skutki dla sektora.

Zwolennicy Trumpa argumentują jednak, że jego decyzja jest szansą na przyspieszenie rozwoju technologicznego. Podkreślają, że zbyt sztywne regulacje, takie jak wprowadzone w Europie, mogą hamować innowacyjność.

404 Biały dom

Źródło grafiki: strona Białego Domu

Konsekwencje decyzji Trumpa

Eksperci ostrzegają, że brak jasno określonych zasad regulujących rozwój AI może prowadzić do szeregu zagrożeń:

  • Dezinformacja i fake newsy: Brak wytycznych dotyczących uwierzytelniania treści generowanych przez AI może ułatwić rozpowszechnianie fałszywych informacji.
  • Zagrożenia dla bezpieczeństwa narodowego: Bez odpowiednich testów bezpieczeństwa systemy AI mogą być podatne na wykorzystanie w działaniach cyberprzestępczych lub wojennych.
  • Etyka i zaufanie: Brak regulacji zwiększa ryzyko dyskryminacji algorytmicznej oraz naruszeń prywatności, co może osłabić zaufanie społeczeństwa do technologii AI.

Z drugiej strony, zwolennicy decyzji Trumpa podkreślają, że liberalizacja przepisów pozwoli na szybszy rozwój technologii oraz przyciągnięcie inwestycji w sektor AI.

business ai

Czy USA pozostanie liderem w dziedzinie AI?

Decyzja Trumpa o uchyleniu rozporządzenia wykonawczego Bidena otwiera nowy rozdział w podejściu USA do regulacji AI. Podczas gdy Europa skupia się na ochronie praw obywatelskich, Stany Zjednoczone mogą obrać bardziej liberalny kurs, stawiając na swobodę innowacji, ale jednocześnie narażając nawet podstawowe prawa człowieka.

Jednak brak jasno określonych ram prawnych w dłuższej perspektywie może osłabić pozycję USA jako lidera w dziedzinie AI, szczególnie w kontekście współpracy międzynarodowej i tworzenia globalnych standardów. Kluczowe będzie znalezienie równowagi między wspieraniem rozwoju a minimalizowaniem ryzyka, jakie niesie ze sobą ta rewolucyjna technologia.

Sztuczna inteligencja pozostaje jedną z najważniejszych technologii XXI wieku, a decyzje podejmowane w tym tygodniu przez światowych liderów w Stanach Zjednoczonych wpłyną na jej rozwój na dekady.

Jak sztuczna inteligencja usprawnia analizę danych finansowych WOŚP i zwiększa przejrzystość działań charytatywnych?

Sytuacja, w której znalazł się Jerzy Owsiak, omawiana i komentowana w ostatnich dniach w mediach, wywołuje liczne dyskusje i pytania dotyczące prawnych możliwości działania w takich przypadkach. Poniżej wskazujemy kluczowe przepisy prawa dotyczące groźby karalnej, publicznego nawoływania do nienawiści czy naruszenia dóbr osobistych które mogłyby mieć zastosowanie. Incydenty te przypominają jak ważna jest ochrona prawna w sytuacjach, gdy słowa i działania mogą eskalować tak dalece, że mogą przybrać postać czynów zabronionych.  

W drugiej części artykułu przedstawiamy również jak AI rewolucjonizuje analizę danych finansowych, zwiększając przejrzystość i efektywność działań charytatywnych.  

Ostania część artykułu opiera się na rzetelnej analizie raportów finansowych WOŚP, dostępnych na oficjalnej stronie organizacji, i demonstruje praktyczne zastosowanie technologii w sektorze non-profit. 

wosp-2025

grafika: materiały Fundacji WOŚP

Groźby karalne i nawoływanie do nienawiści – aspekty prawne na przykładzie głośnej sprawy Jerzego Owsiaka 

Jerzy Owsiak, prezes Fundacji Wielkiej Orkiestry Świątecznej Pomocy (WOŚP) w ubiegłym tygodniu zgłosił organom ścigania fakt wystąpienia gróźb karalnych oraz publicznego nawoływanie do nienawiści wobec niego i Fundacji. Groźby telefoniczne i mailowe, w tym wezwania do przemocy, wzbudziły u prezesa Fundacji WOŚP uzasadnioną obawę ich spełnienia. Owsiak wskazał również na działania medialne, które uznał za manipulacyjne i eskalujące negatywne emocje wobec niego i WOŚP. Fundacja w efekcie wprowadziła zakaz wstępu do siedziby fundacji dla określonych redakcji i telewizji.  

WOŚP Marcin Michon

Materiały Fundacji WOŚP – fotograf Marcin Michon

Groźby karalne – kiedy mamy do czynienia z przestępstwem? 


Art.  190. KK [Groźba karalna] 

  1. Kto grozi innej osobie popełnieniem przestępstwa na jej szkodę lub na szkodę osoby dla niej najbliższej, jeżeli groźba wzbudza w osobie, do której została skierowana lub której dotyczy, uzasadnioną obawę, że będzie spełniona, podlega karze pozbawienia wolności do lat 3.
  2. Ściganie następuje na wniosek pokrzywdzonego.

Zgodnie z art. 190 Kodeksu karnego groźba karalna polega na grożeniu innej osobie popełnieniem przestępstwa na jej szkodę lub szkodę osoby najbliższej, jeśli wzbudza w niej uzasadnioną obawę, że zostanie spełniona. Kluczowe są tutaj: 

  1. Obiektywne przesłanki – czy przeciętna osoba w podobnych okolicznościach uznałaby groźbę za realną. 
  2. Subiektywne odczucia pokrzywdzonego – jak groźba wpływa na konkretną osobę. 

W przypadku Jerzego Owsiaka i pracowników WOŚP groźby były kierowane zarówno telefonicznie, jak i drogą mailową. Chociaż nagrania rozmów nie zachowały się, wiadomości e-mail stanowią istotny dowód w sprawie, który może zostać wykorzystany w postępowaniu. 

Nawoływanie do nienawiści – konsekwencje prawne 


Art.  255. KK [Publiczne nawoływanie do popełnienia występku lub przestępstwa skarbowego] 

  1. Kto publicznie nawołuje do popełnienia występku lub przestępstwa skarbowego, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat 2.
  2. Kto publicznie nawołuje do popełnienia zbrodni, podlega karze pozbawienia wolności do lat 3.
  3. Kto publicznie pochwala popełnienie przestępstwa, podlega grzywnie do 180 stawek dziennych, karze ograniczenia wolności albo pozbawienia wolności do roku.

Działania polegające na publicznym nawoływaniu do nienawiści zgodnie z art. 255 Kodeksu karnego mogą prowadzić do odpowiedzialności karnej. W przypadku WOŚP, prezes Fundacji wskazał na działania medialne prowadzone przez określone stacje telewizyjne i redakcje. Według niego mogą one nosić znamiona manipulacji i eskalowania negatywnych emocji wobec Fundacji i jej działalności, co w wyniku silnych emocji społecznych, które są dodatkowo eskalowane i podsycane, może skończyć się bardzo poważnie (wskazać tu należy w szczególności przypadek prezydenta Gdańska Pana Pawła Adamowicza). 

WOŚP Paweł Krup

Materiały Fundacji WOŚP – fotograf Paweł Krup

Zniesławienie i zniewaga – ochrona wizerunku i godności 

Idąc dalej działania medialne, które naruszają wizerunek i dobre imię Fundacji mogą potencjalnie stanowić również formę zniesławienia (art. 212 KK) lub zniewagi (art. 216 KK). 

Zniesławienie dotyczy sytuacji, gdy osoba lub instytucja zostaje pomówiona o działania, które mogą poniżyć ją w opinii publicznej. 


Art.  212.  KK [Zniesławienie] 

  1. Kto pomawia inną osobę, grupę osób, instytucję, osobę prawną lub jednostkę organizacyjną niemającą osobowości prawnej o takie postępowanie lub właściwości, które mogą poniżyć ją w opinii publicznej lub narazić na utratę zaufania potrzebnego dla danego stanowiska, zawodu lub rodzaju działalności, podlega grzywnie albo karze ograniczenia wolności.
  2. Jeżeli sprawca dopuszcza się czynu określonego w § 1 za pomocą środków masowego komunikowania, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku.
  3. W razie skazania za przestępstwo określone w § 1 lub 2 sąd może orzec nawiązkę na rzecz pokrzywdzonego, Polskiego Czerwonego Krzyża albo na inny cel społeczny wskazany przez pokrzywdzonego.
  4. Ściganie przestępstwa określonego w § 1 lub 2 odbywa się z oskarżenia prywatnego.

Zniewaga obejmuje wypowiedzi lub gesty godzące w godność osoby, również w obecności innych. 


Art.  216. KK  [Zniewaga]

  1. Kto znieważa inną osobę w jej obecności albo choćby pod jej nieobecność, lecz publicznie lub w zamiarze, aby zniewaga do osoby tej dotarła, podlega grzywnie albo karze ograniczenia wolności. 
  2. Kto znieważa inną osobę za pomocą środków masowego komunikowania, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku. 
  3. Jeżeli zniewagę wywołało wyzywające zachowanie się pokrzywdzonego albo jeżeli pokrzywdzony odpowiedział naruszeniem nietykalności cielesnej lub zniewagą wzajemną, sąd może odstąpić od wymierzenia kary.
  4. W razie skazania za przestępstwo określone w § 2 sąd może orzec nawiązkę na rzecz pokrzywdzonego, Polskiego Czerwonego Krzyża albo na inny cel społeczny wskazany przez pokrzywdzonego.
  5. Ściganie odbywa się z oskarżenia prywatnego.

Oba przestępstwa są ścigane z oskarżenia prywatnego, co oznacza konieczność wniesienia aktu oskarżenia przez pokrzywdzonego. Pomoc adwokata, bądź radcy prawnego jest w takich sytuacjach nieoceniona. 

Naruszenie dóbr osobistych – działania cywilne 

W sytuacjach takich jak ta, pokrzywdzony może również skorzystać z ochrony cywilnoprawnej na podstawie przepisów o ochronie dóbr osobistych. Obejmuje to możliwość żądania: 

  • Zadośćuczynienia finansowego. 
  • Publicznych przeprosin. 
  • Zaprzestania działań naruszających dobra osobiste i usunięcia jego skutków. 

groźba fake news

Jak działać w przypadku gróźb lub pomówień? 

  1. Zgłoś podejrzenie popełnienia przestępstwa odpowiednim służbom – zawiadom policję lub prokuraturę o groźbach lub wypowiedziach mogących mieć charakter znieważający lub zniesławiający. W przypadku groźby karalnej należy również złożyć wniosek o ściganie. Wniosek można złożyć ustnie do protokołu, a także na piśmie. 
  2. Zabezpiecz dowodye-maile, nagrania rozmów, czy inne formy dokumentacji są kluczowe dla potwierdzenia zarzutów (w obawie przed usunięciem dowodów warto przygotować zrzuty ekranu lub zabezpieczyć dane na stronie internetowej lub w social mediach protokołem notarialnym). 
  3. Korzystaj z pomocy prawnejadwokat, bądź radca prawny pomoże w sporządzeniu zawiadomienia, a także wesprze w toku postępowania karnego lub cywilnego. Warto pamiętać, że zarówno adwokaci lub radcowie prawni świadczą, m.in. w tych przypadkach wsparcie również nieodpłatnie (z urzędu). 

WOŚP Łukasz Widziszowski

Materiały Fundacji WOŚP – fotograf Łukasz Widziszowski

WOŚP – działalność społeczna w cieniu gróźb 

Fundacja WOŚP od 1993 roku wspiera polską służbę zdrowia, zbierając na jej cele dotychczas blisko 2,3 miliarda złotych. Pomimo nieocenionego wkładu w system opieki zdrowotnej, jej działalność bywa celem ataków, co pokazuje jak ważne są skuteczne mechanizmy ochrony prawnej, ale również – nakierowanie na rzetelną ocenę informacji. 

W związku z tym za każdym razem warto zwrócić szczególną uwagę na tzw. fake newsy pojawiające się mediach lub telewizji, które często już na pierwszy rzut oka odróżniają się od innych informacji (są agresywne, odwołują się do nieistniejących osób lub zdarzeń). Wśród fake newsów występuje wiele: krzykliwych nagłówków, tendencyjnych manipulacji pojawiających się w wypowiedziach różnych osób, czy zmanipulowanych obrazów lub video. W tym celu (w szczególności, jeżeli fake newsy dotyczą NGO / organizacji pozarządowych) warto skorzystać z serwisu Demagog.  

Stowarzyszenie Demagog to pierwsza polska organizacja factcheckingowa. Od 2014 roku weryfikuje wypowiedzi polityków, walczy z fake newsami i dezinformacją. Ponadto to również zespół analityków i edukatorów, dla których fakty mają znaczenie. Misją organizacji jest walka z fałszywymi informacjami i dezinformacją oraz dostarczanie obywatelom rzetelnych, bezstronnych i sprawdzonych informacji. 

Do analiz dotyczących fake newsów można skorzystać również ze sztucznej inteligencji.

sztuczna inteligencja WOŚP

Jak sztuczna inteligencja usprawnia analizę danych finansowych WOŚP i zwiększa przejrzystość działań charytatywnych 

  1. Automatyzacja pozyskiwania danych: OCR jako kluczowe narzędzie w analizie raportów finansowych WOŚP

dane OCR

  • Precyzyjne Pobieranie Danych ze Źródeł Oficjalnych: Pierwszym krokiem w procesie analizy jest pozyskanie danych. W przypadku WOŚP, głównym źródłem informacji są szczegółowe raporty finansowe, publikowane corocznie w formie obrazów na oficjalnej stronie internetowej fundacji. Moduły AI odpowiedzialne za pobieranie danych automatycznie pozyskują te obrazy, eliminując potrzebę ręcznego wprowadzania danych. Obrazy, zawierające rozliczenia, dostępne są tutaj: https://www.wosp.org.pl/fundacja/wazne/rozliczenia 
  • Optyczne Rozpoznawanie Znaków (OCR) w Służbie Dobra: Technologia Optycznego Rozpoznawania Znaków (OCR) odgrywa kluczową rolę. Algorytmy OCR dokładnie analizują obrazy raportów, przekształcając zawarte w nich informacje tekstowe i liczbowe (daty, kwoty, opisy) na format cyfrowy, umożliwiający dalsze przetwarzanie i analizę. Jest to kluczowy element w automatyzacji analizy raportów finansowych. 
  • Inteligentna Strukturyzacja Danych Finansowych: Pozyskane dane są następnie porządkowane i kategoryzowane. Algorytmy AI automatycznie klasyfikują informacje, rozdzielając je na czytelne sekcje, takie jak: wydatki na sprzęt medyczny, koszty realizacji programów medycznych, koszty administracyjne, darowizny rzeczowe i inne. Dzięki temu raporty finansowe WOŚP stają się bardziej czytelne i zrozumiałe, bez potrzeby dysponowania ekspercką wiedzą dla ich analizy. 
  1. Obiektywna analiza danych finansowych WOŚP: wnioski wyciągnięte przez AI i ich znaczenie dla darczyńców 

analiza ai wośp

  • Wizualizacja Danych dla Lepszego Zrozumienia: Na podstawie przetworzonych danych, AI generuje przejrzyste wizualizacje, w tym wykresytabele. Ułatwiają one darczyńcom i wszystkim zainteresowanym szybki przegląd kluczowych informacji, trendów w finansach WOŚP oraz struktury wydatków. 
  • Szczegółowa Analiza Struktury Wydatków: Dogłębna analiza danych, wsparta algorytmami AI, pozwala precyzyjnie określić, na jakie cele WOŚP przeznacza pozyskane środki. Dla przykładu, z analizy jasno wynika, że znacząca część budżetu jest konsekwentnie inwestowana w zakup specjalistycznego sprzętu medycznego dla szpitali w całej Polsce, co bezpośrednio przekłada się na poprawę jakości opieki zdrowotnej. 
  • Identyfikacja Zmian i Trendów na Przestrzeni Lat: Algorytmy AI umożliwiają śledzenie zmian w strukturze wydatków WOŚP na przestrzeni kolejnych finałów. Przykładowo, analiza może wykazać wzrost wydatków w określonych obszarach, takich jak wsparcie dla konkretnych programów medycznych, lub elastyczne reagowanie na bieżące potrzeby, jak w przypadku zwiększenia wydatków na walkę z COVID-19 w 27. Finale. 
  • Ocena Efektywności Kosztowej i Optymalizacja Działań: AI może również wspierać analizę kosztów administracyjnych i operacyjnych WOŚP, identyfikując potencjalne obszary do optymalizacji i zwiększenia efektywności wykorzystania każdej złotówki przekazanej przez darczyńców. 
  • Historie Ukryte w Danych: Realny Wpływ na Życie Ludzi: Należy podkreślić, że za każdym wierszem tabeli i każdym słupkiem na wykresie kryją się realne historie ludzkie. Zakupiony przez WOŚP sprzęt medyczny ratuje życie i zdrowie pacjentów w całej Polsce, a wsparcie programów medycznych przekłada się na poprawę jakości życia wielu osób. Każda liczba w raporcie finansowym WOŚP to nie tylko suchy fakt, ale przede wszystkim świadectwo realnej pomocy i dobra niesionego potrzebującym. To setki tysięcy uratowanych istnień i uśmiechów na twarzach dzieci oraz ich rodziców. Dane zyskują prawdziwą wartość, gdy uświadomimy sobie, że są one odzwierciedleniem realnego wpływu na życie ludzi, którym WOŚP niesie pomoc. 
  1. Dlaczego AI jest tak skutecznym narzędziem w analizie danych organizacji charytatywnych? Korzyści dla WOŚP i darczyńców 

ai analitics

  • Efektywność i Automatyzacja: Automatyzacja procesu pozyskiwania i przetwarzania danych, dzięki AIOCR, znacząco redukuje czas i nakład pracy potrzebny do przygotowania kompleksowych raportów finansowych. Pozwala to pracownikom i wolontariuszom WOŚP skupić się na realizacji celów statutowych. 
  • Przejrzystość i Wiarygodność: Zastosowanie obiektywnych i precyzyjnych algorytmów AI do analizy danych WOŚP zwiększa transparentnośćwiarygodność prezentowanych informacji. Darczyńcy mogą mieć pewność, że dane są analizowane w sposób rzetelny i bezstronny, co buduje zaufanie do organizacji. 
  • Skalowalność: Systemy oparte na AI mogą przetwarzać ogromne ilości danych, niezależnie od skali organizacji i liczby raportów finansowych. To kluczowe dla dynamicznie rozwijających się organizacji, takich jak WOŚP. 
  • Wykrywanie Trendów i Wzorców dla Lepszego Planowania: Zaawansowane algorytmy uczenia maszynowego potrafią identyfikować ukryte wzorce i trendy w danych finansowych WOŚP. Dostarczają one cennych informacji, które wspierają strategiczne planowanie i podejmowanie decyzji, pozwalając na jeszcze efektywniejsze niesienie pomocy. 
  1. Perspektywy rozwoju i wnioski: WOŚP jako wzór do naśladowania

WOŚP AI

Wykorzystanie sztucznej inteligencji w analizie danych finansowych Wielkiej Orkiestry Świątecznej Pomocy stanowi doskonały przykład efektywnego zastosowania nowoczesnych technologii w sektorze charytatywnym. Automatyzacja, obiektywizm analizy i możliwość generowania szczegółowych raportów przyczyniają się do zwiększenia przejrzystości, efektywności i wiarygodności działania organizacji.  

Przykład WOŚP może stanowić inspirację dla innych podmiotów działających w obszarze dobroczynności, wskazując na korzyści płynące z adaptacji innowacyjnych rozwiązań technologicznych. Dalszy rozwój i implementacja AI w tym sektorze mogą przynieść jeszcze większe usprawnienia w zarządzaniu finansami i realizacji celów statutowych organizacji charytatywnych. Warto jednak pamiętać, że technologia jest tylko narzędziem, a prawdziwa wartość płynie z ludzkiego serca i chęci niesienia pomocy. To właśnie empatia i zaangażowanie, połączone z mocą analityczną AI, tworzą siłę zdolną do realnej zmiany świata na lepsze. 

Źródła: 

Podsumowanie 

Ochrona przed groźbami, zniesławieniem i mową nienawiści wymaga świadomego korzystania z dostępnych narzędzi prawnych, ale i technologicznych. W przypadku incydentów takich jak te, zgłoszone przez Jerzego Owsiaka możliwe są zarówno działania karnoprawne, jak i ochrona dóbr osobistych na drodze cywilnej. Skuteczna reakcja pozwala nie tylko na obronę przed dalszymi atakami, ale także na budowanie świadomości społecznej na temat konsekwencji takich działań. 

Pamiętajmy – jeśli jakaś informacja budzi nasze wątpliwości warto ją sprawdzić i sięgnąć do źródła. Technologia, w zakresie wskazanym powyżej, może nam pomóc nie tylko zweryfikować prawidłowość danych czy informacji, ale również ich należytą interpretację. 

Dlaczego boimy się prostej spółki akcyjnej (PSA)? 

Prosta spółka akcyjna (PSA) jest stosunkowo nową formą prawną, która została wprowadzona do polskiego systemu prawnego zaledwie w 2021 r. Jej głównym celem jest ułatwienie prowadzenia działalności gospodarczej, co może być szczególnie przydatne zwłaszcza dla młodych przedsiębiorców i StartUp’ów (w tym technologicznych, zajmujących się min. AI, czy GameDev).  

Pomimo licznych zalet PSA budzi pewne obawy i niepewność wśród potencjalnych założycieli. W związku z czym zachęcamy do zapoznania się z podsumowaniem stworzonym za pomocą Open AI Chat GPT oraz Google Gemini, a także komentarzem naszego specjalisty, który rozwieje Wasze wątpliwości.  

Komentarz Open AI Chat GPT oraz Google Gemini  

ai Nowość 

Prosta Spółka Akcyjna (PSA) jest stosunkowo nową formą prawną z czym wiąże się jej niewielka popularność. Brak długotrwałej praktyki prawnej może prowadzić do niepewności potencjalnych przedsiębiorców co do interpretacji przepisów i ich zastosowania w rzeczywistych sytuacjach biznesowych. Ponadto PSA jest mniej znana wśród społeczenstwa niż tradycyjne formy prawne – np. takie jak spółka z ograniczoną odpowiedzialnością (sp. z o.o.). Może to utrudniać nawiązywanie relacji biznesowych i zdobywanie zaufania partnerów.  

Niski kapitał zakładowy 

PSA wymaga minimalnego kapitału zakładowego w wysokości zaledwie 1 zł. Dla wielu przedsiębiorców może to wydawać się zbyt niskie, co budzi obawy o wiarygodność finansową spółki w oczach kontrahentów i inwestorów. Wiąże się to również z potencjalnym ryzykiem dot. nadużyć – niska bariera wejścia i duża elastyczność tego typu działalności mogą sprzyjać nadużyciom ze strony nieuczciwych akcjonariuszy.  

Elastyczność w kształtowaniu stosunków między akcjonariuszami 

PSA oferuje dużą elastyczność w kształtowaniu uprawnień i obowiązków akcjonariuszy. Może to prowadzić do nieporozumień i konfliktów, zwłaszcza w przypadku większej liczby akcjonariuszy.  

Prosta spółka akcyjna jest korzystnym rozwiązaniem dla startup’ów  

Niski koszt założenia oraz bezpieczenstwo finansowe 

Założenie PSA jest tańsze niż sp. z o.o. ze względu na niski kapitał zakładowy. Ponadto podobnie jak w przypadku sp. z o.o., akcjonariusze PSA odpowiadają za zobowiązania spółki jedynie do wysokości swoich wkładów.  

Elastyczność w zarządzaniu oraz możliwości jakie daje PSA 

PSA oferuje większą elastyczność w zarządzaniu spółką, co może być korzystne dla dynamicznie rozwijających się przedsiębiorstw. Ponadto prosta spółka akcyjna umożliwia ubezpieczanie od odpowiedzialności cywilnej oraz pozyskiwanie kapitału w formie emisji.  

Prostsze procedury i rosnąca popularność 

PSA wymaga prostszych procedur rejestracyjnych i operacyjnych, co przyspiesza proces zakładania i prowadzenia działalności.   

Czy wiesz, że już dzisiaj możesz założyć prostą spółkę akcyjną poprzez portal S24? Wystarczy skorzystać z serwisu: https://ekrs.ms.gov.pl/s24/strona-glowna 

Wsparcie prawne i instytucjonalne 

Instytucje publiczne oferują różne programy wsparcia dla przedsiębiorców, w tym dla tych, którzy decydują się na PSA oprócz tego powstają liczne platformy i portale, które wspierają zarządzanie PSA, oferując narzędzia i usługi dostosowane do tej formy prawnej.  

Walne zgromadzenia w PSA – nowoczesne rozwiązania i ułatwienia dla akcjonariuszy – komentarz specjalisty  

Walne zgromadzenia w Prostej Spółce Akcyjnej (PSA) to innowacyjne rozwiązania, które znacząco ułatwiają proces podejmowania decyzji przez akcjonariuszy. PSA, jako forma prawna wprowadzona w Polsce, stawia na elastyczność i nowoczesność, co znajduje odzwierciedlenie również w organizacji walnych zgromadzeń.  

zgromadzenie meeting

Ułatwienia w Protokołowaniu Walnych Zgromadzeń 

Jednym z kluczowych ułatwień wprowadzonych przez PSA jest brak konieczności protokołowania walnych zgromadzeń przez notariusza, co jest standardem w tradycyjnych spółkach akcyjnych. Wyjątek stanowią jedynie uchwały dotyczące zmiany umowy spółki, które wymagają protokołu sporządzonego przez notariusza. Jest to znaczące ułatwienie, które redukuje koszty i formalności związane z organizacją walnych zgromadzeń.  

Różnorodność Form Głosowania 

PSA oferuje szeroki wachlarz rozwiązań dotyczących organizacji walnych zgromadzeń, zarówno stacjonarnych, jak i online. Akcjonariusze mogą głosować na walnym zgromadzeniu, ale także poza nim, na piśmie lub przy wykorzystaniu środków komunikacji elektronicznej. To elastyczne podejście umożliwia akcjonariuszom uczestnictwo w głosowaniach bez względu na ich lokalizację, co jest szczególnie ważne w dobie cyfryzacji i globalizacji biznesu.  

Protokoły i Dokumentacja 

Uchwały walnego zgromadzenia w PSA umieszcza się w protokole, który zawiera informacje o prawidłowości zwołania zgromadzenia, jego zdolności do podejmowania uchwał oraz same uchwały. Do protokołu dołącza się dowody zwołania zgromadzenia, listę obecności oraz listę akcjonariuszy głosujących elektronicznie. Uchwały powinny być podpisane przez obecnych lub przynajmniej przez przewodniczącego i osobę sporządzającą protokół. Akcjonariusze ponadto mają prawo przeglądać księgę protokołów oraz żądać wydania poświadczonych odpisów uchwał.  

Kapitał akcyjny w PSA 

Jedną z najważniejszych cech PSA, która została już wyróżniona przez OPEN AI Chat GPT oraz Gemini jest bardzo niski wymagany kapitał akcyjny, wynoszący zaledwie 1 zł. To znaczące ułatwienie dla młodych przedsiębiorców i startupów, które nie dysponują dużymi środkami finansowymi. Kapitał akcyjny może być pokryty zarówno wkładami pieniężnymi, jak i niepieniężnymi, takimi jak udziały w innej spółce, rzeczy ruchome (np. samochód, wyposażenie biura) czy nawet świadczenie pracy lub usług. Co więcej, wysokość kapitału akcyjnego nie jest określana w umowie spółki, co daje dodatkową elastyczność w zarządzaniu finansami spółki.  

Rejestr akcjonariuszy i Rada Nadzorcza 

Rejestr akcjonariuszy w PSA może być prowadzony przez notariusza lub podmiot uprawniony do prowadzenia rachunków papierów wartościowych. Jest to istotne ułatwienie, ponieważ zapewnia bezpieczeństwo i integralność danych zawartych w rejestrze. Rejestr jest prowadzony w formie elektronicznej, co ułatwia dostęp do informacji i zarządzanie akcjami.  

Rada nadzorcza z kolei jest organem fakultatywnym, co oznacza, że jej ustanowienie nie jest obowiązkowe. To elastyczne podejście pozwala na dostosowanie struktury zarządzania spółką do konkretnych potrzeb przedsiębiorcy. W umowie spółki można przewidzieć ustanowienie rady nadzorczej, ale nie jest to wymagane.  

Jak założyć prostą spółkę akcyjną?  

W Polsce istnieje kilka form prawnych spółek, takich jak spółka z ograniczoną odpowiedzialnością (sp. z o.o.), spółka jawna, spółka komandytowa oraz omawiana prosta spółka akcyjna (PSA). Każda z tych form może zostać założona na dwa sposoby: tradycyjnie lub przez internet. Aby założyć spółkę online wystarczy skorzystać z serwisu: https://ekrs.ms.gov.pl/s24/ 

Jakie informacje będą potrzebne do założenia PPS?

1. Dane wspólników 

  1. Osoba fizyczna: 
  • imię i nazwisko  
  • PESEL 
  • adres zamieszkania/ do doręczeń  
  • adres e-mail  
  1. Sp. k: 

  • nazwa  
  • nr KRS  
  • adres do doręczeń  
  • adres do doręczeń komplementariusza  
  • informacja o sposobie rejestracji spółki (przez S24/ tradycyjnie)  
  • adresy e-mail wspólników 

2. Dane dot. spółki

  1. Nazwa 
  2. Siedziba + adres siedziby 
  3. Wysokość kapitału zakładowego 
  4. Wartość nominalna jednego udziału 
  5. Informacja o podziale udziałów pomiędzy osobę fizyczną a sp.k. i wysokości wkładów 
  6. Informacja o roku obrotowym (czy pokrywa się z kalendarzowym) 
  7. PKD + przedmiot przeważającej działalności
  8. Czas trwania spółki (oznaczony/ nieoznaczony)
  9. Sposób reprezentacji
  10. Informacje dot. zarządu tj: 
  • z ilu osób może składać się zarząd (np.od 1 do 3),  
  • imiona i nazwiska, numery PESEL oraz adresy do doręczeń osób wchodzących w skład zarządu 
  • funkcja poszczególnych osób w zarządzie (prezes/ członek zarządu)  
  • kadencja członka Zarządu, 
  1. Informacja czy ma być powołana rada nadzorcza. Jeśli tak: 
  • informacja o liczbie członków RN  
  • imiona i nazwiska, numery PESEL oraz adresy do doręczeń osób wchodzących w skład RN  
  • funkcja poszczególnych osób w RN (przewodniczący/ członek) 
  • kadencja członka RN  
  1. Informacja czy zaciągnięcie zobowiązania do świadczenia o wartości dwukrotnie przewyższającej wysokość kapitału zakładowego Spółki wymaga uchwały, 
  2. Informacja czy spółka ma posiadać jakieś odziały 

PSA

Prosta Spółka Akcyjna to nowoczesna forma prawna, która dostosowuje się do potrzeb współczesnego biznesu, oferując elastyczność i ułatwienia w organizacji walnych zgromadzeń. Dzięki możliwości głosowania na piśmie lub elektronicznie, a także braku konieczności protokołowania przez notariusza (z wyjątkiem uchwał dotyczących zmiany umowy spółki). Ponadto niski wymagany kapitał akcyjny, elastyczność w jego pokrywaniu, możliwość prowadzenia rejestru akcjonariuszy przez notariusza oraz fakultatywność rady nadzorczej to tylko niektóre z zalet PSA. Dzięki tym cechom prosta spółka akcyjna staje się atrakcyjną opcją dla przedsiębiorców poszukujących efektywnych i kosztowo korzystnych rozwiązań.  

 Przepisy przywołane w artykule: 

  • Art. 300(80)[Uchwały akcjonariuszy]   
  • Art. 300(100)[Protokół]   
  • Art. 300(3)[Kapitał akcyjny]   
  • Art. 300(31)[Zadania podmiotu prowadzącego rejestr akcjonariuszy]   
  • Art. 300(52)[Zarząd, rada dyrektorów]  

Źródła:  

www.biznes.gov.pl/pl/portal/00168  

Amerykańskie restrykcje eksportowe na układy AI: co oznaczają dla świata, branży gier i … Polski?

Stany Zjednoczone wprowadziły nowe restrykcje eksportowe na zaawansowane układy scalone i modele sztucznej inteligencji (AI). Oficjalnym celem jest ochrona bezpieczeństwa narodowego. Konsekwencje tych działań mogą jednak odczuć firmy na całym świecie – w tym w branży gier, a nawet w Polsce. W poniższym artykule wyjaśniamy, na czym dokładnie polegają te ograniczenia, kogo dotyczą oraz jakie mogą mieć długofalowe skutki dla rozwoju AI.

usa ai

Czym są nowe restrykcje?

Główne założenia znajdują się w dokumencie „Framework for Artificial Intelligence Diffusion”, wydanym przez Biuro Przemysłu i Bezpieczeństwa (BIS) Departamentu Handlu USA. Dokument wprowadza ograniczenia w eksporcie zaawansowanych układów scalonych (IC) oraz wag modeli AI do wybranych państw. Restrykcje mają uniemożliwić nieautoryzowane użycie tych technologii w obszarach, które potencjalnie mogłyby zagrażać interesom i bezpieczeństwu Stanów Zjednoczonych.


Dlaczego Stany Zjednoczone wprowadzają ograniczenia?

Kluczowe obawy amerykańskich władz dotyczą wykorzystania zaawansowanych technologii w sposób sprzeczny z interesami USA. Wśród potencjalnych zagrożeń wymienianych przez rządowych ekspertów znalazły się m.in.:

  1. Wojskowe i wywiadowcze zastosowania AI przez państwa uznawane za potencjalnych przeciwników.
  2. Rozwój broni masowego rażenia, wspierany przez algorytmy AI w procesach projektowania i produkcji.
  3. Ryzyko zaawansowanych cyberataków, ułatwianych przez potężne układy scalone i metody uczenia maszynowego.
  4. Masowa inwigilacja obywateli z wykorzystaniem technologii rozpoznawania twarzy i analizy danych.

Restrykcje mają zapobiegać dostępowi do tych rozwiązań podmiotom mogącym destabilizować sytuację międzynarodową lub zagrażać bezpieczeństwu USA. Jednocześnie Stany Zjednoczone chcą umożliwić ich stosowanie tym krajom i firmom, które przestrzegają zasad bezpieczeństwa i wykorzystują układy AI w sposób odpowiedzialny.

usa ai

Jakie procesory obejmują restrykcje?

Ograniczenia dotyczą przede wszystkim wysokowydajnych układów obliczeniowych, kluczowych w procesach trenowania i wdrażania zaawansowanych modeli AI. Wśród nich wymienia się:

  • GPU (Graphical Processing Units), m.in. Nvidia A100, H100
  • TPU (Tensor Processing Units), takie jak Google TPU
  • Neural Processors, In-memory Processors, Vision Processors
  • Specjalistyczne układy ASIC (Application-Specific Integrated Circuits)
  • Programowalne FPLD (Field-Programmable Logic Devices)

To właśnie tego typu układy pozwalają budować i trenować najbardziej złożone sieci neuronowe, wykorzystywane np. w systemach analizy obrazu, rozpoznawania mowy czy przetwarzania języka naturalnego.


Czy gracze mają powody do obaw?

Chociaż restrykcje koncentrują się głównie na procesorach przeznaczonych do centrów danych i profesjonalnych zastosowań AI, niektóre wysokowydajne GPU wykorzystywane w laptopach gamingowych mogą spełniać kryteria opisane w dokumencie BIS. Jednak:

  • Producenci tacy jak Nvidia nie ujawniają szczegółowych specyfikacji, co utrudnia ocenę, czy dany model GPU podlega restrykcjom.
  • Większość gamingowych kart graficznych ma jednak znacznie niższą moc obliczeniową niż układy używane w centrach danych, więc ryzyko ograniczeń w obszarze gier pozostaje stosunkowo niewielkie.

pl usa ai

Dlaczego Polska znalazła się na liście?

Zaskoczenie budzi fakt, że Polska również figuruje na liście krajów objętych limitami. Ustalony przez władze USA roczny limit importu chipów z USA do Polski wynosi 50 tysięcy sztuk, z możliwością zwiększenia go do 100 tysięcy.

  • Wiceminister cyfryzacji Dariusz Standerski przyznaje, że w perspektywie krótkoterminowej nie powinno to istotnie zaszkodzić rozwojowi AI w Polsce.
  • W dłuższym horyzoncie czasowym limit może jednak spowolnić inwestycje w najnowocześniejsze rozwiązania AI oraz ograniczyć dostęp polskich firm do najnowszych układów scalonych.

Reakcja Nvidii i Komisji Europejskiej

Nowe regulacje spotkały się z krytyką ze strony kluczowych graczy na rynku technologii oraz przedstawicieli Unii Europejskiej:

  • Nvidia oficjalnie wyraziła obawę, że restrykcje ograniczą innowacje i globalną konkurencyjność amerykańskiego sektora technologicznego.
  • Komisja Europejska opublikowała oświadczenie, w którym podkreśla znaczenie bezpiecznego transatlantyckiego łańcucha dostaw w dziedzinie AI. Komisja uważa, że swobodny zakup chipów AI od firm z USA leży zarówno w interesie gospodarczym, jak i bezpieczeństwie Stanów Zjednoczonych, i liczy na znalezienie konstruktywnego kompromisu z amerykańską administracją.

usa law ai

Potencjalne konsekwencje nowych przepisów

Wprowadzenie restrykcji eksportowych tworzy niepewność na rynku zaawansowanych technologii. Oto kilka scenariuszy, które mogą się zrealizować:

  1. Dalsze zaostrzenie restrykcji – USA mogą rozszerzyć listę objętych ograniczeniami rozwiązań lub krajów.
  2. Łagodzenie przepisów – pod wpływem presji międzynarodowej i lobby przemysłowego Stany Zjednoczone mogą przyznać licencje na eksport niektórych układów.
  3. Wzrost cen i opóźnienia w dostawach – ograniczona dostępność układów scalonych może wpłynąć na wyższe koszty dla producentów i konsumentów, a także powodować przestoje w produkcji.
  4. Rozwój alternatywnych technologii – kraje objęte restrykcjami mogą zdecydować się na budowanie własnego ekosystemu rozwiązań AI i uniezależnienie się od dostaw z USA.
  5. Współpraca międzynarodowa – państwa dotknięte restrykcjami mogą zacieśnić relacje w obszarze badawczo-rozwojowym, tworząc nowe inicjatywy i projekty w dziedzinie sztucznej inteligencji.

Wpływ na rozwój AI i innowacje

Brak dostępu do najnowocześniejszych chipów i modeli AI może skutecznie utrudnić prowadzenie badań, zwłaszcza w państwach oraz firmach, które liczyły na amerykańskie procesory:

  • Wolniejszy postęp naukowy – trudności w zdobywaniu niezbędnego sprzętu opóźnią prace badawcze w dziedzinach takich jak medycyna czy farmacja.
  • Fragmentacja rynku AI – restrykcje mogą doprowadzić do tworzenia bloków technologicznych, utrudniających globalną współpracę i wymianę wiedzy.
  • Hamowanie innowacji – ograniczenia w dostępie do kluczowych komponentów wydłużą ścieżkę do wprowadzania nowych produktów i usług.
  • Wzrost napięć międzynarodowych – restrykcje mogą zaogniać relacje między światowymi mocarstwami, zwłaszcza gdy w grę wchodzą strategiczne technologie.

law business usa

Podsumowanie i perspektywy

Nowe amerykańskie restrykcje eksportowe na zaawansowane układy scalone i modele AI stanowią ważny sygnał dla całego świata. Z jednej strony mają zapobiec niebezpiecznemu wykorzystaniu AI, z drugiej – już teraz wywołują zaniepokojenie na rynkach i mogą spowolnić globalny rozwój sztucznej inteligencji.

Polska, mimo dotychczasowej marginalnej roli na rynku zaawansowanych procesorów AI, nie jest wyłączona z działań USA. Limity importu chipów mogą w przyszłości ograniczyć tempo wdrażania nowych technologii w naszym kraju. W dłuższej perspektywie wiele zależy od tego, czy Stany Zjednoczone złagodzą lub zaostrzą obowiązujące regulacje, a także jak poszczególne państwa zareagują na te wyzwania – czy zdecydują się na wzmocnienie współpracy międzynarodowej, czy też na budowanie autonomicznych ekosystemów AI.

Ostatecznie, zmiany wprowadzane przez USA wymagają balansu pomiędzy ochroną bezpieczeństwa narodowego a utrzymaniem ciągłości i swobody w rozwoju nowoczesnych rozwiązań. Śledzenie rozwoju sytuacji jest kluczowe, zwłaszcza że branża AI z roku na rok rośnie w siłę i stanowi fundament wielu dziedzin gospodarki oraz nauki.

ChatGPT w centrum kontrowersji. Eksplozja Cybertrucka w Las Vegas 

Eksplozja Tesli Cybertruck przed hotelem Trump International w Las Vegas wstrząsnęła opinią publiczną. Sprawcą tragedii okazał się 37-letni Matthew Livelsberger, żołnierz sił specjalnych, który podczas urlopu w USA wykorzystał sztuczną inteligencję, w tym ChatGPT, do zaplanowania ataku – podały władze. Incydent, który zakończył się śmiercią żołnierza oraz rannych siedmiu osób rodzi poważne pytania o odpowiedzialność za wykorzystanie technologii AI.  

Eksplozja samochodu cybertruck

ChatGPT i rola AI w planowaniu ataku 

Według policji metropolitalnej w Las Vegas, Livelsberger używał ChatGPT, aby zdobyć informacje na temat budowy urządzeń wybuchowych oraz organizacji ataku. Władze nie ujawniły szczegółów udzielonych odpowiedzi, ale podkreślono, że sztuczna inteligencja mogła udzielić informacji opartych na powszechnie dostępnych źródłach w Internecie.  

Firma poinformowała, że ChatGPT dostarczył jedynie informacji ogólnodostępnych w Internecie i ostrzegł przed szkodliwymi lub nielegalnymi działaniami. OpenAI współpracuje z organami ścigania w ramach dochodzenia.  

OpenAI, twórca ChatGPT wyraził ubolewanie z powodu wykorzystania ich narzędzia w tym incydencie. Firma podkreśliła, że modele AI zostały zaprojektowane tak, aby odmawiały szkodliwych instrukcji, minimalizując potencjalnie niebezpieczne treści. OpenAI powiedział CNN, że firma jest „zasmucona tym incydentem i pragnie, aby narzędzia AI były wykorzystywane w sposób odpowiedzialny”.  

Przebieg tragicznych wydarzeń 

Do eksplozji doszło, gdy Cybertruck został zaparkowany przed wejściem do hotelu. Monitoring ukazuje Livelsbergera, który wyciągał kanister z paliwem, oblewając nim pojazd. W pojeździe znajdowała się bomba lub improwizowane urządzenie wybuchowe, które zostało zdetonowane. Chwilę wcześniej Livelsberger zastrzelił się w samochodzie, co potwierdziła sekcja zwłok, a jego tożsamość zidentyfikowano na podstawie DNA i tatuaży.  

Władze odkryły również sześciostronicowy manifest w telefonie żołnierza, który rzuca światło na motywy jego działań. Agent FBI Spencer Evans opisał incydent jako „tragiczny przypadek samobójstwa odznaczonego weterana, który zmagał się z PTSD i innymi problemami”.  

Spekulacje o powiązanych incydentach 

Eksplozja w Las Vegas nie była jedynym takim zdarzeniem. W Nowym Orleanie doszło do podobnego incydentu z udziałem innego pojazdu, również wynajętego za pomocą aplikacji Turo. Chociaż władze badają ewentualne powiązania między tymi zdarzeniami, na razie brak jednoznacznych dowodów na ich związek.  

AI i wyzwania etyczne 

Wydarzenia te stawiają na nowo pytania o odpowiedzialność twórców technologii AI oraz konieczność regulacji w tym obszarze. Jak podkreślił szeryf Kevin McMahill, „sztuczna inteligencja zmienia reguły gry”, co widać na przykładzie tego tragicznego incydentu. Wraz z rozwojem AI coraz ważniejsze staje się wprowadzenie odpowiednich zabezpieczeń, które zapobiegną wykorzystaniu technologii do celów przestępczych.  

Samochód cybertruck

Jak to się ma to Chatu GPT? 

Firma OpenAI w styczniu 2024 zmieniła regulamin korzystania ze swoich dużych modeli językowych GPT, w tym – słynnego chatbota ChatGPT. Od tamtej chwili może on być wykorzystywany do celów wojskowych i wojennych.   

Zmianę w regulaminie korzystania z dużych modeli językowych OpenAI jako pierwszy wychwycił serwis Intercept. Jak podaje, do dnia 10 stycznia regulamin OpenAI zakazywał wykorzystania swoich modeli językowych do „aktywności, które obciążone są dużym ryzykiem wyrządzenia fizycznej szkody, w tym rozwoju broni oraz zastosowań wojskowych i wojennych”.  

Co ciekawe zmiana tego stanowiska nastąpiła wraz z rozpoczęciem współpracy OpenAI z Departamentem Obrony USA. Jak podał CNBC, wiceprezes OpenAI ds. spraw globalnych Anna Makanju i dyrektor generaln Sam Altman powiedzieli w wywiadzie dla Bloomberg House na Światowym Forum Ekonomicznym, że współpraca z amerykańskim resortem ma dotyczyć między innymi prac nad narzędziami sztucznej inteligencji wykorzystywanymi w zakresie cyberbezpieczeństwa typu open source.  

Sztuczna inteligencja

Jak ChatGPT wspiera siły zbrojne 

Ponadto w grudniu 2024 r. Open AI ChatGPT podpisało umowę o współpracy z firmą Anduril, specjalizującą się w bezzałogowych systemach i robotyce dla sił zbrojnych USA. Partnerstwo to ma na celu stworzenie zaawansowanego systemu AI przeznaczonego dla Sił Zbrojnych Stanów Zjednoczonych.  

W ramach współpracy OpenAI opracuje oprogramowanie do systemów przeznaczonych do zwalczania dronów bojowych, natomiast Anduril udostępni swoją bazę danych oraz doświadczenie w budowie dronów i systemów wojskowych. Planowany system AI ma być zdolny do rozpoznawania, identyfikowania i oceniania zagrożeń w powietrzu oraz natychmiastowego reagowania na nie – bez konieczności ingerencji człowieka.  

Prawo aI

Prawo a wykorzystywanie AI i ChatGPT do celów wojskowych 

Polska i Unia Europejska 

Polska, jako pastwo członkowskie Unii Europejskiej jest zobowiązana do przestrzegania unijnych przepisów, takich jak Akt o Sztucznej Inteligencji (AI Act). AI Act kładzie nacisk na zakaz wykorzystania systemów AI do celów naruszających prawa człowieka, co może ograniczać niektóre zastosowania militarne. Ponadto “podmiot wykorzystujący system AI do celów inne niż cele wojskowe, obronne lub cele bezpieczeństwa narodowego powinien zapewnić zgodność systemu AI (…) AI Act, chyba że system ten jest już z nim zgodny. Listę zakazanych praktyk można znaleźć w rozdziale II AI Act. 

Regulacje w AI Act 

Wczytując się w treść AI Act można znaleźć zapis:  

(24) “Jeżeli i w zakresie, w jakim systemy AI wprowadza się do obrotu, oddaje do użytku lub wykorzystuje się je ze zmianami lub bez zmian – do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego, systemy te należy wyłączyć z zakresu stosowania niniejszego rozporządzenia niezależnie od tego, jaki podmiot wykonuje te działania – nie ma znaczenia na przykład, czy jest on podmiotem publicznym czy prywatnym”.   

Twórcy aktu w sprawie sztucznej inteligencji tak usprawiedliwiają ten fakt:  

“W przypadku celów wojskowych i obronnych, takie wyłączenie jest uzasadnione zarówno art. 4 ust. 2 TUE, jak i specyfiką polityki obronnej państw członkowskich i wspólnej polityki obronnej Unii objętej tytułem V rozdział 2 TUE, które podlegają prawu międzynarodowemu publicznemu stanowiącemu zatem bardziej odpowiednie ramy prawne dla regulacji systemów AI w kontekście stosowania śmiercionośnej siły i innych systemów AI w kontekście działań wojskowych i obronnych” (…).  

Ponadto zgodnie z art. 2 ust. 3 AI Act 

(…) 3.   

Niniejszego rozporządzenia nie stosuje się do systemów AI, jeżeli – i w zakresie, w jakim – wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane, ze zmianami lub bez zmian, wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego, niezależnie od rodzaju podmiotu prowadzącego te działania”.  

AI Law

Prawne podstawy wykorzystania AI w działaniach militarnych w Unii Europejskiej 

Nawiązując więc do podstawy prawnej militarnego wykorzystywania sztucznej inteligencji w Unii Europejskiej należy wskazać wspomniany:  

Art. 4. ust. 2 TUE 

Unia szanuje równość Państw Członkowskich wobec Traktatów, jak również ich tożsamość narodową, nierozerwalnie związaną z ich podstawowymi strukturami politycznymi i konstytucyjnymi, w tym w odniesieniu do samorządu regionalnego i lokalnego. Szanuje podstawowe funkcje państwa, zwłaszcza funkcje mające na celu zapewnienie jego integralności terytorialnej, utrzymanie porządku publicznego oraz ochronę bezpieczeństwa narodowego. W szczególności bezpieczeństwo narodowe pozostaje w zakresie wyłącznej odpowiedzialności każdego Państwa Członkowskiego”.  

W związku z tym zgodnie z prawem Unii Europejskiej (AI Act) jest możliwe wykorzystywanie systemów sztucznej inteligencji, ale w tym kontekście “do celów wojskowych, obronnych lub celów bezpieczeństwa narodowego”. A także “W przypadku celów bezpieczeństwa narodowego (…) jest uzasadnione zarówno faktem, że za bezpieczeństwo narodowe wyłączną odpowiedzialność ponoszą państwa członkowskie zgodnie z art. 4 ust. 2 TUE, jak i faktem, że działania w zakresie bezpieczeństwa narodowego mają szczególny charakter, wiążą się ze szczególnymi potrzebami operacyjnymi i że stosuje się do nich szczególne przepisy krajowe”. 

Także w Polsce tworzy się pierwsze strategie związane z wykorzystywaniem sztucznej inteligencji w obronności. Jak zostało określone w “Resortowej strategii sztucznej inteligencji do roku 2039” Ministerstwa Obrony Narodowej z sierpnia 2024 r.  

Do roku 2039 wykorzystanie nowoczesnych technologii, w tym sztucznej inteligencji, będzie warunkiem posiadania zdolności do efektywnej realizacji odstraszania i obrony przez Siły Zbrojne RP. Systemy sztucznej inteligencji będą odgrywać znaczącą rolę w działaniach militarnych, co zrewolucjonizuje sposób zarządzania i prowadzenia operacji wojskowych w przyszłym zdigitalizowanym środowisku walki. Jej wszechstronne zastosowania będą wpływać nie tylko na zwiększenie tempa operacyjnego i efektywności wykorzystania zaangażowanych sił, ale także kreować nowe wyzwania etyczne i prawne”.  

Wykorzystanie AI w działaniach militarnych w Polsce obejmie:  

  • Autonomiczne systemy bojowe: Prowadzenie operacji bez bezpośredniego zaangażowania człowieka, przeprowadzanie misji rozpoznawczych, ofensywnych i defensywnych z większą precyzją, minimalizując ryzyko dla personelu. 
  • Analizę danych wywiadowczych: Przetwarzanie dużych ilości informacji, identyfikacja wzorców, ocena działań przeciwnika, usprawnienie planowania i realizacji operacji. 
  • Optymalizację logistyki: Zarządzanie zasobami, redukcja czasu napraw, planowanie tras i przewidywanie potrzeb zaopatrzeniowych dla lepszego wsparcia jednostek. 
  • Systemy obrony cyberprzestrzeni: Szybka identyfikacja i neutralizacja cyberzagrożeń, ochrona infrastruktury i danych wojskowych. 
  • Symulacje i szkolenia: Realistyczne środowiska treningowe oraz spersonalizowane ścieżki rozwoju, wspierające szkolenie żołnierzy i testowanie strategii. 
  • Wsparcie decyzyjne: Analiza scenariuszy i rekomendacje zwiększające szybkość i trafność decyzji dowódców.
  • E-learning i zarządzanie talentami: Projektowanie indywidualnych ścieżek szkoleniowych, dostosowywanie materiałów i identyfikacja talentów. 

Wojsko sztuczna inteligencja

Korzystania z AI w celach militarnych w Stanach Zjednoczonych Ameryki 

USA z kolei są liderem w rozwijaniu systemów AI do celów militarnych. Wiele agencji, w tym DARPA (Defense Advanced Research Projects Agency) pracuje nad autonomicznymi systemami wojskowymi.  

Stany Zjednoczone nie mają jednak jednolitych aktów prawnych regulującej wykorzystanie AI w sektorze obronnym. Jednakże przepisy, takie jak National Defense Authorization Act, zawierają zapisy dotyczące finansowania i rozwoju autonomicznych systemów wojskowych. Oficjalne podsumowanie można znaleźć tutaj.  

Zasady DoD (Department of Defense) – w ostatnich latach Pentagon przyjął zasady etyczne dla AI w wojsku, kładąc nacisk na odpowiedzialność, przejrzystość i niezawodność. Systemy muszą być używane zgodnie z międzynarodowym prawem humanitarnym. Ponadto stworzono też dokument zawierający informacje dot. strategii wdrażania danych, analityki i sztucznej inteligencji. Strategia ta została stworzona przez Departament Obrony Stanów Zjednoczonych w celu ustanowienia strategii integracji danych, analityki oraz sztucznej inteligencji (AI) w działaniach militarnych i operacyjnych.   

Podsumowanie 

Eksplozja Cybertrucka w Las Vegas to tragiczne przypomnienie o potencjalnych zagrożeniach związanych z wykorzystaniem AI. Choć technologia ta ma ogromny potencjał do usprawnienia wielu dziedzin życia, jej nadużycia mogą prowadzić do dramatycznych skutków. Kluczowe będzie zapewnienie, że sztuczna inteligencja będzie rozwijana i wykorzystywana w sposób odpowiedzialny, z poszanowaniem bezpieczeństwa i etyki.  

Eksplozja Cybertrucka, AI w mediach, Matthew Livelsberger, sztuczna inteligencja a przestępczość, ChatGPT w ataku, Tesla Cybertruck Las Vegas, etyka AI, PTSD u weteranów.   

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj