Jacek Cieśliński w Pulsie Biznesu o prawidłowym oznaczaniu promocji

📣 Jacek Cieśliński w Pulsie Biznesu o prawidłowym oznaczaniu promocji

R.pr. Jacek Cieśliński (manager LBK&P) udzielił cennej wypowiedzi na temat prawidłowego oznaczania promocji w najnowszym artykule na łamach Pulsu Biznesu. 🌟

Zgodnie z obowiązującymi przepisami, każda promocja musi być jasno komunikowana, a sprzedający mają obowiązek informować o najniższej cenie towarów lub usług z ostatnich 30 dni, niezależnie od formy promocji. Może to być rabat, okazja, czy obniżenie ceny widoczne na czerwonej etykiecie.

🔴 Błędy, które często popełniają firmy:

  1. Podanie nieaktualnej ceny – często zamiast najniższej z ostatnich 30 dni, wskazywana jest cena chwilowa przed rozpoczęciem promocji.
  1. Wykorzystywanie mylących haseł jak „do -70 proc.”, kiedy większość produktów ma rabat 10-15%.
  1. Błędy graficzne, np. czerwone etykiety przy cenach, które w rzeczywistości nie zostały obniżone.
  1. Promocje trwające miesiącami bez wskazania terminu końca

💬 Jacek Cieśliński zwraca uwagę na problem interpretacji przepisów, który jest powszechny wśród sprzedających. Zbyt często dochodzi do nadużyć, które mogą prowadzić do interwencji Urzędu Ochrony Konkurencji i Konsumentów (UOKiK).

👉 Prawidłowe oznaczanie promocji nie tylko pomaga uniknąć kar, ale także buduje zaufanie klientów. Każda promocja musi być transparentna, a przedsiębiorcy powinni pamiętać, że rzetelna informacja o cenach to klucz do uczciwego biznesu.

Chcesz poznać więcej szczegółów? Przeczytaj artykuł w Pulsie Biznesu: link

#LBKPLegal #JacekCieśliński #PulsBiznesu #Promocje #Prawo #Biznes #UOKiK

Zielone kłamstwa, realne konsekwencje – greenwashing w świetle prawa 

W dobie rosnącej świadomości ekologicznej zarówno konsumentów, jak i przedsiębiorców, terminy takie jak greenwashing oraz green claims pojawiają się coraz częściej w dyskusjach o zrównoważonym rozwoju i odpowiedzialnym biznesie. W artykule wyjaśniamy, czym dokładnie jest greenwashing, jakie ryzyka niesie za sobą stosowanie nieuczciwych „zielonych” deklaracji oraz jakie regulacje prawne obowiązują w Polsce i Unii Europejskiej, aby przeciwdziałać tym praktykom. Dowiesz się także, jak unikać zarzutów greenwashingu i budować transparentny, ekologiczny wizerunek marki zgodny z obowiązującymi przepisami.

greenwashing

Czym jest greenwashing i green claims? 

Greenwashing to coraz powszechniej stosowana praktyka marketingowa, polegająca na tworzeniu przez firmy fałszywego lub wprowadzającego w błąd wrażenia, że ich produkty lub usługi są bardziej ekologiczne, przyjazne środowisku, niż jest to faktycznie. Przedsiębiorstwa wykorzystują w ten sposób rosnącą świadomość ekologiczną konsumentów, kreując „zielony” wizerunek bez realnych działań na rzecz ochrony środowiska. Takie działania mogą przynieść firmom krótkoterminowe korzyści wizerunkowe i sprzedażowe, jednak w dłuższej perspektywie skutkują poważną utratą zaufania klientów oraz realnymi konsekwencjami prawnymi i finansowymi. 

W kontekście greenwashingu coraz częściej pojawia się pojęcie green claims, czyli „zielonych oświadczeń” – są to deklaracje marketingowe, które mają przekonać konsumenta, że dany produkt lub usługa posiadają korzystny wpływ na środowisko naturalne. Zielone oświadczenia stają się popularnym narzędziem firm odpowiadających na wymagania rynku w zakresie zrównoważonego rozwoju i oczekiwania konsumentów wobec transparentności działań proekologicznych. 

Niestety, badania Komisji Europejskiej wskazują, że aż około 40% takich zielonych deklaracji jest niepopartych dowodami lub zawiera informacje wprowadzające konsumentów w błąd. Oznacza to, że wiele z nich stanowi przykład greenwashingu, co nie tylko szkodzi zaufaniu konsumentów, lecz także zaburza uczciwą konkurencję na rynku. 

W odpowiedzi na te nadużycia Unia Europejska intensywnie pracuje nad wprowadzeniem Dyrektywy Green Claims. Nowe regulacje, planowane do wejścia w życie do końca 2026 roku, mają ustanowić jasne i jednolite zasady dotyczące stosowania zielonych oświadczeń w komunikacji marketingowej. Zgodnie z projektem, przedsiębiorstwa będą zobowiązane do popierania swoich ekologicznych deklaracji konkretnymi i sprawdzalnymi dowodami, najlepiej potwierdzonymi przez niezależnych ekspertów i weryfikatorów. Celem dyrektywy jest nie tylko ochrona konsumentów przed wprowadzaniem w błąd, ale również wsparcie tych firm, które realnie wdrażają polityki zrównoważonego rozwoju. Dodatkowo, przepisy mają przyczynić się do zwiększenia przejrzystości w łańcuchach dostaw i ograniczenia ryzyka nieuczciwych praktyk w obszarze ESG (Environmental, Social, Governance). 

 

Źródło: Green Claims – EU Circular Economy 

Przykłady greenwashingu – jak wygląda w praktyce? 

Greenwashing przyjmuje wiele form, które mogą być trudne do wykrycia przez przeciętnego konsumenta. Poniżej przedstawiamy najczęstsze przykłady: 

  • Reklamowanie produktów jako „eko”, „biodegradowalne” lub „naturalne” bez żadnych dowodów potwierdzających te twierdzenia. 
  • Twierdzenie, że produkt jest „100% naturalny”, mimo że w składzie znajdują się sztuczne dodatki lub substancje syntetyczne. 
  • Używanie nieistniejących, fikcyjnych certyfikatów ekologicznych lub symboli, które mają sugerować proekologiczny charakter produktu, choć nie posiadają one faktycznych podstaw. 
  • Deklarowanie, że firma jest „neutralna klimatycznie” lub „carbon neutral”, mimo że w praktyce nie podejmuje żadnych skutecznych działań redukujących emisję gazów cieplarnianych. 
  • Stosowanie wizerunków zwierząt, symboli natury czy kolorystyki kojarzącej się z ekologią, by wywołać u konsumenta wrażenie odpowiedzialności ekologicznej, bez rzeczywistego pokrycia tych deklaracji.

greenwashing

Greenwashing – jakie konsekwencje i kary grożą firmom? 

Greenwashing niesie za sobą poważne ryzyko, nie tylko wizerunkowe, ale także prawne i finansowe. Oto kluczowe konsekwencje, z którymi mogą się mierzyć firmy stosujące tego typu praktyki: 

  • Kary finansowe – w Polsce kary za stosowanie nieuczciwych praktyk marketingowych, w tym greenwashingu, są wysokie. Zgodnie z ustawą o przeciwdziałaniu nieuczciwym praktykom rynkowym, kara może sięgnąć nawet do 10% rocznego obrotu przedsiębiorstwa. Takie sankcje mają działać prewencyjnie i odstraszająco. 
  • Straty wizerunkowe – największym zagrożeniem dla firm oskarżonych o greenwashing jest utrata zaufania klientów. W erze mediów społecznościowych i rosnącej świadomości ekologicznej konsumentów, informacje o nieuczciwych praktykach szybko się rozprzestrzeniają. Skutkiem jest błyskawiczny spadek lojalności klientów oraz obniżenie wartości marki. 
  • Utrata dostępu do finansowania ESG – banki, fundusze inwestycyjne i inni inwestorzy coraz częściej weryfikują zgodność firm z taksonomią UE i standardami zrównoważonego rozwoju. Wykrycie greenwashingu może skutkować cofnięciem finansowania lub utratą preferencyjnych warunków kredytowania, w tym dostęp do tzw. zielonych obligacji. 
  • Niższy rating ESG – agencje oceniające zrównoważony rozwój przedsiębiorstw obniżają oceny firm uwikłanych w greenwashing. Taki negatywny rating przekłada się na gorsze postrzeganie firmy na rynku kapitałowym i wśród inwestorów. 
  • Ryzyko „green default” – w przypadku wykorzystania środków z zielonych instrumentów finansowych (np. obligacji) niezgodnie z deklarowanymi celami, inwestorzy mogą domagać się zwrotu środków oraz odszkodowań. 
  • Pozwy zbiorowe i działania organizacji społecznych – naruszenia związane z greenwashingiem mogą skutkować postępowaniami sądowymi, administracyjnymi, a także presją ze strony organizacji konsumenckich i ekologicznych.

Głośne przykłady greenwashingu z rynku światowego i polskiego 

  • Afera Volkswagena – Dieselgate – jeden z najbardziej znanych przypadków greenwashingu, w którym Volkswagen reklamował swoje samochody jako ekologiczne, podczas gdy montował w nich oprogramowanie manipulujące wynikami emisji spalin. Skutkiem były kary na poziomie około 34,7 miliarda dolarów (głównie w USA), liczne procesy, odszkodowania oraz spadek wartości akcji o około 1/3. Ta sprawa uświadomiła regulatorom, jak poważne skutki może mieć greenwashing – traktowany jako systemowe oszustwo. 
  • Deutsche Bank i firma DWS – niemiecki nadzór finansowy ukarał spółkę zarządzającą aktywami DWS karą w wysokości 25 milionów euro za wprowadzanie inwestorów w błąd i nadużywanie haseł „zielonych”, które nie odpowiadały rzeczywistym działaniom firmy w zakresie ESG. 
  • Polski przykład – BO Energy – pod koniec 2022 roku Urząd Ochrony Konkurencji i Konsumentów nałożył na spółkę BO Energy (branża fotowoltaiczna) karę ponad 28 mln zł za stosowanie nieuczciwych praktyk, takich jak wprowadzające w błąd obietnice współpracy z Ministerstwem Klimatu oraz oferowanie rzekomo „bezpłatnych audytów” energetycznych. Była to najwyższa kara konsumencka 2022 roku w Polsce. 

greenwashing

Regulacje prawne przeciwdziałające greenwashingowi w Polsce i UE 

W Polsce oraz na poziomie Unii Europejskiej obowiązuje szereg przepisów mających na celu eliminowanie greenwashingu: 

  • Ustawa o przeciwdziałaniu nieuczciwym praktykom rynkowym – zakazuje wprowadzania konsumentów w błąd w komunikacji marketingowej, co obejmuje także greenwashing. Firmy łamiące przepisy narażają się na wysokie kary finansowe. 
  • Ustawa o zwalczaniu nieuczciwej konkurencji – chroni przed stosowaniem nieuczciwych praktyk w działalności gospodarczej, które mogą wprowadzać w błąd konsumentów, w tym w zakresie ekologicznych deklaracji. 
  • Dyrektywa CSRD (Corporate Sustainability Reporting Directive) – nakłada na przedsiębiorstwa obowiązek raportowania działań z zakresu zrównoważonego rozwoju. Raporty te muszą być przejrzyste, weryfikowalne i rzetelne, co pomaga w kontroli prawdziwości tzw. green claims. 
  • Projekt Dyrektywy Green Claims – przewidziana do wdrożenia do końca 2026 roku dyrektywa wprowadzi surowe wymogi dotyczące stosowania zielonych deklaracji w marketingu, nakładając obowiązek udowodnienia ich prawdziwości oraz zapewnienia transparentności komunikacji. 

Jak ustrzec się oskarżeń o greenwashing? Podstawowe zasady dla firm 

Aby uniknąć ryzyka zarzutów o greenwashing, firmy powinny przestrzegać kilku kluczowych zasad: 

  • Rzetelność danych – wszystkie komunikaty marketingowe powinny opierać się na sprawdzonych, naukowo potwierdzonych faktach dotyczących wpływu produktów i usług na środowisko. 
  • Precyzyjne określenia – unikać ogólnikowych, niejasnych sformułowań typu „eko” czy „przyjazny dla środowiska”, jeśli nie można ich jednoznacznie udowodnić. Certyfikaty i oznaczenia ekologiczne powinny być możliwe do zweryfikowania. 
  • Transparentność – firma powinna udostępniać informacje o swoich działaniach na rzecz ochrony środowiska, posiadanych certyfikatach, wynikach audytów ekologicznych oraz etapach realizacji polityk zrównoważonego rozwoju. 
  • Stały monitoring i aktualizacja komunikacji – przekazy marketingowe muszą być na bieżąco weryfikowane i aktualizowane zgodnie z faktycznym stanem działań firmy oraz wymogami prawnymi. 

greenwashing

Wsparcie kancelarii prawnej w walce z greenwashingiem 

Profesjonalne wsparcie prawne jest nieocenione na każdym etapie planowania i realizacji strategii marketingowej związanej z ekologicznymi deklaracjami. Nasza kancelaria może pomóc w: 

  • Analizie komunikatów reklamowych pod kątem zgodności z obowiązującymi przepisami. 
  • Oceny ryzyka prawnego związanego z używaniem określeń i symboli proekologicznych w promocji produktów i usług. 
  • Przygotowaniu i wdrożeniu polityk transparentnej komunikacji środowiskowej. 
  • Szkoleniach dla zespołów marketingu i PR w zakresie zgodności z regulacjami dotyczącymi green claims. 
  • Reprezentacji prawnej w sytuacjach spornych lub kontrolach urzędów. 

Uczciwa i rzetelna komunikacja ekologiczna to nie tylko wymóg prawny, ale fundament budowania trwałego zaufania klientów i partnerów biznesowych. Greenwashing to nie tylko ryzyko reputacyjne, lecz także realne zagrożenie finansowe i prawne. Dlatego przedsiębiorstwa, które planują działania marketingowe z wykorzystaniem motywów eko powinny zadbać o transparentność i autentyczność przekazu. 

Skontaktuj się z nami! 

Jeśli chcesz dowiedzieć się więcej o tym, jak skutecznie i bezpiecznie prowadzić komunikację ekologiczną, unikając greenwashingu, zapraszamy do kontaktu z naszą kancelarią. Pomożemy Ci działać zgodnie z obowiązującym prawem i budować wiarygodny, zrównoważony wizerunek marki. 

 

Europejski Akt Dostępności (EAA) – kompleksowy przewodnik dla przedsiębiorców 

Europejski Akt Dostępności (EAA) to przełomowa dyrektywa Unii Europejskiej, która ma na celu zapewnienie osobom z niepełnosprawnościami pełnego dostępu do produktów, usług i przestrzeni publicznych. Wprowadzając jednolite zasady dostępności w państwach członkowskich, EAA eliminuje bariery technologiczne i społeczne, umożliwiając osobom z niepełnosprawnościami aktywne uczestnictwo w życiu społecznym i gospodarczym. 

EEA dostępność

Dlaczego EAA jest ważne dla przedsiębiorców? 

26 kwietnia 2024 r. Sejm uchwalił ustawę o zapewnianiu spełniania wymagań dostępności niektórych produktów i usług przez podmioty gospodarcze, która przeniosła do polskiego prawa Europejski Akt o Dostępności. Przepisy ustawy wejdą w życie już 28 czerwca 2025 r. i od tej daty przedsiębiorcy powinni wprowadzać na rynek produkty spełniające wymagania dostępności oraz oferować dostępne usługi zgodnie z przepisami tej ustawy.   

To nie tylko obowiązek prawny, ale także ogromna szansa na rozwój i poprawę wizerunku firmy. Przestrzeganie norm dostępnościowych może zwiększyć konkurencyjność na rynku, a także poszerzyć krąg klientów oosoby z niepełnosprawnościami, które dotychczas mogły mieć ograniczony dostęp do Twoich produktów i usług. 

Główne cele EAA oraz ustawy o zapewnianiu spełniania wymagań dostępności niektórych produktów i usług przez podmioty gospodarcze: 

  1. Eliminacja barier – ułatwienie dostępu do produktów i usług dla osób z różnymi rodzajami niepełnosprawności. 
  2. Wzmocnienie pozycji konsumentów – zapewnienie wszystkim równych szans na korzystanie z usług i produktów. 
  3. Ujednolicenie standardów – wprowadzenie jednolitych regulacji dostępnościowych w całej Unii Europejskiej, które eliminują konieczność dostosowywania się do lokalnych przepisów. 

Kogo dotyczy EAA? 

Ustawa o zapewnianiu spełniania wymagań dostępności niektórych produktów i usług przez podmioty gospodarcze (oraz EEA) dotyczy szerokiej grupy przedsiębiorców: 

  • Producenci – muszą zapewnić, że ich produkty spełniają normy dostępności. 
  • Importerzy – odpowiedzialni za weryfikację zgodności produktów spoza UE. 
  • Dystrybutorzy – powinni sprawdzać, czy oferowane przez nich produkty spełniają normy dostępności. 
  • Upoważnieni przedstawiciele – (Upoważnieni przedstawiciele to podmioty działające w imieniu producenta na terenie UE. Na podstawie pełnomocnictwa są zobowiązani co najmniej do: a) przechowywania deklaracji zgodności UE i dokumentacji technicznej przez 5 lat; b) przekazywania organom nadzoru wymaganych informacji i dokumentów; c) współpracy z organami w celu usunięcia niezgodności produktów). 
  • Usługodawcy – przedsiębiorstwa świadczące usługi muszą dostosować je do wymogów dostępności. 

Jak widać, nowe regulacje stosuje się prawie do wszystkich firm. Co prawda mikroprzedsiębiorstwa (poniżej 10 pracowników i obrót do 2 mln euro rocznie) są częściowo zwolnione z obowiązków, ale nie zawsze – podlegają im np. jeśli korzystają z gotowych systemów e-commerce. 

EEA dostępność

Jakie produkty i usługi obejmuje EAA? 

Dyrektywa oraz w efekcie polska ustawa obejmują: 

  • Produkty: 
  • Sprzęt komputerowy, systemy operacyjne, urządzenia końcowe do usług telekomunikacyjnych 
  • Terminale płatnicze, bankomaty, automaty samoobsługowe 
  • Czytniki e-booków 
  • Usługi: 
  • Telekomunikacyjne, bankowe, transportowe (drogowy, kolejowy, lotniczy) 
  • Handel elektroniczny (e-commerce) 
  • Konsumenckie urządzenia końcowe z interaktywnymi zdolnościami obliczeniowymi wykorzystywane do oferowania lub świadczenia usług: a) telekomunikacyjnych, b) dostępu do audiowizualnych usług medialnych  

Co ważne, do oferowania lub świadczenia usług wykorzystuje się produkty spełniające wymagania dostępności określone w art. 7–11. Oznacza to, że wymogi dotyczą również np. stron internetowych firm. (Strony internetowe) 

Do wyjątków, do których nie odnoszą się wymagania należą m.in. 

1) usługi oferowane lub świadczone przez mikroprzedsiębiorców;  

2) strony internetowe i aplikacje mobilne w zakresie:  

  1. a) map oraz map interaktywnych, w tym geoportali, w przypadku gdy na tych mapach, mapach interaktywnych, w tym geoportalach, przeznaczonych do zastosowań nawigacyjnych dane teleadresowe i położenie geograficzne są prezentowane w sposób dostępny cyfrowo, o którym mowa w przepisach ustawy z dnia 4 kwietnia 2019 r. o dostępności cyfrowej stron internetowych i aplikacji mobilnych podmiotów publicznych (Dz. U. z 2023 r. poz. 1440), 
  2. b) treści, które nie są finansowane i nie są tworzone przez dany podmiot gospodarczy oraz nie znajdują się pod jego kontrolą;

Ważne! 

Dyrektywa o dostępności produktów i usług, tzw. Europejski Akt o Dostępności (EAA) 

Dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/882 z dnia 17 kwietnia 2019 r. w sprawie wymogów dostępności produktów i usług (dalej: Europejski Akt o Dostępności) przyjęto do prawa unijnego w 2019 r. Europejski Akt o Dostępności zakłada, że państwa członkowskie wdrożą rozwiązania, które zapewnią większą dostępność, między innymi: 

  • usług związanych z transportem (np. rezerwacja biletów); 
  • usług płatniczych; 
  • e-książek i urządzeń do ich czytania; 
  • urządzeń samoobsługowych (np. bankomatów). 

 

Europejski akt o dostępności wprowadza wymóg, aby określone w nim rodzaje podmiotów gospodarczych zapewniały dostępność wybranych towarów i usług (w odróżnieniu od dyrektywy z 2016 r. o dostępności cyfrowej, która odnosi się tylko do podmiotów publicznych). Jest obecnie wdrażany przez państwa członkowskie. 

Źródło: https://www.gov.pl/web/dostepnosc-cyfrowa/jakie-akty-prawne-dotycza-dostepnosci-cyfrowej  

EEA dostępność

Europejski akt dostępności (EAA) – kluczowe wymogi dla przedsiębiorców 

Europejski akt dostępności (EAA) wprowadza szereg wymagań dla przedsiębiorców, których celem jest zapewnienie pełnej dostępności produktów i usług cyfrowych dla osób z niepełnosprawnościami. Kluczowym standardem jest zgodność z wytycznymi WCAG 2.1 na poziomie AA, jednak wymogi obejmują także inne aspekty funkcjonalne i organizacyjne, które muszą zostać spełnione przez firmy. Poniżej przedstawiamy najważniejsze z nich: 

  1. Dostępność stron internetowych i aplikacji mobilnych

Strony internetowe oraz aplikacje mobilne muszą być zgodne z WCAG 2.1 na poziomie AA, co oznacza m.in.: 

  • Zapewnienie odpowiedniego kontrastu tekstu względem tła, aby treści były łatwe do przeczytania przez osoby z problemami ze wzrokiem. 
  • Możliwość korzystania z serwisu wyłącznie przy użyciu klawiatury (bez konieczności używania myszy), co jest kluczowe dla osób z ograniczoną sprawnością manualną. 
  • Dostosowanie treści do technologii asystujących / wspomagających (np. czytniki ekranowe), by zapewnić pełny dostęp do treści osobom niewidomym i niedowidzącym. 
  • Responsywność – strony i aplikacje muszą poprawnie wyświetlać się i działać na różnych urządzeniach (komputery, smartfony, tablety). 
  • Wyraźnie oznaczone przyciski, linki i formularze – muszą być łatwe do zidentyfikowania i pełnić swoje funkcje w sposób jednoznaczny. 
  • Intuicyjna, spójna nawigacja oraz przejrzysty układ strony 
  1. Treści i materiały cyfrowe
  • Alternatywne opisy (alt text) dla każdego obrazu, grafiki i elementu nietekstowego, aby osoby niewidome mogły zrozumieć zawartość tych elementów za pomocą technologii asystujących. 
  • Napisy i audiodeskrypcja dla wideo i innych multimediów, aby osoby niesłyszące i niedowidzące mogły w pełni korzystać z tych materiałów. 
  • Formularze i procesy zakupowe
  • Formularze muszą być zaprojektowane w sposób intuicyjny, zrozumiały i możliwy do wypełnienia przez osoby z różnymi rodzajami niepełnosprawności. 
  • Komunikaty o błędach w formularzach powinny być jednoznaczne i zrozumiałe, wskazując użytkownikowi, co należy poprawić. 
  • Cały proces zakupowy powinien być dostępny i możliwy do przeprowadzenia bez pomocy osób trzecich – oznacza to, że użytkownicy z niepełnosprawnościami powinni być w stanie samodzielnie przejść przez proces zakupu. 
  1. Kanały komunikacji z klientem
  • Kanały kontaktu, takie jak czat, formularze czy infolinie powinny być dostępne dla wszystkich użytkowników, w tym dla osób niesłyszących, które powinny mieć możliwość korzystania z tekstowych form komunikacji oraz alternatyw szczególnie pod względem ofert i sposobów świadczenia usług  (np. czaty tekstowe). 
  1. Obsługa technologii asystujących
  • Serwisy internetowe i aplikacje powinny być w pełni kompatybilne z technologiami wspomagającymi – takimi jak czytniki ekranowe, oprogramowanie do powiększania tekstu, narzędzia do przekształcania tekstu na mowę, itp. 
  1. Regularny audyt i monitoring
  • Przedsiębiorcy są zobowiązani do przeprowadzenia oceny zgodności usługi /  produktu z wymaganiami dostępności. 
  • Powinno się identyfikować potencjalne bariery dostępnościwdrażać niezbędne poprawki na bieżąco, aby utrzymać zgodność z regulacjami. 

Ponadto  

Usługodawca ma obowiązek:  

1) w regulaminie świadczenia usług lub innym równoważnym dokumencie podać do publicznej wiadomości w formie pisemnej, w postaci papierowej lub elektronicznej oraz w sposób dostępny dla osób ze szczególnymi potrzebami określony w art. 12 ust. 2 informacje:  

  1. a) o oferowanej i świadczonej usłudze, 
  2. b) niezbędne do korzystania z usługi, 
  3. c) o tym, w jaki sposób usługa spełnia wymagania dostępności;

 

Pełny zakres obowiązków producenta, dystrybutora, importera i usługodawcy można znaleźć w rozdziale III https://dziennikustaw.gov.pl/D2024000073101.pdf Jako LBKP pomagamy oczywiście zidentyfikować i wdrożyć wszystkie wymagania. 

EEA dostępność

Jak przygotować firmę do wdrożenia EAA? 

1. Przeprowadź audyt dostępności 

 Zidentyfikuj obszary wymagające poprawy, np. brakujące opisy alternatywne, problemy z kontrastem. 

2. Zaangażuj specjalistów 

 Współpracuj z ekspertami ds. dostępności, programistami, projektantami UX/UI. Jeśli masz wątpliwości od strony prawnej co do tego czy i jakie obowiązki zrealizować, skontaktuj się z nami. 

3. Przeprowadź testy z udziałem użytkowników 

 Testuj swoje rozwiązania z osobami z różnymi rodzajami niepełnosprawności, aby upewnić się, że są one naprawdę dostępne. 

4. Zorganizuj szkolenia dla zespołu 

 Szkol wszystkich pracowników odpowiedzialnych za tworzenie treści, obsługę klienta oraz rozwój produktów. 

5. Opracuj plan długoterminowy 

 Stwórz harmonogram cyklicznych audytów i procedur aktualizacji. 

Konsekwencje niespełnienia wymogów: 

Niespełnienie wymogów EAA oraz ustawy grozi poważnymi sankcjami: 

  • Kary finansowe – w wysokości do dziesięciokrotności przeciętnego wynagrodzenia miesięcznego w gospodarce narodowej za rok poprzedzający, ogłaszanego przez Prezesa Głównego Urzędu Statystycznego w Dzienniku Urzędowym Rzeczypospolitej Polskiej „Monitor Polski” na podstawie przepisów o emeryturach i rentach z Funduszu Ubezpieczeń Społecznych, jednak nie większej niż 10 % obrotu osiągniętego w roku obrotowym poprzedzającym rok nałożenia kary, ustalonego według stanu na dzień wydania decyzji, o których mowa w art. 56 ust. 1 albo art. 65 ust. 1. 
  • Obowiązek dostosowania produktu lub usługi – jeśli firma nie odpowie na skargę klienta w ciągu 30 dni, będzie musiała wprowadzić zmiany zgodne z żądaniem w ciągu 6 miesięcy. 
  • Możliwość wycofania produktu z rynku 
  • Kontrole nadzorcze (art. 40 Ustawy) 

Podsumowanie 

Europejski Akt Dostępności to nie tylko wymóg prawny, ale także szansa na rozwój Twojej firmy. Przestrzeganie zasad EAA przynosi korzyści zarówno w zakresie rozwoju firmy, jak i poprawy wizerunku na rynku. Przygotowanie się do EAA wymaga zidentyfikowania obszarów do poprawy, wdrożenia odpowiednich procedur oraz ciągłego doskonalenia dostępności. 

Potrzebujesz wsparcia z zakresu wdrożenia dostępności?

Skontaktuj się z nami. 

CUDA i dominacja NVIDIA – niewidzialna infrastruktura AI poza zakresem regulacji? 

W kwietniu 2025 r. NVIDIA przekroczyła kapitalizację rynkową 2,79 biliona dolarów, a jej akcje wzrosły o ponad 170% w rok stając się trzecią najcenniejszą spółką giełdową na świecie – tuż za Microsoftem i Apple, osiągając aż 90% udziału w rynku układów AI w 2024 roku. Choć jeszcze kilka lat temu NVIDIA była utożsamiana głównie z kartami graficznymi dla graczy, dziś stanowi fundament globalnej gospodarki cyfrowej opartej na sztucznej inteligencji. Jej jednostki GPU – szczególnie seria H100 – stanowią nie tylko strategiczny zasób dla centrów danych, lecz są także głównym motorem napędowym rozwoju foundation models, w tym najbardziej zaawansowanych modeli językowych o ogólnym przeznaczeniu, takich jak ChatGPT. 

NVIDIA

CUDA – silnik AI, który zmienia reguły gry 

Centralnym elementem transformacji NVIDIA w globalnego lidera sztucznej inteligencji jest CUDA (Compute Unified Device Architecture) – autorska platforma programistyczna umożliwiająca pełne wykorzystanie mocy obliczeniowej GPU w zastosowaniach naukowych, przemysłowych i komercyjnych. CUDA to nie tylko warstwa technologiczna – to infrastruktura krytyczna dla skalowalności i efektywności modeli AI. 

Nie bez powodu platforma ta bywa określana jako „niewidzialny system operacyjny AI”. Jest kluczowym elementem w cyklu życia systemów opartych na sztucznej inteligencji: od etapu trenowania i walidacji, po wdrażanie modeli w rzeczywistych aplikacjach. W praktyce, to właśnie CUDA definiuje, jak szybko i na jaką skalę można rozwijać nowoczesne systemy AI. 

GPU vs CPU – dlaczego układy graficzne są kluczowe dla sztucznej inteligencji? 

W kontekście trenowania dużych modeli językowych i przetwarzania danych na skalę masową, klasyczne procesory (CPU) stają się niewystarczające. Kluczowe cechy GPU – szczególnie tych od NVIDIA – decydują o ich przewadze w środowiskach AI: 

  • Architektura równoległa – GPU, jak NVIDIA H100, zawierają tysiące rdzeni, które umożliwiają jednoczesne przetwarzanie dużych zbiorów danych – idealne dla operacji macierzowych wykorzystywanych w sieciach neuronowych. 
  • Efektywność energetyczna – układy graficzne nowej generacji oferują nawet 25-krotnie wyższą efektywność energetyczną w porównaniu z wcześniejszymi rozwiązaniami, co przekłada się na niższe koszty eksploatacji i większą skalowalność. 
  • Pamięć wysokiej przepustowości – technologie takie jak HBM2 (High Bandwidth Memory) pozwalają na błyskawiczne przetwarzanie terabajtów danych – niezbędne w czasie rzeczywistym i aplikacjach krytycznych. 

NVIDIA

Zamknięty ekosystem CUDA – siła i słabość jednocześnie 

CUDA, będąc rozwiązaniem zamkniętym, zapewnia gigantyczne zyski wydajności – nawet 1000-krotny wzrost w ciągu ostatniej dekady. Jednak kontrola tej technologii przez jedną firmę budzi obawy: 

  • Dominacja technologiczna – ponad 80% modeli AI – w tym wszystkie główne foundation models – jest trenowanych w środowisku CUDA. 
  • Brak alternatyw – rozwiązania otwarte, takie jak AMD ROCm czy Intel oneAPI, mają poniżej 10% udziału w rynku, głównie z powodu słabszej optymalizacji i braku pełnej kompatybilności z popularnymi bibliotekami AI. 
  • Efekt sieciowy – im więcej deweloperów korzysta z CUDA, tym trudniej przejść na konkurencyjne rozwiązania – tworzy to zamknięty ekosystem trudny do zrównoważenia przez rynek. 

Infrastruktura AI a europejskie prawo: luka w AI Act? 

Rozporządzenie AI Act (UE 2024/1689) stanowi pierwszy kompleksowy akt prawny regulujący zastosowania sztucznej inteligencji w Europie. Skupia się jednak głównie na poziomie algorytmicznym – na danych treningowych, przejrzystości modeli i ryzykach ich zastosowania. Tymczasem warstwa obliczeniowa – czyli infrastruktura, bez której te systemy nie istnieją – pozostaje poza jego bezpośrednim zakresem. 

CUDA nie jest klasyfikowane jako samodzielny system AI, ale jego wpływ na zgodność, audytowalność i bezpieczeństwo systemów AI jest niepodważalny. Bez możliwości weryfikacji działania infrastruktury – zarówno pod kątem sprzętu (black-box GPU), jak i zamkniętego oprogramowania – trudno mówić o pełnej realizacji zasad przejrzystości czy odpowiedzialności. 

Konsekwencje prawne – monopol, zależność, brak audytu 

Brak regulacji w zakresie infrastruktury obliczeniowej rodzi konkretne problemy prawne i systemowe: 

  • Ograniczona audytowalność – zamknięty charakter CUDA utrudnia spełnienie wymogów z art. 13 AI Act dotyczących przejrzystości i możliwości weryfikacji. 
  • Ryzyko monopolistyczne – wzrost cen układów GPU o ponad 300% w latach 2020–2024 może wskazywać na nadużywanie pozycji dominującej (art. 102 TFUE). 
  • Brak suwerenności technologicznej UE – aż 98% europejskich centrów danych AI korzysta z technologii NVIDIA, co budzi poważne pytania o niezależność infrastrukturalną i odporność na zewnętrzne zakłócenia. 

NVIDIA

Czy odpowiedzialność bez przejrzystości jest możliwa? 

AI Act zakłada odpowiedzialność łańcuchową – obowiązki dotyczą nie tylko twórców systemów, ale też ich użytkowników i dystrybutorów. Jednak rzeczywistość rynkowa pokazuje, że użytkownicy końcowi nie mają realnej możliwości oceny infrastruktury CUDA, z której korzystają pośrednio. Brakuje standardów technicznych i wymagań ujawniających szczegóły działania zamkniętych platform. 

Rekomendacje dla regulatorów i przemysłu AI 

CUDA, choć formalnie nieklasyfikowane jako system AI, powinno być uznawane za komponent wpływający na zgodność, audytowalność i bezpieczeństwo. Rekomendacje: 

  • Wytyczne KEAI Office konieczne jest opracowanie interpretacji prawnych uwzględniających wpływ platform obliczeniowych na systemy AI – analogicznie jak w przypadku przetwarzania w chmurze czy RODO. 
  • Promowanie neutralności technologicznej – programy wsparcia technologicznego UE (np. Digital Europe) powinny faworyzować otwarte, interoperacyjne technologie. 
  • Rewizja zakresu AI Act – długofalowo warto rozważyć aktualizację AI Act, która obejmie również infrastrukturę technologiczną jako element determinujący bezpieczeństwo i zgodność systemów AI. 

CUDA – cud techniczny czy ryzyko prawne? 

CUDA to bez wątpienia technologia, która umożliwiła bezprecedensowy skok rozwojowy w dziedzinie AI. Ale jej zamknięta struktura, dominacja rynkowa i brak regulacyjnego nadzoru mogą oznaczać, że odpowiedzialność za systemy AI stanie się iluzoryczna. Dla UE, która stawia na transparentność, etykę i suwerenność cyfrową, to wyzwanie, którego nie można dłużej ignorować. 

* * * 

ART. 13 AI Act 

Przejrzystość i udostępnianie informacji podmiotom stosującym 

  1. Systemy AI wysokiego ryzyka projektuje się i rozwija w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą podmiotom stosującym interpretację wyników systemu i ich właściwe wykorzystanie. Zapewnia się odpowiedni rodzaj i stopień przejrzystości w celu osiągnięcia spełnienia przez dostawcę i podmiot stosujący odpowiednich obowiązków określonych w sekcji 3.
  2. Do systemów AI wysokiego ryzyka dołącza się instrukcję obsługi w odpowiednim formacie cyfrowym lub innym formacie zawierającą zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów stosujących.
  3. Instrukcja obsługi zawiera co najmniej następujące informacje:
  4. a) tożsamość i dane kontaktowe dostawcy oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;
  5. b) cechy, możliwości i ograniczenia skuteczności działania systemu AI wysokiego ryzyka, w tym:

(i) jego przeznaczenie; 

(ii) poziom dokładności, wraz z jego wskaźnikami, poziom solidności i cyberbezpieczeństwa, o których mowa w art. 15, względem których przetestowano system AI wysokiego ryzyka i dokonano jego walidacji oraz których to poziomów można oczekiwać, a także wszelkie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na te oczekiwane poziomy dokładności, solidności i cyberbezpieczeństwa; 

(iii) wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, o którym to ryzyku mowa w art. 9 ust. 2; 

(iv) w stosownych przypadkach, możliwości techniczne i właściwości systemu AI wysokiego ryzyka w zakresie udostępniania informacji istotnych dla wyjaśnienia jego wyników; 

(v) w stosownych przypadkach, działanie systemu w odniesieniu do określonych osób lub grup osób, wobec których ma on być wykorzystywany; (vi) w stosownych przypadkach, specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walidacyjnych i testowych, uwzględniając przeznaczenie systemu AI wysokiego ryzyka; (vii) w stosownych przypadkach, informacje umożliwiające podmiotom stosującym interpretację wyników systemu AI wysokiego ryzyka i odpowiednie wykorzystanie tych wyników; 

  1. c) zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które zostały z góry zaplanowane przez dostawcę w momencie przeprowadzania początkowej oceny zgodności;
  2. d) środki nadzoru ze strony człowieka, o których mowa w art. 14, w tym środki techniczne wprowadzone w celu ułatwienia podmiotom stosującym interpretacji wyników systemów AI wysokiego ryzyka;
  3. e) potrzebne zasoby obliczeniowe i sprzętowe, przewidywany cykl życia systemu AI wysokiego ryzyka oraz wszelkie niezbędne środki w zakresie konserwacji i utrzymania, w tym częstotliwość ich stosowania, mające na celu zapewnienie właściwego funkcjonowania tego systemu AI, w tym dotyczące aktualizacji oprogramowania;
  4. f) w stosownych przypadkach – opis mechanizmów zawartych w systemie AI wysokiego ryzyka, które umożliwiają podmiotom stosującym prawidłowe zbieranie, przechowywanie i interpretowanie rejestrów zdarzeń, zgodnie z art. 12.

 

ART. 12 TFUE 

Zakaz nadużywania pozycji dominującej

Niezgodne z rynkiem wewnętrznym i zakazane jest nadużywanie przez jedno lub większą liczbę przedsiębiorstw pozycji dominującej na rynku wewnętrznym lub na znacznej jego części, w zakresie, w jakim może wpływać na handel między Państwami Członkowskimi. 

Nadużywanie takie może polegać w szczególności na: 

  1. a) narzucaniu w sposób bezpośredni lub pośredni niesłusznych cen zakupu lub sprzedaży albo innych niesłusznych warunków transakcji;
  2. b) ograniczaniu produkcji, rynków lub rozwoju technicznego ze szkodą dla konsumentów;
  3. c) stosowaniu wobec partnerów handlowych nierównych warunków do świadczeń równoważnych i stwarzaniu im przez to niekorzystnych warunków konkurencji;
  4. d) uzależnianiu zawarcia kontraktów od przyjęcia przez partnerów zobowiązań dodatkowych, które ze względu na swój charakter lub zwyczaje handlowe nie mają związku z przedmiotem tych kontraktów.

 

Rodzaje kryptoaktywów regulowanych przez MiCA

Rozporządzenie MiCA (Markets in Crypto-Assets) to pierwszy akt prawny Unii Europejskiej, który kompleksowo reguluje prawa i obowiązki emitentów oraz dostawców usług związanych z kryptoaktywami. Celem MiCA jest zapewnienie wysokiego poziomu ochrony inwestorów, w tym szczególnie inwestorów detalicznych, zwiększenie transparentności rynku kryptoaktywów oraz ujednolicenie przepisów regulujących ten rynek w całej Unii Europejskiej. Dzięki MiCA rynek kryptoaktywów zyskuje jasne zasady, co sprzyja bezpieczeństwu inwestycji i rozwojowi branży.

kryptowaluty kryptoaktywa

Rodzaje kryptoaktywów regulowane przez MiCA 

Rodzaje kryptoaktywów regulowane przez MiCA obejmują cyfrowe reprezentacje wartości lub praw przechowywanych elektronicznie za pomocą technologii rozproszonego rejestru (DLT) lub podobnych technologii.

Rozporządzenie MiCA wyróżnia trzy główne rodzaje kryptoaktywów, które różnią się pod względem cech i poziomu ryzyka. Ten podział ma kluczowe znaczenie, ponieważ decyduje o obowiązkach regulacyjnych firm emitujących kryptoaktywa lub oferujących kryptoaktywa inwestorom. Dzięki jasnym definicjom w MiCA, przedsiębiorstwa mogą dostosować swoje działania do wymogów prawa, a inwestorzy otrzymują lepszą ochronę na rynku kryptoaktywów.

Kategorie kryptoaktywów:

Tokeny powiązane z aktywami (Asset-Referenced Tokens – ART)

Tokeny powiązane z aktywami (asset-referenced tokens, ART) to kryptoaktywa, których celem jest utrzymywanie stabilnej wartości dzięki powiązaniu z inną wartością, prawem lub ich kombinacją – w tym także, z co najmniej jedną walutą urzędową. 

ART nie są uznawane za tokeny pieniądza elektronicznego (EMT). Kluczową różnicą jest to, że wartość ART nie może być wyznaczana wyłącznie przez jedną walutę fiducjarną. Jeśli kryptoaktywo opiera swoją wartość na więcej niż jednym mierniku lub na kombinacji aktywów w tym także, z co najmniej jedną walutą urzędową – zostanie zakwalifikowane jako ART. 

Emitent tokena ART jest zobowiązany umożliwić jego wykup – albo przez wypłatę środków pieniężnych innych niż pieniądz elektroniczny, odpowiadających wartości rynkowej aktywów powiązanych z tokenem, albo poprzez wydanie tych aktywów. 

  • MiCA dopuszcza pewną elastyczność w ustalaniu miernika wartości ART, ale wykup musi być możliwy w formie pieniężnej lub poprzez dostarczenie powiązanego aktywa. 
  • W szczególności, emitent powinien zawsze zapewniać możliwość wykupu w środkach pieniężnych (nie będących pieniądzem elektronicznym), denominowanych w tej samej walucie urzędowej, która została zaakceptowana w momencie sprzedaży tokena. 

Tokeny będące E-pieniędzem (E-Money Tokens – EMT)

Tokeny EMT są powiązane z jedną walutą urzędową (np. euro) i pełnią funkcję cyfrowego odpowiednika tradycyjnego pieniądza. Ich kluczową cechą jest gwarancja wykupu po wartości nominalnej.

Emitentami tokenów będących e-pieniądzem mogą być wyłącznie instytucje kredytowe lub instytucje pieniądza elektronicznego. Podmioty te muszą zapewnić posiadaczom tokenów możliwość realizacji prawa do wykupu w dowolnym momencie, po wartości nominalnej i w walucie, z którą dany token jest powiązany. 

Przykładem takiego tokenu mogą być stablecoiny powiązane z euro, które dążą do utrzymania parytetu 1:1 z walutą euro. W świetle przepisów MiCA, emitenci takich tokenów będą musieli spełniać rygorystyczne wymogi regulacyjne, w tym posiadać odpowiedni status prawny oraz zapewniać realną możliwość wykupu tokenów po ich wartości nominalnej. 

Pozostałe kryptoaktywna

W tej kategorii znajdują się kryptowaluty, które nie zaliczają się ani do tokenów powiązanych z aktywami – takie jak Bitcoin (BTC) czy Ethereum (ETH), które nie mają mechanizmu stabilizacji wartości. Do tej grupy zaliczają się również tokeny użytkowe (utility tokens), które zapewniają dostęp do usług lub towarów oferowanych przez emitenta.

Do tej kategorii zaliczają się również tokeny użytkowe (utility tokens), które dają posiadaczom dostęp do określonych usług lub towarów oferowanych przez emitenta. Token taki można porównać do cyfrowego vouchera lub biletu uprawniającego do skorzystania z konkretnej usługi lub nabycia określonego towaru. 

kryptowaluty kryptoaktywa MICA

Kryptoaktywa wyłączone z regulacji MiCA

MiCA nie obejmuje wszystkich cyfrowych aktywów. Rozporządzenie wyłącza spod swojego zakresu określone kategorie aktywów cyfrowych, które albo są już regulowane przez inne akty prawne UE, albo nie spełniają definicji kryptoaktywów w rozumieniu MiCA. Przepisy wyłączają z regulacji w szczególności instrumenty finansowe oraz produkty finansowe, które podlegają dyrektywie MiFID II. 

Zgodnie z art. 2 ust. 4 rozporządzenia, wyłączeniu ze stosowania MiCA podlegają również: 

  • depozyty, w tym lokaty strukturyzowane, 
  • środki pieniężne (chyba że spełniają definicję tokenów będących e-pieniądzem), 
  • ubezpieczenia, produkty i programy emerytalne. 

Niezamienne tokeny (NFT) 

Rozporządzenie MiCA nie reguluje także niezamiennych tokenów (NFT), pod warunkiem, że są one rzeczywiście unikalne i niezamienne. Dotyczy to przykładowo cyfrowych dzieł sztuki lub unikatowych przedmiotów kolekcjonerskich w grach komputerowych. 

Warto jednak zwrócić uwagę na istotne rozróżnienie – jeżeli emisja kryptoaktywów jako niezamiennych tokenów odbywa się w ramach dużej serii lub kolekcji, może to zostać uznane za wskaźnik ich faktycznej zamienności, co w konsekwencji spowoduje objęcie ich regulacjami MiCA. Ponadto, ułamkowe części unikalnego i niezamiennego kryptoaktywa nie są uznawane za unikalne i niezamienne, więc również będą podlegać przepisom MiCA. 

Kryptoaktywa ograniczone do wewnętrznych sieci 

Rozporządzenie MiCA nie obejmuje również kryptoaktywów wykorzystywanych w zamkniętych sieciach, takich jak punkty lojalnościowe czy bony akceptowane wyłącznie przez ich emitenta. Ten wyjątek ma zastosowanie do aktywów cyfrowych, które funkcjonują w ograniczonym ekosystemie i nie są przeznaczone do szerszego obrotu na rynku. 

kryptowaluty kryptoaktywa MICA

Wnioski i Zalecenia

Zachęcamy do skontaktowania się z prawnikiem w celu uzyskania kompleksowego wsparcia prawnego przy określaniu klasyfikacji kryptoaktywów oraz zapewnienia zgodności z przepisami regulującymi rynek kryptoaktywów i instrumentów finansowych. 

Sójka AI – cyfrowy strażnik etyki i bezpieczeństwa 

W dobie nieustannie rozwijającej się technologii, sztuczna inteligencja (AI) odgrywa coraz bardziej znaczącą rolę w naszym codziennym życiu. Od aplikacji, które pomagają w organizacji czasu, po algorytmy rozpoznające obrazy, AI zyskuje na popularności, ale równocześnie stawia przed nami poważne wyzwania. W szczególności w zakresie etyki, szerzenia fake newsów, prawa i cyberbezpieczeństwa. W odpowiedzi na te wyzwania powstał projekt Sójka AI, który łączy w sobie etyczne granice technologii i dbałość o bezpieczeństwo użytkowników. 

AI

Etyczna Sztuczna Inteligencja – konieczność w erze cyfrowej

Internet to przestrzeń, która oferuje nieograniczone możliwości, ale jednocześnie pełna jest zagrożeń. Na każdym kroku można napotkać toksyczne treści, hejt czy manipulację. Coraz częściej również korzystamy z narzędzi sztucznej inteligencji, które mają na celu wspieranie nas w codziennym życiu. Niestety, AI może również stanowić zagrożenie, jeśli nie jest odpowiednio zaprojektowana i kontrolowana. Właśnie dlatego powstał projekt Sójka AI, który działa jako cyfrowy strażnik etyki, chroniący użytkowników przed szkodliwymi treściami. 

Dlaczego potrzebujemy etycznej sztucznej inteligencji?

Zaletą sztucznej inteligencji jest jej zdolność do analizowania ogromnych ilości danych w krótkim czasie. Dzięki temu AI może identyfikować i reagować na problemy, które często umykają ludzkiej uwadze. Jednak bez odpowiednich granic etycznych, takie algorytmy mogą generować niebezpieczne treści lub wspierać nieodpowiednie zachowania. Sójka AI to odpowiedź na te zagrożenia, zapewniając narzędzia do moderowania treści i eliminowania toksycznych i potencjalnie niebezpiecznych interakcji. 

AI

Bielik AI – przedsmak odpowiedzialnej sztucznej inteligencji

Bielik AI to pierwszy krok w stronę bardziej odpowiedzialnej technologii AI w Polsce. Projekt ten zyskał uznanie dzięki swojej zdolności do analizowania danych, wykrywania zagrożeń i wspierania etycznego rozwoju AI. Bielik AI zrealizował swoją misję poprzez wykorzystanie zaawansowanych algorytmów, które analizują dane w kontekście etycznym zapewniając użytkownikom bezpieczne i pozytywne doświadczenia w Internecie. 

Współpraca z społecznością

Ważnym aspektem Bielika AI była współpraca z użytkownikami, którzy pomagali w rozwijaniu projektu poprzez swoje doświadczenia i sugestie. Tego samego rodzaju podejście zostało zaadoptowane przez twórców Sójki AI, która również bazuje na współpracy z internautami w celu stworzenia algorytmu, który będzie skutecznie chronił użytkowników przed zagrożeniami w Internecie. Link do ankiety. 

Jak Bielik AI wpływa na rozwój Sójki AI?

Bielik AI posłużył jako inspiracja dla powstania Sójki AI. Dzięki doświadczeniom zdobytym przy tworzeniu Bielika, twórcy Sójki mogli skupić się na rozwinięciu nowych technologii, które umożliwią jeszcze bardziej skuteczną moderację treści, wykrywanie szkodliwych działań, a także ochronę użytkowników przed manipulacją i niewłaściwymi treściami. 

LLM security

Co potrafi Sójka AI – cyfrowy strażnik etyki? 

Sójka AI to algorytm, który działa jako cyfrowy strażnik, eliminując toksyczne treści oraz chroniąc użytkowników przed szkodliwymi informacjami. Dzięki swojej zaawansowanej konstrukcji, Sójka może: 

  • analizować czaty i wykrywać toksyczne intencje –  algorytm jest w stanie rozpoznać, kiedy rozmowa w Internecie przybiera negatywny charakter, a użytkownicy zaczynają używać obraźliwych słów lub wyrażeń;. 
  • weryfikować odpowiedzi AI i eliminować niebezpieczne treści – Sójka AI może analizować odpowiedzi generowane przez inne modele AI, upewniając się, że są one zgodne z etycznymi zasadami i nie zawierają szkodliwych treści;. 
  • moderować treści, chroniąc przed hejtem i manipulacją – Sójka AI potrafi skutecznie moderować treści w różnych przestrzeniach eliminując te, które zawierają hejt, mowę nienawiści, czy manipulacje;. 
  • dbać o bezpieczeństwo psychiczne najmłodszych użytkowników – Sójka AI to także narzędzie, które zwraca szczególną uwagę na młodszych użytkowników Internetu, chroniąc ich przed treściami, które mogą mieć negatywny wpływ na ich psychikę. 

Zastosowanie Sójki AI w praktyce 

Sójka AI może znaleźć swoje zastosowanie w wielu dziedzinach, zarówno w biznesie, jak i w życiu codziennym użytkowników. Dzięki swojej zdolności do analizy dużych zbiorów danych i szybkiego reagowania na zagrożenia, może być wykorzystywana przykładowo do: 

  • moderowania dyskusji online – firmy i platformy internetowe mogą potencjalnie wykorzystywać Sójkę do zarządzania dyskusjami i eliminowania negatywnych treści w czasie rzeczywistym;. 
  • wspierania platform edukacyjnych – Sójka AI może być używana na platformach edukacyjnych do monitorowania interakcji uczniów, zapewniając, że nie będą oni narażeni na szkodliwe lub nieodpowiednie treści;. 
  • wzmacniania platform społecznościowych – dzięki Sójce AI, platformy społecznościowe mogą stać się miejscem bardziej przyjaznym i bezpiecznym dla wszystkich użytkowników, zwłaszcza dla najmłodszych;. 
  • i wiele więcej. 

ai law

Kontekst prawny oraz przyszłość etycznych modeli AI 

Projekty takie jak Sójka AI są tylko początkiem dążenia do stworzenia bezpiecznego, etycznego i odpowiedzialnego Internetu. Z każdym rokiem technologia AI będzie coraz bardziej złożona, a jej rola w naszym życiu coraz bardziej znacząca.  

Etyczne modele AI w Unii Europejskiej – prawo, praktyka i kierunki rozwoju 

Wraz z dynamicznym rozwojem sztucznej inteligencji Unia Europejska stała się światowym liderem w kształtowaniu ram prawnych i etycznych dla tej technologii. Projekty takie jak Sójka AI czy Bielik AI w Polsce ilustrują ewolucję od czystej innowacji ku odpowiedzialnemu wdrażaniu systemów, które szanują prawa podstawowe, transparentność i bezpieczeństwo użytkowników. W centrum tej transformacji znajduje się AI Act – pierwsze na świecie kompleksowe rozporządzenie regulujące AI, które wraz z innymi inicjatywami tworzy spójny ekosystem dla etycznej sztucznej inteligencji. 

Podstawy prawne etycznej AI w UE 

AI Act – klasyfikacja ryzyka i obowiązki 

AI Act, który wszedł w życie 1 sierpnia 2024 r., wprowadza czterostopniowy model ryzyka

  • ryzyko niedopuszczalne (np. systemy społecznego scoringu, manipulacyjne AI wykorzystujące słabości grup wrażliwych) – całkowity zakaz stosowania;. 
  • wysokie ryzyko (m.in. systemy rekrutacyjne, oceny kredytowe, diagnostyka medyczna) – wymagają certyfikacji, audytów i stałego nadzoru;. 
  • ograniczone ryzyko (np. chatboty) – obowiązek informowania użytkowników o interakcji z AI;. 
  • minimalne ryzyko (np. filtry spamowe) – brak dodatkowych regulacji poza ogólnymi zasadami etycznymi. 

Przykład: systemy do moderacji treści takie jak Sójka AI mogą kwalifikować się jako systemy wysokiego ryzyka ze względu na wpływ na wolność słowa i ochronę danych. Jeżeli system AI zostanie zakwalifikowany do tej kategorii musi on wtedy spełniać wymogi AI Act dotyczące jakości danych, przejrzystości algorytmów i mechanizmów odwoławczych. 

Wytyczne etyczne UE 

Komisja Europejska już w 2019 r. zdefiniowała 7 filarów godnej zaufania AI: 

  1. poszanowanie autonomii człowieka,. 
  2. bezpieczeństwo techniczne i społeczne,. 
  3. ochrona prywatności,. 
  4. przejrzystość,. 
  5. różnorodność i niedyskryminacja,. 
  6. odpowiedzialność społeczna,. 
  7. zrównoważony rozwój. 

Te zasady stały się podstawą dla AI Act, zwłaszcza w kontekście wymogu „humano-centrycznego” projektowania systemów. 

Inicjatywy w UE 

  • GenAI4EU – program wspierający wdrażanie generatywnej AI w kluczowych sektorach gospodarki.  

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

 

Kroki dla przedsiębiorstw – jak budować etyczne AI zgodnie z AI Act? 

  1. Mapowanie ryzyka i audyt systemów

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie; 

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić; 

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych; 

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA (Data Protection Impact Assessment). Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania. 

Więcej tutaj: Jak tworzyć narzędzia AI zgodnie z prawem?

  1. Wdrożenie governance
  • Powołaj zespół ds. etyki AI składający się w zależności od sytuacji oraz możliwości z prawników, inżynierów, czy specjalistów ds. compliance’u. 
  • Opracuj Politykę wykorzystywania AI uwzględniający wytyczne UE i specyfikę branży. WiecejWięcej o tym możesz przeczytać tutaj:  

Co powinna zawierać Polityka wykorzystywania systemów AI?

  1. Transparentność i kontrola
  • Dla systemów wysokiego ryzyka: 
  • Udostępnij streszczenia techniczne opisujące logikę działania AI (np. poprzez dashboardy typu Explainable AI Booster). Przykład: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview  
  • Wprowadź obowiązek zatwierdzania wyników przez człowieka w kluczowych procesach. 
  1. Zarządzanie danymi
  • Stosuj algorytmy debiasingowe do eliminacji uprzedzeń w danych treningowych. 

 Algorytmy debiasingowe to techniki stosowane w sztucznej inteligencji (AI) i uczeniu maszynowym, które mają na celu usunięcie lub zmniejszenie uprzedzeń (biasów) w danych, które mogą prowadzić do niesprawiedliwych, dyskryminujących lub nieprecyzyjnych wyników. Bias w kontekście AI odnosi się do niezamierzonych skłonności w systemie, które mogą wystąpić w wyniku błędów w danych wejściowych lub w sposobie, w jaki model AI jest trenowany. 

  • Wykonuj regularne audyty jakości danych, szczególnie dla systemów wykorzystujących dane wrażliwe (rasa, religia, zdrowie). 
  1. Certyfikacja i compliance
  • Skorzystaj z platform certyfikacyjnych rozwijanych w ramach projektu CERTAIN, które automatyzują sprawdzanie zgodności z AI Act. 
  • Zarejestruj systemy wysokiego ryzyka w europejskiej bazie danych AI. 
  1. Szkolenia i kultura organizacyjna
  • Przeprowadź programy edukacyjne dla pracowników. 

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Wyzwania i przyszłość etycznej AI w UE 

Kluczowe trendy na najbliższe lata: 

  1. rozwój AI dla ESG 
  2. regulacja foundation models – plany rozszerzenia regulacji o wymogi dotyczące modeli ogólnego przeznaczenia (np. Meta Llama 3). 
  3. współpraca transgraniczna 

Podsumowanie

Unijne podejście do etycznej AI, choć wymagające, tworzy unikalną szansę dla firm na budowę zaufania klientów i przewagi konkurencyjnej. Projekty takie jak Sójka AI pokazują, że połączenie innowacyjności z odpowiedzialnością jest możliwe – wymaga jednak strategicznego planowania, inwestycji w governancę i ścisłej współpracy z regulatorami. W nadchodzącej dekadzie to właśnie etyka stanie się głównym motorem postępu technologicznego w Europie. 

 

Sztuczna inteligencja, prawa autorskie i artystyczne kontrowersje dotyczące Studia Ghibli 

Sztuczna inteligencja (AI) coraz śmielej wkracza do świata sztuki wywołując zarówno fascynację, jak i liczne kontrowersje. Dzięki generatywnym narzędziom takim jak DALL- E, Midjourney czy ChatGPT możliwe stało się tworzenie niezwykle realistycznych obrazów jedynie na podstawie opisów tekstowych lub odniesień stylistycznych. Mechanizm działania tych rozwiązań opiera się na potężnych modelach językowo-wizualnych, które analizując miliony grafik dostępnych w sieci uczą się rozpoznawać konkretne cechy stylów artystycznych, kompozycji czy formy. 

Ghibli style AI

Trening modeli AI – jak sztuczna inteligencja uczy się tworzyć obrazy? 

Trening modeli AI polega na wykorzystaniu dużych zbiorów danych wizualnych i tekstowych, z których algorytmy wyciągają wzorce oraz schematy estetyczne. Najczęściej stosowane są tu techniki takie jak Generative Adversarial Networks (GANs), czyli sieci generujące obrazy i oceniające ich realizm, Neural Style Transfer (NST) pozwalające na naśladowanie stylu jednego obrazu w drugim oraz Convolutional Neural Networks (CNNs), które umożliwiają dogłębną analizę elementów wizualnych i tworzenie nowych kompozycji na ich podstawie. 

Sztuczna inteligencja a prawa autorskie – nowe wyzwania prawne 

Wraz z rosnącą popularnością AI w sztuce pojawiły się jednak poważne pytania natury prawnej. Jednym z najbardziej palących problemów jest kwestia praw autorskich. Modele generatywne są trenowane na danych dostępnych publicznie, ale wiele z tych materiałów – grafiki, ilustracje, zdjęcia czy fragmenty filmów – objętych jest ochroną prawną. Często są to obrazy pobierane z serwisów takich jak Pinterest, DeviantArt, blogów artystycznych czy forów kreatywnych, a także kadry z filmów i seriali – w tym produkcji Studia Ghibli – które nigdy nie zostały oficjalnie udostępnione, w tym celu przez ich twórców. Do treningu modeli wykorzystywane są również ilustracje pochodzące z książek, komiksów i gier komputerowych, co budzi ogromne wątpliwości w środowisku artystów i prawników. 

Ghibli style AI

Wykorzystywanie cudzych dzieł bez zgody – czy to legalne? 

Wielu twórców nie ma świadomości, że ich dzieła mogły zostać wykorzystane bez zgody i wynagrodzenia do tworzenia narzędzi, które następnie konkurują z ich pracą na rynku. Kwestia licencjonowania danych do treningu AI pozostaje wciąż jednym z najbardziej dyskutowanych zagadnień w branży. W odpowiedzi na rosnącą presję niektóre firmy technologiczne – w tym OpenAI – zaczęły zawierać oficjalne umowy z wydawcami, takimi jak The Guardian czy Time, które udostępniają swoje archiwa w zamian za opłaty licencyjne. To krok w stronę etycznej transparentności, ale jednocześnie wyjątek, a nie reguła. Nadal wiele firm opiera się na nieuregulowanych zbiorach danych, tłumacząc się ich „publiczną dostępnością”. 

Prawo autorskie a sztuczna inteligencja na świecie i w Polsce 

Prawo autorskie na świecie 

Pojawia się pytanie, czy użycie chronionych materiałów do treningu modeli bez zgody właścicieli praw autorskich może być legalne. W niektórych krajach, takich jak Japonia, odpowiedź brzmi: tak – prawo zezwala tam na wykorzystywanie dzieł chronionych w celach badawczo-rozwojowych, jeśli służy to postępowi technologicznemu. W Unii Europejskiej sytuacja jest bardziej złożona, ale trwają nad tym prace.  

Przeczytaj więcej tutaj: 

https://lbplegal.com/jakie-wyzwania-prawne-stoja-przed-sztuczna-inteligencja/

https://lbplegal.com/figma-a-ai/

W Stanach Zjednoczonych z kolei trwają intensywne debaty na temat zakresu dozwolonego użytku, tzw. fair use i tego, czy trening AI można pod tę zasadę podciągnąć. 

Potwierdza to decyzja US Copyright Office z 2022 roku, która odmówiła rejestracji obrazu wygenerowanego przez AI (Midjourney) Jansona Allena pt. pt. Théâtre D’opéra Spatial właśnie z powodu braku autora będącego człowiekiem. Wnioskodawca argumentował, że skoro osoby prawne mogą posiadać prawa autorskie, to to samo powinno dotyczyć sztucznej inteligencji. Argument ten jednak został odrzucony – AI nie posiada zdolności prawnej. 

Według USCO wnioskodawca nie może zostać uznany za autora wspomnianego obrazu. Wskazał również, że prompty nie stanowią dla Midjourney konkretnych instrukcji do określonej formy – w pewnym sensie mamy tu również pewien procent prawdopodobieństwa. Według USCO „gdy AI otrzymuje prompt od użytkownika i tworzy w odpowiedzi skomplikowane słowne, wizualne lub muzyczne utwory, to tradycyjne elementy twórczości są determinowane i wykonywane przez technologię, a nie użytkownika”. Dodatkowo działalność wnioskodawcy nie prowadziła do „nadania dziełu wyraźnej formy wynikającej z twórczych wyborów autora”, ani nie występowała „twórcza kontrola człowieka nad dziełem”. Ostateczny wygląd wygenerowanej grafiki przez Midjourney pozostawał poza kontrolą wnioskodawcy, ponieważ był zależny od danych użytych podczas procesu treningu modelu oraz początkowego „szumu”, który służył jako punkt wyjścia do procesu dyfuzji prowadzącego do powstania końcowego obrazu.  

Prawo autorskie w Polsce 

Art. 1 ust. 1 Ustawy o prawie autorskim i prawach pokrewnych (PrAut) 

„Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór)”. 

 Zgodnie z powyższym systemy sztucznej inteligencji nie mogą posiadać praw autorskich, głównie z powodu ich braku zdolności prawnej – czyli możliwości pełnienia roli podmiotu praw i obowiązków. W przeciwieństwie do ludzi, sztuczna inteligencja nie posiada osobowości prawnej ani indywidualności, a tym samym nie jest zdolna do twórczości w rozumieniu prawa.  

Ghibli style AI

Czy styl artystyczny podlega ochronie prawnej? 

Prawo autorskie nie chroni stylu jako takiego. Nie podlegają ochronie również idee, koncepcje, metody działania ani sposoby wyrażania – o ile nie przybierają formy konkretnego dzieła. Innymi słowy – inspirowanie się stylem Ghibli nie stanowi jeszcze naruszenia prawa, ale odwzorowanie konkretnego bohatera czy charakterystycznych elementów jego wyglądu może być już potraktowane jako plagiat. Co nie zmienia faktu, że etyka takiego postępowania jest co najmniej wątpliwa. 

Sytuacja komplikuje się dodatkowo, gdy mamy do czynienia z utworem współautorskim – zgodnie z art. 9 ust. 1 ustawy o prawie autorskim i prawach pokrewnych – wówczas konieczne jest uzyskanie zgody wszystkich współtwórców na korzystanie z utworu.  

Co więcej, oprócz prawa autorskiego twórczość może być również chroniona jako dobro osobiste. 

 

Głośne procesy sądowe o trenowanie AI na cudzych dziełach 

Na świecie toczy się coraz więcej postępowań dotyczących nieautoryzowanego wykorzystywania dzieł do trenowania AI.  

Przykłady pozwów o plagiat w kontekście treningu AI: 

  • W 2019 roku Getty Images pozwała Google, zarzucając firmie naruszenie praw autorskich. Według Getty, Google bez zgody wykorzystał miliony zdjęć z jej bazy do trenowania algorytmu wyszukiwania obrazów.  
  • W 2022 roku Getty Images ponownie znalazła się w centrum uwagi, tym razem pozywając firmę Stability AI Inc. Zarzut dotyczył nieuprawnionego wykorzystania milionów zdjęć w celu trenowania systemu generowania obrazów – Stable Diffusion. Sprawa wywołała gorącą debatę na temat praw autorskich w kontekście treści generowanych przez sztuczną inteligencję. 
  • W marcu 2024 roku trzej amerykańscy pisarze złożyli pozew przeciwko firmie NVIDIA w Sądzie Federalnym w Kalifornii. Zarzucali oni, że ich książki zostały wykorzystane bez zgody do trenowania generatywnego modelu AI o nazwie NeMo. 

 

Artyści wobec AI – entuzjazm i niepokój 

Perspektywa artystów jest w tej debacie niezwykle ważna. Dla wielu z nich AI to ciekawe narzędzie eksperymentalne, pozwalające eksplorować nowe formy wyrazu. Jednak rosnąca liczba grafik generowanych „w ich stylu” prowadzi do poczucia utraty kontroli nad własnym dorobkiem i obawy o deprecjację ich pracy. Z badań przeprowadzonych przez platformę Book An Artist wynika, że aż 74% artystów uważa wykorzystywanie ich dzieł do trenowania sztucznej inteligencji za nieetyczne. 

Ghibli style AI

Nowa polityka OpenAI – odpowiedź na presję artystów i użytkowników 

Wiralowa popularność „ghiblifikacji” zdjęć skłoniła miliony użytkowników do przesyłania swoich portretów do ChatGPT. W związu z tym w odpowiedzi na kontrowersje OpenAI wprowadziło ograniczenia w generowaniu portretów w stylu żyjących artystów. Od 27 marca 2025 roku ChatGPT blokuje próby tworzenia obrazów na podstawie zdjęć rzeczywistych osób, powołując się na „ograniczenia polityki treści”. Zmiana ta nie dotyczy jednak stylów studia (np. Ghibli), co budzi wątpliwości, czy jest to zabieg czysto wizerunkowy.  

Dane a prywatność użytkowników 

Wiralowa popularność zjawiska określanego jako „ghiblifikacja” – czyli stylizowania zdjęć użytkowników na wzór estetyki znanej ze Studia Ghibli – skłoniła miliony osób do przesyłania swoich portretów do ChatGPT. Choć firma OpenAI deklaruje, że obrazy nie są przechowywane po zakończeniu sesji, specjaliści zajmujący się ochroną prywatności zwracają uwagę na istotne luki w tej polityce. Zwłaszcza jeśli użytkownik nie zaznaczy opcji rezygnacji (opt-out). 

Ghibli style AI

Kwestie prawne 

Po pierwsze, zgodnie z art. 6 ust. 1 lit. a RODO samo przesłanie zdjęcia może potencjalnie być traktowane jako wyrażenie zgody na jego przetwarzanie. W praktyce oznacza to, że jeśli użytkownik nie skorzystał z opcji rezygnacji z przetwarzania danych (tzw. opt-out), OpenAI może legalnie wykorzystać te dane – również w celu trenowania modeli sztucznej inteligencji.  

Przeczytaj tutaj więcej: 

https://lbplegal.com/chat-gpt-vs-dane-osobowe/

Co mówi o tym sam Chat GPT?  

Etyczne alternatywy – czy możliwa jest „transparentna i etyczna” sztuczna inteligencja? 

Niektóre firmy – takie jak Stability AI – umożliwiają twórcom wykluczenie ich dzieł z zestawów treningowych, a Adobe Firefly oparło swój model wyłącznie na zdjęciach z legalnych banków zapewniając twórcom wynagrodzenie za wykorzystanie ich materiałów. Tego typu podejścia pokazują, że możliwa jest etyczna współpraca między technologią a sztuką – oparta na zgodzie, przejrzystości i podziale korzyści. 

Ghibli AI

Podsumowanie – sztuka i AI: koegzystencja czy konflikt? 

Sztuczna inteligencja otwiera nowe możliwości dla twórczości artystycznej, ale stawia również ogromne wyzwania związane z ochroną praw autorskich, prywatnością oraz etyką. Kluczowe jest wypracowanie jasnych regulacji prawnych, mechanizmów wynagradzania twórców i modeli opartych na poszanowaniu praw jednostki. Tylko wtedy możliwa będzie harmonijna koegzystencja tradycyjnej sztuki i innowacyjnych narzędzi AI, w której technologia nie będzie wypierać człowieka, lecz wspierać jego kreatywność. 

 

Platforma STEP – nowa era dla AI w Unii Europejskiej

Unia Europejska podjęła ambitne kroki w kierunku wzmocnienia swojej pozycji w dziedzinie sztucznej inteligencji (AI) i innowacyjnych technologii. Kluczowym elementem tej strategii jest Platforma Strategicznych Technologii dla Europy (STEP) oraz inicjatywa InvestAI, które mają na celu zwiększenie inwestycji i stworzenie przyjaznego ekosystemu dla rozwoju AI.

AI STEP EU

Czym jest Platforma STEP?

Platforma Strategicznych Technologii dla Europy (ang. Strategic Technologies for Europe Platform, STEP) to inicjatywa UE wspierająca rozwój technologiczny i cyfrową transformację kontynentu. STEP koncentruje się na trzech kluczowych obszarach:

  1. Technologie cyfrowe i deep-tech – innowacje w zakresie AI, przetwarzania danych i obliczeń kwantowych.
  2. Czyste i zasobooszczędne technologie – rozwiązania związane z ekologiczną energią i zrównoważonym rozwojem.
  3. Biotechnologie – rozwój farmacji, medycyny i inżynierii genetycznej.

Platforma STEP uruchomiona w 2024 roku koordynuje finansowanie z 11 istniejących programów unijnych, w tym Horyzont Europa, Cyfrowa EuropaFundusz Innowacyjny.

InvestAI – 200 miliardów euro na rozwój AI

W ramach platformy STEP Komisja Europejska ogłosiła w lutym 2025 roku inicjatywę InvestAI, która ma na celu zmobilizowanie 200 miliardów euro na rozwój AI.

Kluczowe elementy InvestAI:

  • 20 miliardów euro na gigafabryki AI – rozwój infrastruktury obliczeniowej do trenowania złożonych modeli AI.
  • Sześć gigafabryk AI – planowane w UE ośrodki szkoleniowe dla najnowocześniejszych systemów AI.
  • 100 000 układów AI nowej generacji – każda fabryka będzie wyposażona w zaawansowane układy AI, co zwiększy moc obliczeniową w Europie.

Cele InvestAI

Inicjatywa InvestAI ma na celu nie tylko zwiększenie konkurencyjności Europy w dziedzinie AI, ale także zapewnienie, że rozwój tej technologii będzie zgodny z europejskimi wartościami i standardami etycznymi. Jak stwierdził Ursula von der Leyen: “AI poprawi naszą opiekę zdrowotną, pobudzi nasze badania naukowe i innowacje oraz zwiększy naszą konkurencyjność. Chcemy, aby sztuczna inteligencja była siłą na rzecz dobra i wzrostu. Robimy to dzięki naszemu własnemu europejskiemu podejściu – opartemu na otwartości, współpracy i doskonałych talentach”.

Finansowanie i struktura InvestAI

InvestAI będzie obejmować wielowarstwowy fundusz z udziałami o różnych profilach ryzyka i zwrotu. Początkowe finansowanie będzie pochodzić z istniejących unijnych programów finansowania, które mają komponent cyfrowy, takich jak program “Cyfrowa Europa” i “Horyzont Europa” oraz InvestEU.

Państwa członkowskie UE będą mogły również wnieść swój wkład poprzez programowanie funduszy ze swoich pul środków finansowych przeznaczonych na politykę spójności.

AI STEP EU

AI Act – regulacje dla etycznej sztucznej inteligencji

Wspieranie AI idzie w parze z regulacjami. AI Act, którego pierwsze przepisy rozpoczęły stosowanie 2 lutego 2025 roku, wprowadza zasady dotyczące bezpiecznego i etycznego rozwoju AI.

Kluczowe założenia AI Act:

  1. Kategoryzację ryzyka – AI Act definiuje cztery kategorie ryzyka dla systemów AI:
  • Systemy AI niedopuszczalnego ryzyka
  • Systemy AI wysokiego ryzyka
  • Systemy AI ograniczonego ryzyka
  • Systemy AI minimalnego ryzyka
  1. Wykluczenie systemów AI niedopuszczalnego ryzyka – eliminacja technologii zagrażających prawom człowieka.
  2. Surowe wymogi dla systemów wysokiego ryzyka – przejrzystość, nadzór ludzki i zarządzanie ryzykiem.
  3. Wsparcie innowacji – AI Act nie tylko reguluje, ale i promuje rozwój AI w Europie.

 

Synergia między inwestycjami a regulacjami

Połączenie znaczących inwestycji w ramach InvestAI z kompleksowymi regulacjami AI Act tworzy unikalne środowisko dla rozwoju AI w Europie. Ta synergia ma na celu:

  1. Zapewnienie konkurencyjności – inwestycje mają pomóc europejskim firmom w rozwoju zaawansowanych technologii AI, podczas gdy regulacje mają zapewnić zaufanie konsumentów i partnerów biznesowych.
  2. Promowanie etycznego AI – europejskie podejście kładzie nacisk na rozwój AI zgodnej z wartościami UE, co może stać się globalnym standardem.
  3. Stymulowanie innowacji – jasne ramy prawne w połączeniu z dostępem do finansowania mają zachęcać firmy do innowacji w obszarze AI.

Gigafabryki AI – nowa infrastruktura dla sztucznej inteligencji

Fabryki AI są kluczowym elementem europejskiej strategii AI. Komisja Europejska finansuje sześć takich fabryk, z czego jedna powstanie w Poznaniu.

Poznańskie Centrum Superkomputerowo-Sieciowe (PCSS) otrzymało 200 mln zł dofinansowania z unijnego programu na rozwój infrastruktury Fabryki Sztucznej Inteligencji w Polsce. Decyzja Komisji Europejskiej to kluczowy krok w realizacji strategii sieciowej AI, której celem jest umocnienie Europy jako globalnego lidera w dziedzinie godnej zaufania sztucznej inteligencji.

Inicjatywa Fabryk AI zakłada utworzenie zaawansowanej sieci energetycznej wspierającej działalność badawczo-rozwojową, integrację superkomputerów EuroHPC, a także dostarczanie danych dla sektora naukowego i przemysłowego.

Projekt realizowany przez PCSS uzyskał 200 mln zł (50 mln euro) z Komisji Europejskiej, co zwiększa całkowitą pulę środków na rozwój Fabryk AI w Polsce do 340 mln zł.

Znaczenie fabryk AI:

  • Nowoczesna infrastruktura – zapewnią niezbędną moc obliczeniową dla zaawansowanych modeli AI.
  • Centra innowacji – ułatwią współpracę naukowców, startupów i przedsiębiorców.
  • Demokratyzacja dostępu do AI – umożliwią dostęp do technologii AI nie tylko dla gigantów, ale także dla MŚP i uczelni.

AI STEP EU

Wyzwania i perspektywy dla Europy w AI

 

Główne wyzwania:

Szanse i perspektywy:

 

  1. Globalna konkurencja – Europa musi konkurować z USA i Chinami.
  2. Fragmentacja rynku – różnice między państwami UE mogą spowolnić wdrażanie AI.
  3. Niedobór talentów – konieczne są inwestycje w edukację i zatrzymanie ekspertów AI w Europie.
  4. Balans między regulacją a innowacją – znalezienie równowagi między ochroną praw a rozwojem technologii.

 

  • Europa liderem etycznej AI – dzięki AI Act i innowacyjnym inwestycjom.
  • Nowe możliwości biznesowe w sektorach zdrowia, przemysłu i energii.
  • Zwiększenie konkurencyjności europejskiej gospodarki.
  • Rozwiązywanie globalnych problemów – AI może pomóc w walce z kryzysem klimatycznym i epidemiami.

Jak przedsiębiorca może uzyskać udział w projekcie STEP i skorzystać z Funduszy Europejskich?

Aby zyskać możliwość udziału w projekcie STEP i skorzystać z dofinansowania w ramach Programu Fundusze Europejskie dla Nowoczesnej Gospodarki, przedsiębiorcy muszą zacząć od złożenia formularza zgłoszeniowego na stronie www.step.gov.pl.

Proces oceny pomysłu trwa zaledwie 7 dni, a po pozytywnej weryfikacji pomysłu, przedsiębiorca otrzymuje wsparcie eksperta, który pomoże w analizie mocnych i słabych stron projektu. Ekspert wskaże również odpowiednie źródła finansowania, konkursy oraz instytucje do składania wniosków, a także udzieli cennych wskazówek, które zwiększą szanse na uzyskanie funduszy.

AI STEP EU

Jakie projekty finansowane są w ramach STEP?

  1. Projekty B+R – czynności mające na celu osiągnięcie przełomów technologicznych, doskonalenie technologii pod kątem potrzeb rynku, w tym zwiększanie ich efektywności, niezawodności i opracowywanie norm
  2. Projekty inwestycyjne – tworzenie linii produkcyjnych, zakładów pierwszych w swoim rodzaju, rozbudowa lub zmiana przeznaczenia istniejących zakładów, zwiększanie skali procesów w celu zaspokojenia popytu lub wdrażanie mechanizmów kontroli jakości, aby zapewnić wytwarzanie produktów o jednakowo wysokiej jakości.
  3. Wytwarzanie technologii krytycznych lub
  4. Ochrona wzmacniania łańcuchów wartości technologii i surowców krytycznych, tj. wytwarzania
  • Produktów końcowych
  • Konkretnych komponentów
  • Konkretnych maszyn wykorzystywanych głównie do produkcji tych produktów końcowych
  • Surowców krytycznych wymienionych w załączniku aktów w sprawie surowców krytycznych
  • Powiązanych usług

Źródło: https://www.gov.pl/web/rozwoj-technologia/platforma-technologii-strategicznych-dla-europy-step 

Podsumowanie

Platforma STEP i InvestAI to kluczowe inicjatywy, które mogą zmienić pozycję Europy na globalnym rynku AI. Gigantyczne inwestycje, w tym 20 miliardów euro na gigafabryki AI połączone z odpowiednimi regulacjami (AI Act) tworzą solidne fundamenty dla rozwoju etycznej sztucznej inteligencji.

Mimo globalnej konkurencji i wyzwań, Europa ma szansę stać się liderem w rozwoju etycznej AI. Dalsze inwestycje i strategiczne działania mogą przyczynić się do technologicznego przełomu oraz poprawy jakości życia obywateli UE.

Chcesz wiedzieć więcej? Przydatne linki:

https://www.poir.gov.pl/strony/o-programie/masz-pomysl-na-innowacyjny-projekt-skorzystaj-z-inicjatywy-step/

Uzyskanie zezwolenia CASP – kluczowe informacje dla firm kryptowalutowych 

Zezwolenie CASP (Crypto-Asset Service Provider) to obowiązkowe zezwolenie wynikające z rozporządzenia MiCA (Markets in Crypto-Assets), które muszą uzyskać firmy świadczące usługi związane z kryptoaktywami w Unii Europejskiej. Dotyczy to m.in. giełd kryptowalutowych oraz kantorów kryptowalutowych. 

CASP

Jak uzyskać zezwolenie CASP? 

Aby prowadzić działalność w zakresie kryptoaktywów zgodnie z regulacjami MiCA, przedsiębiorcy muszą spełnić określone wymagania i złożyć wniosek do odpowiedniego organu nadzorczego w swoim kraju. 

Wymogi dotyczące fizycznej obecności w UE 

Zgodnie z art. 59 ust. 2 MiCA dostawcy usług w zakresie kryptoaktywów muszą: 

  • Mieć siedzibę główną w jednym z państw członkowskich w którym faktycznie prowadzą przynajmniej część działalności związanej z usługami w zakresie kryptoaktywów. 
  • Mieć miejsce faktycznego zarządu w UE. 
  • Posiadać co najmniej jednego dyrektora zamieszkałego na terenie UE. 

Zatem działalność wyłącznie wirtualna, bez fizycznej obecności w UE, nie spełnia wymogów regulacyjnych.Gdzie składa się wniosek o zezwolenie CASP? 

Podmioty ubiegające się o zezwolenie CASP składają wniosek do właściwego organu nadzorczego swojego macierzystego państwa członkowskiego. 

Macierzystym państwem członkowskim dla dostawcy usług w zakresie kryptoaktywów będzie państwo członkowskie, w którym dostawca usług w zakresie kryptoaktywów ma siedzibę statutową. 

CASP UE

Czy zezwolenie CASP pozwala na świadczenie usług w całej UE? 

Tak, po uzyskaniu zezwolenia CASP firmy mogą świadczyć usługi związane z kryptoaktywami na terenie całej Unii Europejskiej w ramach swobody przedsiębiorczości lub swobody świadczenia usług. Co ważne, działalność transgraniczna nie wymaga fizycznej obecności w przyjmującym państwie członkowskim. 

Wymogi dla członków zarządu podmiotów ubiegających się o CASP 

Członkowie zarządu muszą: 

  • Posiadać dobrą reputację, „czysty” rejestr karny oraz odpowiednią wiedzę i doświadczenie.   
  • Nie mogą być skazani za przestępstwa związane z praniem pieniędzy lub finansowaniem terroryzmu ani za inne przestępstwa, które mogłyby wpłynąć na ich dobrą opinię. 
  • Co najmniej jeden z członków zarządu musi mieć miejsce zamieszkania w Unii. 
  • Muszą również wykazać, że są w stanie poświęcić wystarczająco dużo czasu na skuteczne wykonywanie swoich obowiązków. 
  • Nie może na nich być nałożona kara na podstawie przepisów dot. prawa handlowego, prawa dotyczącego niewypłacalności oraz przepisów dotyczących usług finansowych, lub przepisów dotyczących przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu, zwalczania nadużyć finansowych lub odpowiedzialności zawodowej. 

Spełnienie tych warunków musi być udokumentowane odpowiednimi dowodami, które należy dołączyć do wniosku o wydanie zezwolenia. Organ nadzorczy będzie weryfikował, czy osoby te rzeczywiście spełniają przedmiotowe warunki. 

CASP

Dokumenty wymagane we wniosku o zezwolenie CASP 

Szczegółowa lista dokumentów i informacji, jakie powinny znaleźć się we wniosku o wydanie zezwolenia CASP jest każdorazowo zależna od rodzaju usług, jakie planuje świadczyć podmiot występujący o zezwolenie zgodnie z art. 3 ust. 1 pkt 16 MiCA. Z tego względu pierwszym krokiem w ramach przygotowań do złożenia wniosku powinno być zawsze zidentyfikowanie usług, jakie planujemy świadczyć i weryfikacja wymogów, jakie zostały przewidziane przez MiCA w odniesieniu do zezwolenia dla tych konkretnych usług.   

Bazując jednak na wymogach określonych w rozporządzeniu MiCA oraz towarzyszących mu standardach technicznych możliwe jest określenie podstawowego katalogu dokumentów i informacji, które będzie musiał skompletować podmiot przygotowujący się do złożenia wniosku o zezwolenie CASP. Będą to: 

  • Dane identyfikacyjne wnioskodawcy.  
  • Statut lub umowa spółki. 
  • Program działalności i rodzaj planowanych usług oraz miejsce i sposób ich świadczenia. 
  • Dowód spełnienia wymogów zabezpieczeń ostrożnościowych określonych w art. 67 MiCA (Dokumenty potwierdzające wymagane fundusze lub gwarancje, ewentualne polisy ubezpieczeniowe). 
  • Opis zasad zarządzania – struktura organizacyjna wnioskodawcy i system nadzoru wewnętrznego i procedury decyzyjne. 
  • Dowód odpowiedniej reputacji i kompetencji członków organu zarządzającego – (Dokumenty potwierdzające niekaralność i życiorysy (CV) oraz informacje o doświadczeniu). 
  • Opis kontroli wewnętrznej i procedur zarządzania ryzykiem (Polityki i procedury identyfikowania, oceny i zarządzania ryzykiem, procedury przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu oraz plan ciągłości działania). 
  • Dokumentacja techniczna systemów ICT i rozwiązań w zakresie bezpieczeństwa wraz z opisem w języku niespecjaistycznym (Spójny opis w języku niespecjalistycznym i polityka ciągłości działania, która obejmuje plany ciągłości działania w zakresie ICT, a także plany reagowania i przywracania sprawności ICT). 
  • Procedury wyodrębniania kryptoaktywów i środków pieniężnych klienta.  
  • Procedury rozpatrywania skarg.  
  • Polityka przechowywania i administrowania kryptoaktywami (Wymagane w przypadku planów świadczenia usług custody). 
  • Opis przepisów operacyjnych platformy obrotu (jeżeli dotyczy) – Zasady prowadzenia platformy oraz procedury i system zapobiegania nadużyciom rynkowym. 
  • Potwierdzenie wiedzy i doświadczenia osób świadczących doradztwo lub zarządzających portfelem (jeżeli zamierzamy świadczyć usługi doradztwa w zakresie kryptoaktywów lub zarządzania portfelem kryptoaktywów) – Dokumenty potwierdzające kompetencje i doświadczenie doradców niezbędne do wywiązania się ze swoich obowiązków.  
  • Wskazanie rodzaju kryptoaktywów których dotyczy usługa w zakresie kryptoaktywów.  
  • Systemy i procedury zapewniające dostępność, autentyczność, integralność i poufność danych.  
  • Polityka w zakresie outsourcingu, w tym politykę dotyczącą planów awaryjnych i strategii wyjścia, z uwzględnieniem skali, charakteru i zakresu świadczonych usług w zakresie kryptoaktywów. 

CASP

Podsumowanie 

Biorąc pod uwagę szczegółowość i obszerność informacji i dokumentów, jakie muszą zostać załączone do wniosku o wydanie zezwolenia CASP, nie ma wątpliwości, że jest to proces, do którego należy się dobrze przygotować. W związku z tym, jeśli planujesz składać wniosek o zezwolenia z MICA skontaktuj się z nami, aby upewnić się, że wniosek spełnia wszystkie wymogi regulacyjne! Chętnie pomożemy w przygotowaniu odpowiedniej dokumentacji oraz zapewnieniu zgodności z przepisami MiCA, a także innymi regulacjami właściwymi m. in. dla podmiotów finansowych lub z branży kryptoaktywów – w szczególności RODO czy DORA.   

 

Odtajnienie dokumentów w sprawie zamachu na Kennedy’ego – nowe światło na historyczne wydarzenia i wpływ technologii na badania historyczne

W dniu 19.03.2025 – ponad 60 lat po tragicznym zamachu na prezydenta Johna F. Kennedy’ego, administracja prezydenta Donalda Trumpa dokonała odtajnienia i upublicznienia tysięcy stron dokumentów związanych z tym wydarzeniem. Ta decyzja, będąca realizacją obietnicy złożonej przez Trumpa jeszcze w styczniu, ma na celu zwiększenie transparentności i zaspokojenie długotrwałego zainteresowania publicznego tą sprawą, która od dziesięcioleci fascynuje i intryguje nie tylko Amerykanów, ale i ludzi na całym świecie. 

odtajniono dokumenty zamachu na Kennediego

Skala odtajnienia i jego znaczenie 

Na stronach U.S. National Archives and Records Administration opublikowano imponującą liczbę ponad 80 tysięcy stron z 1123 różnych dokumentów. To ogromna ilość materiału, który obejmuje szeroki zakres informacji związanych z zamachem na Kennedy’ego. Wśród odtajnionych dokumentów znajdują się notatki, wywiady, protokoły z zeznań oraz inne materiały, z których część była wcześniej częściowo odtajniona, a inne są całkowicie nowe dla opinii publicznej. 

Skala tego odtajnienia jest bezprecedensowa i stanowi ważny krok w kierunku pełnego zrozumienia okoliczności zamachu. Dokumenty te mogą potencjalnie rzucić nowe światło na wiele aspektów sprawy, które do tej pory pozostawały niejasne lub były przedmiotem spekulacji. 

Kontekst prawny i historyczny 

Publikacja dokumentów jest zgodna z aktem: President John F. Kennedy Assassination Records Collection Act z 1992 r. Akt ten wymagał ujawnienia wszystkich zapisów związanych z zamachem do 26 października 2017 roku, chyba że prezydent USA zdecyduje inaczej ze względów bezpieczeństwa narodowego. Zarówno Trump, jak i wcześniej Joe Biden, korzystali z tego prawa, opóźniając pełne ujawnienie dokumentów. 

Wspomniany akt prawny był odpowiedzią na rosnące zainteresowanie publiczne i liczne teorie spiskowe, które narosły wokół zamachu na Kennedy’ego. Jej celem było zapewnienie większej transparentności i umożliwienie badaczom oraz opinii publicznej dostępu do jak największej ilości informacji związanych z tym tragicznym wydarzeniem. 

odtajniono dokumenty zamachu na Kennediego

Oczekiwania i sceptycyzm ekspertów 

Mimo że odtajnienie dokumentów wzbudziło duże zainteresowanie, wielu ekspertów pozostaje sceptycznych co do możliwości rewolucyjnych odkryć. Liczni eksperci twierdzą, że nowe dokumenty mogą uzupełnić obraz wydarzeń, ale prawdopodobnie nie zmienią fundamentalnie naszego rozumienia zamachu. 

Ten sceptycyzm wynika z faktu, że wiele kluczowych informacji dotyczących zamachu zostało już wcześniej ujawnionych, a główne linie śledztwa zostały dokładnie zbadane przez liczne komisje i niezależnych badaczy. Niemniej jednak, nawet drobne szczegóły zawarte w nowo odtajnionych dokumentach mogą pomóc w lepszym zrozumieniu kontekstu i okoliczności tego historycznego wydarzenia. 

Teorie spiskowe i kontrowersje 

Sprawa zamachu na Kennedy’ego od lat jest przedmiotem licznych teorii spiskowych. Wiele osób, w tym niektórzy członkowie rodziny Kennedy’ego, kwestionuje oficjalną wersję wydarzeń. Robert F. Kennedy Jr., bratanek zamordowanego prezydenta, wyraził kontrowersyjne poglądy sugerujące zaangażowanie CIA w śmierć jego wujka. Takie stanowisko, choć niepotwierdzone oficjalnie, pokazuje, jak głęboko zakorzenione są wątpliwości dotyczące oficjalnej wersji wydarzeń. 

Teorie spiskowe obejmują szeroki zakres alternatywnych wyjaśnień, od sugestii o zaangażowaniu mafii, przez teorie o udziale kubańskich agentów, aż po spekulacje o wewnętrznym spisku w amerykańskim rządzie. Odtajnienie nowych dokumentów może potencjalnie potwierdzić lub obalić niektóre z tych teorii, ale równie prawdopodobne jest, że dostarczy nowego materiału do dalszych spekulacji. 

odtajniono dokumenty zamachu na Kennediego

Znaczenie dla historii i prawa 

Odtajnienie dokumentów ma ogromne znaczenie nie tylko historyczne, ale i prawne. Pokazuje, jak ważna jest równowaga między bezpieczeństwem narodowym a prawem obywateli do informacji. Proces ten podkreśla również rolę prawa w kształtowaniu narracji historycznej i zapewnianiu transparentności działań rządowych. 

Z perspektywy prawnej, odtajnienie tych dokumentów stanowi ważny precedens w kwestii dostępu do informacji publicznej. Pokazuje, że nawet w sprawach najwyższej wagi państwowej, istnieje możliwość i potrzeba ujawniania informacji społeczeństwu, choć proces ten może trwać wiele lat. 

Odtajnienie tak dużej ilości dokumentów ma ponadto ogromne znaczenie dla badaczy historii. Historycy i analitycy będą mieli teraz dostęp do nowych źródeł, które mogą pomóc w weryfikacji istniejących teorii lub sformułowaniu nowych hipotez dotyczących zamachu na Kennedy’ego. 

ue odtajnianie dokumentów

Na czym polega odtajnianie informacji niejawnych w UE?  

A jak wygląda kwestia odtajniania informacji w UE? Kontekst prawny ochrony informacji niejawnych w Unii Europejskiej jest złożony i obejmuje szereg regulacji zarówno na poziomie unijnym, jak i krajowym. Kluczowym aktem prawnym w tym zakresie jest decyzja Rady 2013/488/UE, która określa zasady i minimalne normy bezpieczeństwa ochrony informacji niejawnych UE. Informacje te dzielą się na cztery kategorie: TRÈS SECRET UE/EU TOP SECRET, SECRET UE/EU SECRET, CONFIDENTIEL UE/EU CONFIDENTIAL oraz RESTREINT UE/EU RESTRICTED, każda z określonym poziomem ochrony i restrykcjami dostępu. Decyzja ta stanowi fundament ochrony informacji niejawnych w UE, w tym procedur odtajniania dokumentów, które są regulowane przez różne instytucje unijne, takie jak Rada UE, która ma swoje własne procedury dotyczące odtajniania archiwów historycznych.  

W zakresie dostępu do dokumentów instytucji UE, art. 15 Traktatu o funkcjonowaniu Unii Europejskiej (zasada otwartości) nakłada obowiązek zapewnienia przejrzystości prac instytucji UE i umożliwienia dostępu do ich dokumentów. Szczegółowe przepisy regulujące ten dostęp zawiera Rozporządzenie (WE) nr 1049/2001, które odnosi się do dokumentów Parlamentu Europejskiego, Rady i Komisji. Jednakże istnieje wyraźne napięcie między zasadą przejrzystości a koniecznością ochrony informacji niejawnych. W ramach tej równowagi, instytucje UE muszą ściśle przestrzegać zasad bezpieczeństwa, jednocześnie zapewniając obywatelom dostęp do dokumentów, o ile nie zagraża to bezpieczeństwu lub interesom UE. Przepisy te podlegają nadzorowi takich instytucji jak Europejski Rzecznik Praw Obywatelskich czy Europejski Inspektor Ochrony Danych, które kontrolują zgodność z regulacjami w zakresie ochrony informacji niejawnych.  

Chociaż każde państwo członkowskie UE ma swoje własne przepisy dotyczące ochrony informacji niejawnych, muszą one być zgodne z ogólnymi zasadami wyznaczonymi przez UE, szczególnie w kontekście wymiany informacji między państwami członkowskimi a instytucjami unijnymi. Jednocześnie kwestia odtajniania dokumentów, szczególnie w kontekście decyzji politycznych czy wyroków sądowych bywa źródłem kontrowersji. 

W ostatnim czasie coraz częściej pojawia się krytyka instytucji UE za nadmierne utajnianie informacji, co może ograniczać transparentność i dostęp obywateli do informacji publicznych. Przykładem mogą być własnie aktualne rozważania dotyczące odtajnienia dokumentów dotyczących zabójstwa Johna F. Kennedy’ego.  

Działanie to w skali całego świata wywołało liczne dyskusje na temat roli odtajniania dokumentów w kontekście historycznym i politycznym, co znajduje swoje odniesienie także do praktyk Unii Europejskiej w zakresie ochrony dokumentów niejawnych.  

ai documenty

Technologie AI w badaniach historycznych 

Nowoczesne technologie, a zwłaszcza sztuczna inteligencja (AI) odgrywają kluczową rolę w analizie i odkrywaniu nowych informacji zawartych w dokumentach. Dzięki zaawansowanym algorytmom przetwarzania języka naturalnego (NLP), badacze mogą szybko przeszukiwać ogromne zbiory dokumentów w poszukiwaniu kluczowych informacji. AI pomaga w analizie tekstu, identyfikowaniu wzorców i zależności, które mogłyby umknąć ludzkim badaczom. 

Analiza sieci powiązań jest kolejnym zastosowaniem technologii AI, które może dostarczyć nowych informacji. Narzędzia do analizy sieci społecznych pozwalają na mapowanie relacji między osobami, miejscami i wydarzeniami wymienionymi w dokumentach. To może pomóc w odkrywaniu wcześniej nieznanych powiązań lub w potwierdzaniu istniejących teorii dotyczących zaangażowanych w zamach osób. 

Ponadto, zaawansowane techniki wizualizacji danych umożliwiają przedstawienie złożonych informacji w bardziej przystępnej formie, ułatwiając analizę powiązań, chronologii wydarzeń i kontekstu historycznego. Te innowacyjne metody mogą pomóc badaczom lepiej zrozumieć, jak różne elementy związane z zamachem na Kennedy’ego tworzą całościowy obraz tego kluczowego wydarzenia w historii USA. 

W kontekście tych nowych dokumentów, technologie, w tym AI, stanowią nieocenione wsparcie dla badaczy. Dzięki narzędziom do analizy tekstu i sieci powiązań, możliwe jest szybkie dotarcie do kluczowych informacji, które byłyby trudne do wyłuskania w tradycyjny sposób. Sztuczna inteligencja pozwala na analizowanie ogromnych zbiorów danych, co znacząco przyspiesza proces odkrywania nowych faktów i wyciągania wniosków. 

ai documenty

Rola nowych technologii w analizie dokumentów 

W kontekście analizy tak dużej ilości danych nowoczesne technologie odgrywają kluczową rolę. Sztuczna inteligencja i zaawansowane algorytmy analizy tekstu mogą znacząco przyspieszyć proces przeglądania i kategoryzowania informacji zawartych w odtajnionych dokumentach. 

Technologie AI w służbie historii pomagają szybciej przeszukiwać tysięce stron w poszukiwaniu kluczowych słów, fraz lub wzorców. Analiza sieci powiązań może pomóc w mapowaniu relacji między różnymi osobami i wydarzeniami. Narzędzia te mogą także umożliwić zaawansowaną wizualizację danych, co ułatwia zrozumienie złożonych powiązań w dokumentach. 

Podsumowanie 

Odtajnienie dokumentów związanych z zamachem na prezydenta Johna F. Kennedy’ego stanowi ważny moment w historii Stanów Zjednoczonych i światowych badań historycznych. Choć pełna analiza odtajnionych dokumentów zajmie badaczom wiele czasu, samo ich ujawnienie jest ważnym krokiem w kierunku pełniejszego zrozumienia jednego z najbardziej tragicznych i kontrowersyjnych wydarzeń w historii USA. 

Niezależnie od tego, czy przyniosą one przełomowe odkrycia, czy nie, z pewnością przyczynią się do dalszej dyskusji na temat roli transparentności w demokratycznym społeczeństwie i znaczenia dostępu do informacji w kształtowaniu naszego rozumienia historii. Jednocześnie, wykorzystanie nowoczesnych technologii w analizie tych dokumentów pokazuje, jak współczesne narzędzia mogą pomóc w badaniu i interpretacji wydarzeń z przeszłości. 

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj