Rodzaje kryptoaktywów regulowanych przez MiCA

Rozporządzenie MiCA (Markets in Crypto-Assets) to pierwszy akt prawny Unii Europejskiej, który kompleksowo reguluje prawa i obowiązki emitentów oraz dostawców usług związanych z kryptoaktywami. Celem MiCA jest zapewnienie wysokiego poziomu ochrony inwestorów, w tym szczególnie inwestorów detalicznych, zwiększenie transparentności rynku kryptoaktywów oraz ujednolicenie przepisów regulujących ten rynek w całej Unii Europejskiej. Dzięki MiCA rynek kryptoaktywów zyskuje jasne zasady, co sprzyja bezpieczeństwu inwestycji i rozwojowi branży.

kryptowaluty kryptoaktywa

Rodzaje kryptoaktywów regulowane przez MiCA 

Rodzaje kryptoaktywów regulowane przez MiCA obejmują cyfrowe reprezentacje wartości lub praw przechowywanych elektronicznie za pomocą technologii rozproszonego rejestru (DLT) lub podobnych technologii.

Rozporządzenie MiCA wyróżnia trzy główne rodzaje kryptoaktywów, które różnią się pod względem cech i poziomu ryzyka. Ten podział ma kluczowe znaczenie, ponieważ decyduje o obowiązkach regulacyjnych firm emitujących kryptoaktywa lub oferujących kryptoaktywa inwestorom. Dzięki jasnym definicjom w MiCA, przedsiębiorstwa mogą dostosować swoje działania do wymogów prawa, a inwestorzy otrzymują lepszą ochronę na rynku kryptoaktywów.

Kategorie kryptoaktywów:

Tokeny powiązane z aktywami (Asset-Referenced Tokens – ART)

Tokeny powiązane z aktywami (asset-referenced tokens, ART) to kryptoaktywa, których celem jest utrzymywanie stabilnej wartości dzięki powiązaniu z inną wartością, prawem lub ich kombinacją – w tym także, z co najmniej jedną walutą urzędową. 

ART nie są uznawane za tokeny pieniądza elektronicznego (EMT). Kluczową różnicą jest to, że wartość ART nie może być wyznaczana wyłącznie przez jedną walutę fiducjarną. Jeśli kryptoaktywo opiera swoją wartość na więcej niż jednym mierniku lub na kombinacji aktywów w tym także, z co najmniej jedną walutą urzędową – zostanie zakwalifikowane jako ART. 

Emitent tokena ART jest zobowiązany umożliwić jego wykup – albo przez wypłatę środków pieniężnych innych niż pieniądz elektroniczny, odpowiadających wartości rynkowej aktywów powiązanych z tokenem, albo poprzez wydanie tych aktywów. 

  • MiCA dopuszcza pewną elastyczność w ustalaniu miernika wartości ART, ale wykup musi być możliwy w formie pieniężnej lub poprzez dostarczenie powiązanego aktywa. 
  • W szczególności, emitent powinien zawsze zapewniać możliwość wykupu w środkach pieniężnych (nie będących pieniądzem elektronicznym), denominowanych w tej samej walucie urzędowej, która została zaakceptowana w momencie sprzedaży tokena. 

Tokeny będące E-pieniędzem (E-Money Tokens – EMT)

Tokeny EMT są powiązane z jedną walutą urzędową (np. euro) i pełnią funkcję cyfrowego odpowiednika tradycyjnego pieniądza. Ich kluczową cechą jest gwarancja wykupu po wartości nominalnej.

Emitentami tokenów będących e-pieniądzem mogą być wyłącznie instytucje kredytowe lub instytucje pieniądza elektronicznego. Podmioty te muszą zapewnić posiadaczom tokenów możliwość realizacji prawa do wykupu w dowolnym momencie, po wartości nominalnej i w walucie, z którą dany token jest powiązany. 

Przykładem takiego tokenu mogą być stablecoiny powiązane z euro, które dążą do utrzymania parytetu 1:1 z walutą euro. W świetle przepisów MiCA, emitenci takich tokenów będą musieli spełniać rygorystyczne wymogi regulacyjne, w tym posiadać odpowiedni status prawny oraz zapewniać realną możliwość wykupu tokenów po ich wartości nominalnej. 

Pozostałe kryptoaktywna

W tej kategorii znajdują się kryptowaluty, które nie zaliczają się ani do tokenów powiązanych z aktywami – takie jak Bitcoin (BTC) czy Ethereum (ETH), które nie mają mechanizmu stabilizacji wartości. Do tej grupy zaliczają się również tokeny użytkowe (utility tokens), które zapewniają dostęp do usług lub towarów oferowanych przez emitenta.

Do tej kategorii zaliczają się również tokeny użytkowe (utility tokens), które dają posiadaczom dostęp do określonych usług lub towarów oferowanych przez emitenta. Token taki można porównać do cyfrowego vouchera lub biletu uprawniającego do skorzystania z konkretnej usługi lub nabycia określonego towaru. 

kryptowaluty kryptoaktywa MICA

Kryptoaktywa wyłączone z regulacji MiCA

MiCA nie obejmuje wszystkich cyfrowych aktywów. Rozporządzenie wyłącza spod swojego zakresu określone kategorie aktywów cyfrowych, które albo są już regulowane przez inne akty prawne UE, albo nie spełniają definicji kryptoaktywów w rozumieniu MiCA. Przepisy wyłączają z regulacji w szczególności instrumenty finansowe oraz produkty finansowe, które podlegają dyrektywie MiFID II. 

Zgodnie z art. 2 ust. 4 rozporządzenia, wyłączeniu ze stosowania MiCA podlegają również: 

  • depozyty, w tym lokaty strukturyzowane, 
  • środki pieniężne (chyba że spełniają definicję tokenów będących e-pieniądzem), 
  • ubezpieczenia, produkty i programy emerytalne. 

Niezamienne tokeny (NFT) 

Rozporządzenie MiCA nie reguluje także niezamiennych tokenów (NFT), pod warunkiem, że są one rzeczywiście unikalne i niezamienne. Dotyczy to przykładowo cyfrowych dzieł sztuki lub unikatowych przedmiotów kolekcjonerskich w grach komputerowych. 

Warto jednak zwrócić uwagę na istotne rozróżnienie – jeżeli emisja kryptoaktywów jako niezamiennych tokenów odbywa się w ramach dużej serii lub kolekcji, może to zostać uznane za wskaźnik ich faktycznej zamienności, co w konsekwencji spowoduje objęcie ich regulacjami MiCA. Ponadto, ułamkowe części unikalnego i niezamiennego kryptoaktywa nie są uznawane za unikalne i niezamienne, więc również będą podlegać przepisom MiCA. 

Kryptoaktywa ograniczone do wewnętrznych sieci 

Rozporządzenie MiCA nie obejmuje również kryptoaktywów wykorzystywanych w zamkniętych sieciach, takich jak punkty lojalnościowe czy bony akceptowane wyłącznie przez ich emitenta. Ten wyjątek ma zastosowanie do aktywów cyfrowych, które funkcjonują w ograniczonym ekosystemie i nie są przeznaczone do szerszego obrotu na rynku. 

kryptowaluty kryptoaktywa MICA

Wnioski i Zalecenia

Zachęcamy do skontaktowania się z prawnikiem w celu uzyskania kompleksowego wsparcia prawnego przy określaniu klasyfikacji kryptoaktywów oraz zapewnienia zgodności z przepisami regulującymi rynek kryptoaktywów i instrumentów finansowych. 

Sójka AI – cyfrowy strażnik etyki i bezpieczeństwa 

W dobie nieustannie rozwijającej się technologii, sztuczna inteligencja (AI) odgrywa coraz bardziej znaczącą rolę w naszym codziennym życiu. Od aplikacji, które pomagają w organizacji czasu, po algorytmy rozpoznające obrazy, AI zyskuje na popularności, ale równocześnie stawia przed nami poważne wyzwania. W szczególności w zakresie etyki, szerzenia fake newsów, prawa i cyberbezpieczeństwa. W odpowiedzi na te wyzwania powstał projekt Sójka AI, który łączy w sobie etyczne granice technologii i dbałość o bezpieczeństwo użytkowników. 

AI

Etyczna Sztuczna Inteligencja – konieczność w erze cyfrowej

Internet to przestrzeń, która oferuje nieograniczone możliwości, ale jednocześnie pełna jest zagrożeń. Na każdym kroku można napotkać toksyczne treści, hejt czy manipulację. Coraz częściej również korzystamy z narzędzi sztucznej inteligencji, które mają na celu wspieranie nas w codziennym życiu. Niestety, AI może również stanowić zagrożenie, jeśli nie jest odpowiednio zaprojektowana i kontrolowana. Właśnie dlatego powstał projekt Sójka AI, który działa jako cyfrowy strażnik etyki, chroniący użytkowników przed szkodliwymi treściami. 

Dlaczego potrzebujemy etycznej sztucznej inteligencji?

Zaletą sztucznej inteligencji jest jej zdolność do analizowania ogromnych ilości danych w krótkim czasie. Dzięki temu AI może identyfikować i reagować na problemy, które często umykają ludzkiej uwadze. Jednak bez odpowiednich granic etycznych, takie algorytmy mogą generować niebezpieczne treści lub wspierać nieodpowiednie zachowania. Sójka AI to odpowiedź na te zagrożenia, zapewniając narzędzia do moderowania treści i eliminowania toksycznych i potencjalnie niebezpiecznych interakcji. 

AI

Bielik AI – przedsmak odpowiedzialnej sztucznej inteligencji

Bielik AI to pierwszy krok w stronę bardziej odpowiedzialnej technologii AI w Polsce. Projekt ten zyskał uznanie dzięki swojej zdolności do analizowania danych, wykrywania zagrożeń i wspierania etycznego rozwoju AI. Bielik AI zrealizował swoją misję poprzez wykorzystanie zaawansowanych algorytmów, które analizują dane w kontekście etycznym zapewniając użytkownikom bezpieczne i pozytywne doświadczenia w Internecie. 

Współpraca z społecznością

Ważnym aspektem Bielika AI była współpraca z użytkownikami, którzy pomagali w rozwijaniu projektu poprzez swoje doświadczenia i sugestie. Tego samego rodzaju podejście zostało zaadoptowane przez twórców Sójki AI, która również bazuje na współpracy z internautami w celu stworzenia algorytmu, który będzie skutecznie chronił użytkowników przed zagrożeniami w Internecie. Link do ankiety. 

Jak Bielik AI wpływa na rozwój Sójki AI?

Bielik AI posłużył jako inspiracja dla powstania Sójki AI. Dzięki doświadczeniom zdobytym przy tworzeniu Bielika, twórcy Sójki mogli skupić się na rozwinięciu nowych technologii, które umożliwią jeszcze bardziej skuteczną moderację treści, wykrywanie szkodliwych działań, a także ochronę użytkowników przed manipulacją i niewłaściwymi treściami. 

LLM security

Co potrafi Sójka AI – cyfrowy strażnik etyki? 

Sójka AI to algorytm, który działa jako cyfrowy strażnik, eliminując toksyczne treści oraz chroniąc użytkowników przed szkodliwymi informacjami. Dzięki swojej zaawansowanej konstrukcji, Sójka może: 

  • analizować czaty i wykrywać toksyczne intencje –  algorytm jest w stanie rozpoznać, kiedy rozmowa w Internecie przybiera negatywny charakter, a użytkownicy zaczynają używać obraźliwych słów lub wyrażeń;. 
  • weryfikować odpowiedzi AI i eliminować niebezpieczne treści – Sójka AI może analizować odpowiedzi generowane przez inne modele AI, upewniając się, że są one zgodne z etycznymi zasadami i nie zawierają szkodliwych treści;. 
  • moderować treści, chroniąc przed hejtem i manipulacją – Sójka AI potrafi skutecznie moderować treści w różnych przestrzeniach eliminując te, które zawierają hejt, mowę nienawiści, czy manipulacje;. 
  • dbać o bezpieczeństwo psychiczne najmłodszych użytkowników – Sójka AI to także narzędzie, które zwraca szczególną uwagę na młodszych użytkowników Internetu, chroniąc ich przed treściami, które mogą mieć negatywny wpływ na ich psychikę. 

Zastosowanie Sójki AI w praktyce 

Sójka AI może znaleźć swoje zastosowanie w wielu dziedzinach, zarówno w biznesie, jak i w życiu codziennym użytkowników. Dzięki swojej zdolności do analizy dużych zbiorów danych i szybkiego reagowania na zagrożenia, może być wykorzystywana przykładowo do: 

  • moderowania dyskusji online – firmy i platformy internetowe mogą potencjalnie wykorzystywać Sójkę do zarządzania dyskusjami i eliminowania negatywnych treści w czasie rzeczywistym;. 
  • wspierania platform edukacyjnych – Sójka AI może być używana na platformach edukacyjnych do monitorowania interakcji uczniów, zapewniając, że nie będą oni narażeni na szkodliwe lub nieodpowiednie treści;. 
  • wzmacniania platform społecznościowych – dzięki Sójce AI, platformy społecznościowe mogą stać się miejscem bardziej przyjaznym i bezpiecznym dla wszystkich użytkowników, zwłaszcza dla najmłodszych;. 
  • i wiele więcej. 

ai law

Kontekst prawny oraz przyszłość etycznych modeli AI 

Projekty takie jak Sójka AI są tylko początkiem dążenia do stworzenia bezpiecznego, etycznego i odpowiedzialnego Internetu. Z każdym rokiem technologia AI będzie coraz bardziej złożona, a jej rola w naszym życiu coraz bardziej znacząca.  

Etyczne modele AI w Unii Europejskiej – prawo, praktyka i kierunki rozwoju 

Wraz z dynamicznym rozwojem sztucznej inteligencji Unia Europejska stała się światowym liderem w kształtowaniu ram prawnych i etycznych dla tej technologii. Projekty takie jak Sójka AI czy Bielik AI w Polsce ilustrują ewolucję od czystej innowacji ku odpowiedzialnemu wdrażaniu systemów, które szanują prawa podstawowe, transparentność i bezpieczeństwo użytkowników. W centrum tej transformacji znajduje się AI Act – pierwsze na świecie kompleksowe rozporządzenie regulujące AI, które wraz z innymi inicjatywami tworzy spójny ekosystem dla etycznej sztucznej inteligencji. 

Podstawy prawne etycznej AI w UE 

AI Act – klasyfikacja ryzyka i obowiązki 

AI Act, który wszedł w życie 1 sierpnia 2024 r., wprowadza czterostopniowy model ryzyka

  • ryzyko niedopuszczalne (np. systemy społecznego scoringu, manipulacyjne AI wykorzystujące słabości grup wrażliwych) – całkowity zakaz stosowania;. 
  • wysokie ryzyko (m.in. systemy rekrutacyjne, oceny kredytowe, diagnostyka medyczna) – wymagają certyfikacji, audytów i stałego nadzoru;. 
  • ograniczone ryzyko (np. chatboty) – obowiązek informowania użytkowników o interakcji z AI;. 
  • minimalne ryzyko (np. filtry spamowe) – brak dodatkowych regulacji poza ogólnymi zasadami etycznymi. 

Przykład: systemy do moderacji treści takie jak Sójka AI mogą kwalifikować się jako systemy wysokiego ryzyka ze względu na wpływ na wolność słowa i ochronę danych. Jeżeli system AI zostanie zakwalifikowany do tej kategorii musi on wtedy spełniać wymogi AI Act dotyczące jakości danych, przejrzystości algorytmów i mechanizmów odwoławczych. 

Wytyczne etyczne UE 

Komisja Europejska już w 2019 r. zdefiniowała 7 filarów godnej zaufania AI: 

  1. poszanowanie autonomii człowieka,. 
  2. bezpieczeństwo techniczne i społeczne,. 
  3. ochrona prywatności,. 
  4. przejrzystość,. 
  5. różnorodność i niedyskryminacja,. 
  6. odpowiedzialność społeczna,. 
  7. zrównoważony rozwój. 

Te zasady stały się podstawą dla AI Act, zwłaszcza w kontekście wymogu „humano-centrycznego” projektowania systemów. 

Inicjatywy w UE 

  • GenAI4EU – program wspierający wdrażanie generatywnej AI w kluczowych sektorach gospodarki.  

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

 

Kroki dla przedsiębiorstw – jak budować etyczne AI zgodnie z AI Act? 

  1. Mapowanie ryzyka i audyt systemów

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie; 

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić; 

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych; 

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA (Data Protection Impact Assessment). Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania. 

Więcej tutaj: Jak tworzyć narzędzia AI zgodnie z prawem?

  1. Wdrożenie governance
  • Powołaj zespół ds. etyki AI składający się w zależności od sytuacji oraz możliwości z prawników, inżynierów, czy specjalistów ds. compliance’u. 
  • Opracuj Politykę wykorzystywania AI uwzględniający wytyczne UE i specyfikę branży. WiecejWięcej o tym możesz przeczytać tutaj:  

Co powinna zawierać Polityka wykorzystywania systemów AI?

  1. Transparentność i kontrola
  • Dla systemów wysokiego ryzyka: 
  • Udostępnij streszczenia techniczne opisujące logikę działania AI (np. poprzez dashboardy typu Explainable AI Booster). Przykład: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview  
  • Wprowadź obowiązek zatwierdzania wyników przez człowieka w kluczowych procesach. 
  1. Zarządzanie danymi
  • Stosuj algorytmy debiasingowe do eliminacji uprzedzeń w danych treningowych. 

 Algorytmy debiasingowe to techniki stosowane w sztucznej inteligencji (AI) i uczeniu maszynowym, które mają na celu usunięcie lub zmniejszenie uprzedzeń (biasów) w danych, które mogą prowadzić do niesprawiedliwych, dyskryminujących lub nieprecyzyjnych wyników. Bias w kontekście AI odnosi się do niezamierzonych skłonności w systemie, które mogą wystąpić w wyniku błędów w danych wejściowych lub w sposobie, w jaki model AI jest trenowany. 

  • Wykonuj regularne audyty jakości danych, szczególnie dla systemów wykorzystujących dane wrażliwe (rasa, religia, zdrowie). 
  1. Certyfikacja i compliance
  • Skorzystaj z platform certyfikacyjnych rozwijanych w ramach projektu CERTAIN, które automatyzują sprawdzanie zgodności z AI Act. 
  • Zarejestruj systemy wysokiego ryzyka w europejskiej bazie danych AI. 
  1. Szkolenia i kultura organizacyjna
  • Przeprowadź programy edukacyjne dla pracowników. 

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Wyzwania i przyszłość etycznej AI w UE 

Kluczowe trendy na najbliższe lata: 

  1. rozwój AI dla ESG 
  2. regulacja foundation models – plany rozszerzenia regulacji o wymogi dotyczące modeli ogólnego przeznaczenia (np. Meta Llama 3). 
  3. współpraca transgraniczna 

Podsumowanie

Unijne podejście do etycznej AI, choć wymagające, tworzy unikalną szansę dla firm na budowę zaufania klientów i przewagi konkurencyjnej. Projekty takie jak Sójka AI pokazują, że połączenie innowacyjności z odpowiedzialnością jest możliwe – wymaga jednak strategicznego planowania, inwestycji w governancę i ścisłej współpracy z regulatorami. W nadchodzącej dekadzie to właśnie etyka stanie się głównym motorem postępu technologicznego w Europie. 

 

Sztuczna inteligencja, prawa autorskie i artystyczne kontrowersje dotyczące Studia Ghibli 

Sztuczna inteligencja (AI) coraz śmielej wkracza do świata sztuki wywołując zarówno fascynację, jak i liczne kontrowersje. Dzięki generatywnym narzędziom takim jak DALL- E, Midjourney czy ChatGPT możliwe stało się tworzenie niezwykle realistycznych obrazów jedynie na podstawie opisów tekstowych lub odniesień stylistycznych. Mechanizm działania tych rozwiązań opiera się na potężnych modelach językowo-wizualnych, które analizując miliony grafik dostępnych w sieci uczą się rozpoznawać konkretne cechy stylów artystycznych, kompozycji czy formy. 

Ghibli style AI

Trening modeli AI – jak sztuczna inteligencja uczy się tworzyć obrazy? 

Trening modeli AI polega na wykorzystaniu dużych zbiorów danych wizualnych i tekstowych, z których algorytmy wyciągają wzorce oraz schematy estetyczne. Najczęściej stosowane są tu techniki takie jak Generative Adversarial Networks (GANs), czyli sieci generujące obrazy i oceniające ich realizm, Neural Style Transfer (NST) pozwalające na naśladowanie stylu jednego obrazu w drugim oraz Convolutional Neural Networks (CNNs), które umożliwiają dogłębną analizę elementów wizualnych i tworzenie nowych kompozycji na ich podstawie. 

Sztuczna inteligencja a prawa autorskie – nowe wyzwania prawne 

Wraz z rosnącą popularnością AI w sztuce pojawiły się jednak poważne pytania natury prawnej. Jednym z najbardziej palących problemów jest kwestia praw autorskich. Modele generatywne są trenowane na danych dostępnych publicznie, ale wiele z tych materiałów – grafiki, ilustracje, zdjęcia czy fragmenty filmów – objętych jest ochroną prawną. Często są to obrazy pobierane z serwisów takich jak Pinterest, DeviantArt, blogów artystycznych czy forów kreatywnych, a także kadry z filmów i seriali – w tym produkcji Studia Ghibli – które nigdy nie zostały oficjalnie udostępnione, w tym celu przez ich twórców. Do treningu modeli wykorzystywane są również ilustracje pochodzące z książek, komiksów i gier komputerowych, co budzi ogromne wątpliwości w środowisku artystów i prawników. 

Ghibli style AI

Wykorzystywanie cudzych dzieł bez zgody – czy to legalne? 

Wielu twórców nie ma świadomości, że ich dzieła mogły zostać wykorzystane bez zgody i wynagrodzenia do tworzenia narzędzi, które następnie konkurują z ich pracą na rynku. Kwestia licencjonowania danych do treningu AI pozostaje wciąż jednym z najbardziej dyskutowanych zagadnień w branży. W odpowiedzi na rosnącą presję niektóre firmy technologiczne – w tym OpenAI – zaczęły zawierać oficjalne umowy z wydawcami, takimi jak The Guardian czy Time, które udostępniają swoje archiwa w zamian za opłaty licencyjne. To krok w stronę etycznej transparentności, ale jednocześnie wyjątek, a nie reguła. Nadal wiele firm opiera się na nieuregulowanych zbiorach danych, tłumacząc się ich „publiczną dostępnością”. 

Prawo autorskie a sztuczna inteligencja na świecie i w Polsce 

Prawo autorskie na świecie 

Pojawia się pytanie, czy użycie chronionych materiałów do treningu modeli bez zgody właścicieli praw autorskich może być legalne. W niektórych krajach, takich jak Japonia, odpowiedź brzmi: tak – prawo zezwala tam na wykorzystywanie dzieł chronionych w celach badawczo-rozwojowych, jeśli służy to postępowi technologicznemu. W Unii Europejskiej sytuacja jest bardziej złożona, ale trwają nad tym prace.  

Przeczytaj więcej tutaj: 

https://lbplegal.com/jakie-wyzwania-prawne-stoja-przed-sztuczna-inteligencja/

https://lbplegal.com/figma-a-ai/

W Stanach Zjednoczonych z kolei trwają intensywne debaty na temat zakresu dozwolonego użytku, tzw. fair use i tego, czy trening AI można pod tę zasadę podciągnąć. 

Potwierdza to decyzja US Copyright Office z 2022 roku, która odmówiła rejestracji obrazu wygenerowanego przez AI (Midjourney) Jansona Allena pt. pt. Théâtre D’opéra Spatial właśnie z powodu braku autora będącego człowiekiem. Wnioskodawca argumentował, że skoro osoby prawne mogą posiadać prawa autorskie, to to samo powinno dotyczyć sztucznej inteligencji. Argument ten jednak został odrzucony – AI nie posiada zdolności prawnej. 

Według USCO wnioskodawca nie może zostać uznany za autora wspomnianego obrazu. Wskazał również, że prompty nie stanowią dla Midjourney konkretnych instrukcji do określonej formy – w pewnym sensie mamy tu również pewien procent prawdopodobieństwa. Według USCO „gdy AI otrzymuje prompt od użytkownika i tworzy w odpowiedzi skomplikowane słowne, wizualne lub muzyczne utwory, to tradycyjne elementy twórczości są determinowane i wykonywane przez technologię, a nie użytkownika”. Dodatkowo działalność wnioskodawcy nie prowadziła do „nadania dziełu wyraźnej formy wynikającej z twórczych wyborów autora”, ani nie występowała „twórcza kontrola człowieka nad dziełem”. Ostateczny wygląd wygenerowanej grafiki przez Midjourney pozostawał poza kontrolą wnioskodawcy, ponieważ był zależny od danych użytych podczas procesu treningu modelu oraz początkowego „szumu”, który służył jako punkt wyjścia do procesu dyfuzji prowadzącego do powstania końcowego obrazu.  

Prawo autorskie w Polsce 

Art. 1 ust. 1 Ustawy o prawie autorskim i prawach pokrewnych (PrAut) 

„Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór)”. 

 Zgodnie z powyższym systemy sztucznej inteligencji nie mogą posiadać praw autorskich, głównie z powodu ich braku zdolności prawnej – czyli możliwości pełnienia roli podmiotu praw i obowiązków. W przeciwieństwie do ludzi, sztuczna inteligencja nie posiada osobowości prawnej ani indywidualności, a tym samym nie jest zdolna do twórczości w rozumieniu prawa.  

Ghibli style AI

Czy styl artystyczny podlega ochronie prawnej? 

Prawo autorskie nie chroni stylu jako takiego. Nie podlegają ochronie również idee, koncepcje, metody działania ani sposoby wyrażania – o ile nie przybierają formy konkretnego dzieła. Innymi słowy – inspirowanie się stylem Ghibli nie stanowi jeszcze naruszenia prawa, ale odwzorowanie konkretnego bohatera czy charakterystycznych elementów jego wyglądu może być już potraktowane jako plagiat. Co nie zmienia faktu, że etyka takiego postępowania jest co najmniej wątpliwa. 

Sytuacja komplikuje się dodatkowo, gdy mamy do czynienia z utworem współautorskim – zgodnie z art. 9 ust. 1 ustawy o prawie autorskim i prawach pokrewnych – wówczas konieczne jest uzyskanie zgody wszystkich współtwórców na korzystanie z utworu.  

Co więcej, oprócz prawa autorskiego twórczość może być również chroniona jako dobro osobiste. 

 

Głośne procesy sądowe o trenowanie AI na cudzych dziełach 

Na świecie toczy się coraz więcej postępowań dotyczących nieautoryzowanego wykorzystywania dzieł do trenowania AI.  

Przykłady pozwów o plagiat w kontekście treningu AI: 

  • W 2019 roku Getty Images pozwała Google, zarzucając firmie naruszenie praw autorskich. Według Getty, Google bez zgody wykorzystał miliony zdjęć z jej bazy do trenowania algorytmu wyszukiwania obrazów.  
  • W 2022 roku Getty Images ponownie znalazła się w centrum uwagi, tym razem pozywając firmę Stability AI Inc. Zarzut dotyczył nieuprawnionego wykorzystania milionów zdjęć w celu trenowania systemu generowania obrazów – Stable Diffusion. Sprawa wywołała gorącą debatę na temat praw autorskich w kontekście treści generowanych przez sztuczną inteligencję. 
  • W marcu 2024 roku trzej amerykańscy pisarze złożyli pozew przeciwko firmie NVIDIA w Sądzie Federalnym w Kalifornii. Zarzucali oni, że ich książki zostały wykorzystane bez zgody do trenowania generatywnego modelu AI o nazwie NeMo. 

 

Artyści wobec AI – entuzjazm i niepokój 

Perspektywa artystów jest w tej debacie niezwykle ważna. Dla wielu z nich AI to ciekawe narzędzie eksperymentalne, pozwalające eksplorować nowe formy wyrazu. Jednak rosnąca liczba grafik generowanych „w ich stylu” prowadzi do poczucia utraty kontroli nad własnym dorobkiem i obawy o deprecjację ich pracy. Z badań przeprowadzonych przez platformę Book An Artist wynika, że aż 74% artystów uważa wykorzystywanie ich dzieł do trenowania sztucznej inteligencji za nieetyczne. 

Ghibli style AI

Nowa polityka OpenAI – odpowiedź na presję artystów i użytkowników 

Wiralowa popularność „ghiblifikacji” zdjęć skłoniła miliony użytkowników do przesyłania swoich portretów do ChatGPT. W związu z tym w odpowiedzi na kontrowersje OpenAI wprowadziło ograniczenia w generowaniu portretów w stylu żyjących artystów. Od 27 marca 2025 roku ChatGPT blokuje próby tworzenia obrazów na podstawie zdjęć rzeczywistych osób, powołując się na „ograniczenia polityki treści”. Zmiana ta nie dotyczy jednak stylów studia (np. Ghibli), co budzi wątpliwości, czy jest to zabieg czysto wizerunkowy.  

Dane a prywatność użytkowników 

Wiralowa popularność zjawiska określanego jako „ghiblifikacja” – czyli stylizowania zdjęć użytkowników na wzór estetyki znanej ze Studia Ghibli – skłoniła miliony osób do przesyłania swoich portretów do ChatGPT. Choć firma OpenAI deklaruje, że obrazy nie są przechowywane po zakończeniu sesji, specjaliści zajmujący się ochroną prywatności zwracają uwagę na istotne luki w tej polityce. Zwłaszcza jeśli użytkownik nie zaznaczy opcji rezygnacji (opt-out). 

Ghibli style AI

Kwestie prawne 

Po pierwsze, zgodnie z art. 6 ust. 1 lit. a RODO samo przesłanie zdjęcia może potencjalnie być traktowane jako wyrażenie zgody na jego przetwarzanie. W praktyce oznacza to, że jeśli użytkownik nie skorzystał z opcji rezygnacji z przetwarzania danych (tzw. opt-out), OpenAI może legalnie wykorzystać te dane – również w celu trenowania modeli sztucznej inteligencji.  

Przeczytaj tutaj więcej: 

https://lbplegal.com/chat-gpt-vs-dane-osobowe/

Co mówi o tym sam Chat GPT?  

Etyczne alternatywy – czy możliwa jest „transparentna i etyczna” sztuczna inteligencja? 

Niektóre firmy – takie jak Stability AI – umożliwiają twórcom wykluczenie ich dzieł z zestawów treningowych, a Adobe Firefly oparło swój model wyłącznie na zdjęciach z legalnych banków zapewniając twórcom wynagrodzenie za wykorzystanie ich materiałów. Tego typu podejścia pokazują, że możliwa jest etyczna współpraca między technologią a sztuką – oparta na zgodzie, przejrzystości i podziale korzyści. 

Ghibli AI

Podsumowanie – sztuka i AI: koegzystencja czy konflikt? 

Sztuczna inteligencja otwiera nowe możliwości dla twórczości artystycznej, ale stawia również ogromne wyzwania związane z ochroną praw autorskich, prywatnością oraz etyką. Kluczowe jest wypracowanie jasnych regulacji prawnych, mechanizmów wynagradzania twórców i modeli opartych na poszanowaniu praw jednostki. Tylko wtedy możliwa będzie harmonijna koegzystencja tradycyjnej sztuki i innowacyjnych narzędzi AI, w której technologia nie będzie wypierać człowieka, lecz wspierać jego kreatywność. 

 

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj