Jak tworzyć narzędzia AI zgodnie z prawem?

Jak już wspominaliśmy w poprzednich wpisach, wciąż pozostało wiele pracy w kontekście prawa sztucznej inteligencji.

Zobacz:

Sztuczna Inteligencja a prawo – Globalne interpretacje i lokalne adaptacje

Jak legalnie wykorzystywać AI?

Sztuczna inteligencja a odpowiedzialność prawna – nowe horyzonty?

Jednak w oparciu o ogólne zasady obowiązujące w wielu jurysdykcjach, projekty ustaw i obecne prawodawstwo UE, które już można zastosować do systemów AI, a także akty prawne „na ukończeniu”, stworzyliśmy ten uproszczony przewodnik prawny dotyczący tworzenia narzędzi AI.

_________________________________________________________________________________

Etap 1: zdefiniuj funkcjonalności i cele systemu AI (nie tylko zamierzone, ale także inne możliwe). W tym kontekście:

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie;

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić;

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych;

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA. Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania

Etap 2: zdefiniuj wejściową/ szkoleniową bazę danych

Upewnij się, że możesz z niej korzystać zgodnie z prawem. Istnieje wiele dyskusji na temat dozwolonego wykorzystania publicznie dostępnych danych, ale takie działanie zawsze oceniać indywidualnie. Kluczowe zagrożenia obejmują

– naruszenie praw własności intelektualnej (praw autorskich, znaków towarowych, praw do baz danych);

– niezgodne z prawem przetwarzanie danych osobowych;

– niemożność realizacji praw osób, których dane dotyczą (RODO dopuszcza wiele praw osób, których dane są przetwarzane, a wiele systemów AI jest tworzonych w sposób utrudniający ich realizację);

– naruszenie tajemnic handlowych lub informacji poufnych;

Upewnij się, że baza danych jest poprawna, zawiera dane dobrej jakości i nie stwarza możliwości powstawania uprzedzeń lub błędów statystycznych.

Etap 3: Cyberbezpieczeństwo

Wdrażaj rozwiązania odpowiednie dla systemu AI i zidentyfikowanych zagrożeń. Chodzi tu nie tylko o ochronę efektów pracy i inwestycji, ale także o zgodność z przepisami. W niektórych przypadkach mogą obowiązywać szczególne wymagania, zwłaszcza jeśli przetwarzasz dane osobowe (RODO) lub jeśli system jest przeznaczony do użytku w sektorze finansowym (DORA).

Etap 4: Narzędzia do programowania

Jeśli korzystasz z technologii lub aplikacji stron trzecich do opracowania systemu sztucznej inteligencji, upewnij się, że masz wszystkie niezbędne licencje i nie naruszasz ich. Ważne jest, aby uzyskać i przeanalizować całą odpowiednią dokumentację takich narzędzi, aby zrozumieć, w jaki sposób mogą one zmienić Twoje podejście / ustalenia istotne dla poszczególnych etapów tworzenia systemu AI.

Etap 5:  Proces rozwoju – pamiętaj o:

– zasadach privacy by design i privacy by default wynikających z RODO;

– jeśli Twój system będzie oferowany konsumentom, musisz przestrzegać przepisów dotyczących ochrony konsumentów;

– testowaniu wszystko wiele razy 😊

– wdrożeniu procesu odnotowywania i zgłaszania incydentów (przechwytywanie, analiza, wyciąganie wniosków).

***

Upewnij się, że wszystkie etapy spełniają wymogi przejrzystości i zrównoważonego rozwoju. W przyszłości kluczowe będzie udowodnienie zgodności z przepisami w tym obszarze. Ponieważ wiele przepisów prawnych faworyzuje podejście oparte na ryzyku, potrzebne będą istotne dowody na to, że wszystkie zagrożenia zostały uwzględnione na wszystkich etapach cyklu życia systemu sztucznej inteligencji.

Jeżeli chcesz dowiedzieć się więcej na temat wytycznych dotyczących systemów sztucznej inteligencji zobacz „Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji”,

Wprowadzają one ramy oceny wpływu systemów AI na politykę publiczną w obszarach objętych Zasadami AI OECD i klasyfikują systemy i aplikacje AI według następujących obszarów: Ludzie i planeta, Kontekst ekonomiczny, Dane i dane wejściowe, Model AI oraz Zadanie i wynik.

Pamiętaj, że w przypadku prac nad produktami zawierającymi systemy sztucznej inteligencji, które ze względu na swoją specyfikę mogą zostać uznane za system AI wysokiego ryzyka, koniecznością w takim przypadku będzie wprowadzenie systemów zarządzania jakością i ryzykiem na każdym etapie rozwoju projektu. Ten krok jest niezbędny, aby zapewnić zgodność systemu sztucznej inteligencji z AI Act oraz z innymi aktami prawnymi. Wdrożenie takich procesów jest kluczowe nie tylko podczas tworzenia produktu, ale także po jego wprowadzeniu na rynek.

Autorzy: adw. Mateusz Borkiewicz, Agata Jałowiecka

Podstawowe obowiązki dostawców usług pośrednich według AUC

Na mocy Aktu o Usługach Cyfrowych (dalej: „AUC”), na dostawców usług pośrednich zostały nałożone obowiązki należytej staranności na potrzeby przejrzystego i bezpiecznego środowiska internetowego.

Z uwagi na fakt, że pod pojęciem dostawcy usług pośrednich kryje się wiele, różnego rodzaju podmiotów (często o różnej strukturze i wielkości), jak również fakt, że pojęcie usługi pośredniej jest samo w sobie szerokie i obejmuje katalog usług o różnej specyfice, ustawodawca uznał, że obowiązki w zakresie należytej staranności muszą być dostosowane do rodzaju, wielkości i charakteru danej usługi pośredniej i dlatego wyodrębniono katalog obowiązków podstawowych – czyli takich, które mają zastosowanie do wszystkich dostawców usług pośrednich, a ponadto obowiązków dodatkowych – które mają zastosowanie do poszczególnych rodzajów dostawców usług pośrednich, ze względu na specyfikę i wielkość świadczonych przez nich usług. Obowiązki podstawowe powinny być wykonywane przez dostawcę usług pośrednich każdego rodzaju.

Do podstawowych obowiązków należytej staranności dostawców usług pośrednich należą:

  • Wyznaczenie punktów kontaktowych.

 

Dostawcy usług pośrednich mają obowiązek wyznaczenia pojedynczego elektronicznego punktu kontaktowego oraz publikowania i aktualizowania odpowiednich informacji dotyczących tego punktu kontaktowego. Nałożenie na dostawców usług pośrednich takiego obowiązku ma na celu zagwarantowanie sprawnej komunikacji pomiędzy dostawcą a odbiorcą usługi oraz pomiędzy dostawcą a organami państw członkowskich, Komisja Europejską, Europejską Radą ds. Usług Cyfrowych.

W odróżnieniu od przedstawiciela prawnego, punkt kontaktowy nie musi mieć fizycznej lokalizacji, jest to wirtualne miejsce. Punkt kontaktowy może służyć realizacji obowiązków nałożonych na mocy różnych innych aktów prawnych, nie tylko na mocy AUC. Informacje o punktach kontaktowych muszą być łatwo dostępne i aktualizowane na stronie internetowej dostawcy.

Punkt kontaktowy dla odbiorców usług powinien przede wszystkim umożliwiać im bezpośrednią i szybką komunikację z dostawcą usług pośrednich, drogą elektroniczną, w sposób przyjazny dla użytkownika, w tym poprzez umożliwienie odbiorcom usług wyboru środków komunikacji, które nie mogą opierać się wyłącznie na zautomatyzowanych narzędziach. Oznacza to w praktyce przede wszystkim, że odbiorca usługi powinien mieć do wyboru przynajmniej dwa narzędzia komunikacji, z czego jedno z nich nie może opierać się wyłącznie na zautomatyzowanych narzędziach.

 

  • Wyznaczenie przedstawiciela prawnego.

 

Dostawcy usług pośrednich, którzy mają siedzibę w państwie trzecim (czyli poza UE), i oferują usługi w Unii Europejskiej, powinni wyznaczyć dysponującego wystarczającymi uprawnieniami przedstawiciela prawnego w UE oraz udzielić odpowiednim organom informacji dotyczących ich przedstawicieli prawnych i podać takie informacje do wiadomości publicznej.

Dostawcy usług pośrednich wyznaczają na piśmie w szczególności osobę prawną lub fizyczną do działania w charakterze ich przedstawiciela prawnego w jednym z państw członkowskich, w których dostawca oferuje swoje usługi. Przedstawiciel prawny może reprezentować jednego lub więcej dostawców usług pośrednich.

 

Przedstawiciel prawny jest nie tylko pełnomocnikiem do doręczeń w sprawach związanych z wydawaniem przez organy decyzji dot. AUC. Musi on być w stanie także współpracować z organami, reagować na otrzymane wezwania. Przedstawiciel prawny powinien otrzymać upoważnienia do działań, które zapewnią stosowanie się do decyzji właściwych organów.

Aby wypełnić obowiązek wyznaczenia przedstawiciela prawnego, dostawcy usług pośrednich powinni zapewnić, by wyznaczony przedstawiciel prawny dysponował uprawnieniami i zasobami niezbędnymi do współpracy z odpowiednimi organami. Jako odpowiednie zasoby należy postrzegać odpowiednie kompetencje i doświadczenie, jak również dysponowanie stosownymi możliwościami organizacyjnymi, prawnymi czy technicznymi umożliwiającymi pełnienie takiej roli.

 

  • Uwzględnienie w warunkach świadczenia usług informacji na temat ograniczeń związanych z korzystaniem z usług.

 

Dostawcy usług pośrednich powinni w warunkach świadczenia usług (czyli np. regulaminach stanowiących część umów zawieranych z użytkownikami) uwzględnić informacje na temat wszelkich ograniczeń, które nakładają w związku z korzystaniem z ich usług, w odniesieniu do informacji przekazywanych przez odbiorców usługi. Informacje takie muszą zawierać wskazanie w zakresie wszelkich polityk, procedur, środków i narzędzi wykorzystywanych na potrzeby moderowania treści, jak również powinny zawierać informacje na temat regulaminu wewnętrznego rozpatrywania skarg. Akt o Usługach Cyfrowych formułuje dodatkowy wymóg, żeby ww. informacje podane były w sposób prosty i zrozumiały dla odbiorcy, a ponadto, żeby informacje te nadawały się do odczytu maszynowego.

Dostawcy usług pośrednich kierowanych głównie względem małoletnich (np. z uwagi na rodzaj usługi lub rodzaj związanych z tą usługą działań marketingowych), powinni dołożyć szczególnych starań, aby w sposób łatwo zrozumiały dla małoletnich wyjaśnić warunki korzystania z usług.

Szczególne obowiązki związane z uwzględnieniem w warunkach świadczenia usług informacji na temat ograniczeń zostały nałożone na dostawców usług pośrednich kwalifikujących się jako bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe. Jako uzasadnienie nałożenia dodatkowych obowiązków wskazano przede wszystkim konieczność zapewnienia przez tego rodzaju duże podmioty szczególnej przejrzystości, jeśli chodzi o warunki korzystania z ich usług. Dostawcy bardzo dużych przeglądarek internetowych i bardzo dużych wyszukiwarek internetowych, ponad obowiązujący wszystkie rodzaje podmiotów świadczących usługi pośrednie obowiązek przedstawienia warunków korzystania z usług, zobowiązani są również m.in.: udostępnić streszczenie takich warunków, udostępnić warunki w językach urzędowych wszystkich państw członkowskich, w których oferują swoje usługi.

 

  • Obowiązki sprawozdawcze.

AUC nakłada na dostawców usług pośrednich również coroczny obowiązek sprawozdawczy, w zakresie wszelkiego moderowania treści, które dokonali w danym okresie.

Sprawozdanie powinno zawierać m.in. następujące informacje:

  • Liczba nakazów otrzymanych od organów państw członkowskich;
  • Liczba zgłoszeń dokonanych zgodnie z art. 16 AUC;
  • Istotne i zrozumiałe informacje na temat moderowania treści dokonanego z własnej inicjatywy dostawców;
  • Liczba skarg otrzymanych za pośrednictwem wewnętrznych systemów rozpatrywania skarg zgodnie z warunkami korzystania z usług dostawcy;
  • Wszelkie przypadki wykorzystania zautomatyzowanych środków do celów moderowania treści.

Komisja Europejska na mocy AUC posiada uprawnienie do przyjmowania aktów wykonawczych w celu ustanowienia wzorów określających formę, treść i inne szczegóły sprawozdań, w tym zharmonizowane okresy sprawozdawczości. Aktualnie Komisja pracuje nad przyjęciem takiego wzoru.

***

Chcesz dowiedzieć się więcej o podstawowych obowiązkach dostawców usług pośrednich według Aktu o Usługach Cyfrowych? Po więcej zapraszamy do publikacji doradców naszej kancelarii: [Link do publikacji]

Sztuczna inteligencja – czym jest (z prawnego punktu widzenia) i jak radzi sobie z nią świat

„W szybko rozwijającej się dziedzinie technologii sztuczna inteligencja (AI) jest przełomową siłą, która nie tylko przekształciła branże, ale także zrodziła wiele pytań i wyzwań prawnych”.

Chat GPT poproszony o przedstawienie sztucznej inteligencji w kontekście wyzwań prawnych.

Czy istnieje definicja sztucznej inteligencji?

Obecnie nie ma prawnej definicji sztucznej inteligencji ani w Polsce, ani w Unii Europejskiej. Podobna sytuacja występuje również w innych głównych jurysdykcjach na świecie. Prawdopodobnie najbliższa definicji AI jest definicja “zautomatyzowanego podejmowania decyzji” zawarta w RODO, która może obejmować niektóre systemy AI.

RODO w art. 22 definiuje zautomatyzowane podejmowanie decyzji jako:

„… decyzja, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec (…) osoby skutki prawne lub w podobny sposób istotnie na nią wpływa.”.

Definicja ta w swoim obecnym kształcie nie jest jednak wystarczająco konkretna, aby w wystarczający sposób “pokryć” pojęcie systemów sztucznej inteligencji jakie znamy obecnie.

Z prawnego punktu widzenia sztuczna inteligencja jest więc „tylko” technologią lub zestawem technologii i jest regulowana w taki sam sposób, jak każda inna technologia – poprzez wiele różnych przepisów mających zastosowanie do określonych kontekstów lub zastosowań. Może być wykorzystywana w dobrych celach lub w celu wyrządzenia szkody, jej użycie może być legalne lub nielegalne – wszystko zależy od sytuacji i kontekstu.

Dlaczego uregulowanie sztucznej inteligencji jest tak ważne?

Tempo rozwoju sztucznej inteligencji przyspiesza. A ponieważ sztuczna inteligencja jest „przełomową siłą”, różne kraje mają trudności z opisaniem tej technologii do celów legislacyjnych. W przeszłości ustawodawcy rzadko rozważali tworzenie nowych przepisów na poziomie międzynarodowym specjalnie dla pojedynczej technologii. Ostatnie lata dowiodły jednak, że coraz więcej przełomów technologicznych wymaga szybkiej reakcji prawnej – nie trzeba daleko szukać, wystarczy pomyśleć o przetwarzaniu w chmurze, blockchainie, a teraz o sztucznej inteligencji.

Przykładowo, różne części lub komponenty tej technologii mogą być własnością różnych osób lub firm (na przykład prawa autorskie do określonego kodu programu lub własność baz danych), ale idea sztucznej inteligencji jest publiczna. A ponieważ coraz więcej narzędzi i wiedzy na temat AI jest dostępnych dla wszystkich, teoretycznie każdy może korzystać z narzędzi AI lub tworzyć nowe narzędzia. Może się to wiązać z potencjalnymi nadużyciami, stąd regulacje prawne tej technologii są tak ważne.

Dlaczego jeszcze? Wszyscy zgadzają się, że sztuczna inteligencja ma potencjał, by zmienić krajobraz gospodarczy i społeczny na całym świecie. Oczywiście, to już się dzieje, a proces ten przyspiesza każdego dnia – co jest równie ekscytujące, co przerażające. Tempo rozwoju nowych technologii sprawia, że trudno jest przewidzieć rezultaty. Dlatego też kluczowe znaczenie ma posiadanie pewnych zasad prawnych, które zapewnią, że sztuczna inteligencja będzie wykorzystywana w sposób korzystny dla wszystkich. A ponieważ jest to „zjawisko globalne”, najlepiej byłoby, gdyby przynajmniej powszechnie uzgodniono, czym jest sztuczna inteligencja z prawnego punktu widzenia.

Najprawdopodobniej nie stanie się to jednak w skali globalnej. Niektóre kraje próbują zdefiniować sztuczną inteligencję ze względu na jej cel lub funkcje, inne ze względu na stosowane technologie, a niektóre łączą różne podejścia. Wiele kluczowych jurysdykcji stara się jednak uzgodnić definicję sztucznej inteligencji i znaleźć wspólne zasady. Jest to ważne, aby uniknąć praktycznych problemów, zwłaszcza dla dostawców globalnych rozwiązań AI, ponieważ wkrótce będą oni musieli zmierzyć się z licznymi kwestiami zgodności. Tylko co najmniej podstawowa interoperacyjność między jurysdykcjami pozwoli sztucznej inteligencji w pełni wykorzystać swój potencjał.

Podejście unijne

Różne kraje w Unii Europejskiej na wiele sposobów próbowały „podejść” do zagadnienia AI. Jeśli jednak szukamy szybkiej odpowiedzi na pytanie „jak najprawdopodobniej będzie wyglądać definicja sztucznej inteligencji w UE?”, większość odeśle nas do Aktu o Sztucznej Inteligencji, czyli AI Act, a właściwie jego projektu. Kraje członkowskie odraczają konkretne decyzji do czasu przyjęcia ostatecznej wersji AI Act, który w sposób kompleksowy ureguluje tę technologię na poziomie europejskim we wszystkich krajach członkowskich.

Aktualnie publicznie dostępna wersja AI Act zawiera następującą definicję systemu sztucznej inteligencji:

“An AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.”

Źródło: https://www.linkedin.com/feed/update/urn:li:activity:7155091883872964608/

Co można tłumaczyć jako: “System sztucznej inteligencji jest systemem maszynowym zaprojektowanym do działania z różnymi poziomami autonomii, który może wykazywać zdolność adaptacji po wdrożeniu i który, dla wyraźnych lub dorozumianych celów lub ukrytych celów, wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na fizyczne lub wirtualne środowiska.”

Jest to różnica w porównaniu do ostatniego tekstu AI Act z 2023 r., który system sztucznej inteligencji definiował jako “oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.”

Tym samym UE zbliżyła się w swojej definicji systemu sztucznej inteligencji do standardu OECD.

A czym jest ten standard? W listopadzie 2023 r. OECD (Organizacja Współpracy Gospodarczej i Rozwoju) zaktualizowała definicję AI zawartą w Zasadach AI OECD. Jest to pierwszy międzyrządowy standard dotyczący AI (został przyjęty w 2019 r.). Liczne władze na całym świecie zobowiązały się do stosowania tej definicji bezpośrednio lub z niewielkimi modyfikacjami. Do tej grupy należy również Unia Europejska.

Źródło: https://oralytics.com/2022/03/14/oced-framework-for-classifying-of-ai-systems/

Definicja Systemu AI OECD:

An AI system is a machine-based system that , for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.”

(PL: “System sztucznej inteligencji to system oparty na maszynach, który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. Różne systemy sztucznej inteligencji różnią się poziomem autonomii i zdolności adaptacyjnych po wdrożeniu”).

Aktualny model systemu sztucznej inteligencji OECD

Oprócz wspomnianej definicji, w zaleceniach OECD wyznaczono pięć dodatkowych zasad opartych na wartościach dotyczących odpowiedzialnego zarządzania godną zaufania sztuczną inteligencją.

Zawierają one:

wzrost gospodarczy sprzyjający włączeniu społecznemu, zrównoważony rozwój i dobrobyt;
wartości i sprawiedliwość skoncentrowane na człowieku;
przejrzystość i “wyjaśnialność”;
solidność, bezpieczeństwo i ochrona;
odpowiedzialność.
W kontekście powyższych informacji kraje, które zobowiązały się przestrzegać zasad OECD dotyczących sztucznej inteligencji powinny odzwierciedlać wymienione aspekty (przynajmniej w teorii). W tym kontekście UE jest na dobrej drodze.

W jaki sposób sztuczna inteligencja jest interpretowana na poziomie globalnym?

Stany Zjednoczone

Oczywiście jedną z najbardziej aktywnych jurysdykcji, jeśli chodzi o sztuczną inteligencję, są Stany Zjednoczone.Zgodnie z informacjami zamieszczonymi na stronie Krajowej Konferencji Ustawodawców Stanowych w 2023 r. co najmniej 25 stanów, Portoryko i Dystrykt Kolumbii wprowadziły akty prawne dotyczące sztucznej inteligencji, z kolei 15 stanów i Portoryko podjęło rezolucje w tym obszarze. Poszczególne stany podjęły ponad 120 inicjatyw w związku z ogólnymi zagadnieniami związanymi z AI (przepisy dotyczące konkretnych technologii sztucznej inteligencji, takich jak rozpoznawanie twarzy czy samochody autonomiczne, są monitorowane osobno).

Podejście w Stanach Zjednoczonych jest więc różne. Jako ciekawostkę można podać, że w maju 2023 r. w Kalifornii został przedstawiony projekt aktu wzywającego rząd USA do nałożenia natychmiastowego moratorium na szkolenie systemów sztucznej inteligencji potężniejszych niż GPT-4 przez co najmniej sześć miesięcy, aby dać czas na opracowanie systemu zarządzania sztuczną inteligencją – jego status jest obecnie „oczekujący”, jednak nie wydaje się prawdopodobne, aby został przyjęty.

Jeśli chodzi o definicję sztucznej inteligencji, w Stanach Zjednoczonych nie ma jednolitej definicji prawnej. Jednak jeden z kluczowych aktów prawnych związanych z AI – National AI Initiative Act z 2020 r. – ustanowił National Artificial Intelligence Initiative Office i zdefiniował sztuczną inteligencję jako „system oparty na maszynach, który może, dla danego zestawu celów zdefiniowanych przez człowieka, dokonywać prognoz, zaleceń lub decyzji wpływających na rzeczywiste lub wirtualne środowiska”. Wyjaśnia dalej, że „systemy sztucznej inteligencji wykorzystują dane wejściowe oparte na maszynach i ludziach, aby – (A) postrzegać rzeczywiste i wirtualne środowiska; (B) abstrahować takie postrzeganie w modele poprzez analizę w sposób zautomatyzowany; oraz (C) wykorzystywać wnioskowanie modelu do formułowania opcji informacji lub działania”. Dokument ten koncentruje się jednak głównie na organizacji Biura Inicjatywy AI w celu wspierania rozwoju tej technologii w Stanach Zjednoczonych, a nie na regulowaniu samej sztucznej inteligencji.

Stany Zjednoczone zobowiązały się do przestrzegania zasad OECD dotyczących sztucznej inteligencji. Niemniej jednak istnieją również inne wskazówki dotyczące tego, czego należy się spodziewać po federalnych przepisach dotyczących sztucznej inteligencji. „The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” to miejsce, od którego warto zacząć. Został on opublikowany przez Biuro Polityki Naukowej i Technologicznej Białego Domu w październiku 2022 r. i zawiera listę 5 zasad, które mają „pomóc w zapewnieniu wskazówek w każdym przypadku, gdy zautomatyzowane systemy mogą znacząco wpływać na prawa, możliwości lub dostęp do krytycznych potrzeb społeczeństwa”. Zasady te obejmują:

1. Bezpieczne i skuteczne systemy

2. Ochrona przed dyskryminacją algorytmiczną

3. Prywatność danych

4. Powiadomienie i wyjaśnienie

5. Ludzkie alternatywy, rozważania i rozwiązania awaryjne

Definicja systemów sztucznej inteligencji objętych przez Blueprint obejmuje dwa elementy: (i) ma potencjał, aby znacząco wpłynąć na prawa, możliwości lub dostęp osób lub społeczności oraz (ii) jest „zautomatyzowanym systemem”. Zautomatyzowany system jest dalej definiowany jako „dowolny system, oprogramowanie lub proces, który wykorzystuje obliczenia jako całość lub część systemu do określania wyników, podejmowania lub wspomagania decyzji, informowania o wdrażaniu polityki, gromadzenia danych lub obserwacji lub w inny sposób interakcji z osobami i / lub społecznościami. Zautomatyzowane systemy obejmują między innymi systemy wywodzące się z uczenia maszynowego, statystyki lub innych technik przetwarzania danych lub sztucznej inteligencji i wykluczają pasywną infrastrukturę obliczeniową”. Gwoli wyjaśnienia, „pasywna infrastruktura obliczeniowa to dowolna technologia pośrednicząca, która nie wpływa ani nie określa wyniku decyzji, nie podejmuje ani nie pomaga w podejmowaniu decyzji, nie informuje o wdrażaniu polityki ani nie gromadzi danych lub obserwacji”, w tym np. hosting internetowy.

Jeśli chodzi o inne kluczowe jurysdykcje, żadna z poniższych nie ma żadnej powszechnie uznanej definicji prawnej, ale:

Chiny

Chiny określiły standardy na poziomie krajowym oraz lokalne adaptacje, które opierają się na niektórych definicjach związanych z funkcjonalnością systemów sztucznej inteligencji;

Hongkong

Stworzył wytyczne etycznego rozwoju i wykorzystania sztucznej inteligencji, które określają sztuczną inteligencję jako „rodzinę technologii, które obejmują wykorzystanie programów komputerowych i maszyn w celu naśladowania problemu- zdolności człowieka do rozwiązywania problemów i podejmowania decyzji”.

Japonia

Japonia określiła „Strategię AI 2022”. Została ona wydana przez Cabinet Office’s Integrated Innovation Strategy Promotion Council. Sugeruje ona, że „AI” odnosi się do systemu zdolnego do wykonywania funkcji uznawanych za inteligentne.

Singapur

Singapur z kolei podjął próby definiowania “sztucznej inteligencji” jako zestaw technologii, które mają na celu symulowanie cech ludzkich, takich jak wiedza, rozumowanie, rozwiązywanie problemów, percepcja, uczenie się i planowanie oraz, w zależności od modelu sztucznej inteligencji, dają wynik lub decyzję (taką jak prognoza, zalecenie i/lub klasyfikacja). Definicja ta została zamieszczona w Modelowych Ramach Zarządzania Sztuczną Inteligencją wydanych przez Infocomm Media Development Authority i Personal Data Protection Commission.

***

Na całym świecie trwają próby stworzenia prawnej definicji sztucznej inteligencji. Aktualnie jedną z najnowszych propozycji jest ta zaproponowana przez OECD. Uchwalenie AI Act w ostatecznej wersji z pewnością przyspieszy proces unifikacji podejścia do definicji AI na całym świecie. Otwarte pozostaje pytanie, czy niektóre kraje nie będą jednak chciały “wyróżnić” się mocno liberalnym podejściem do AI, aby to właśnie do siebie ściągać twórców tej technologii (bez szczególnego dbania o aspekty prawne i etyczne).

Autorzy: Mateusz Borkiewicz, Agata Jałowiecka, Grzegorz Leśniewski

Nowa Konstytucja Internetu już obowiązuje

17 lutego 2024 r. to istotna data w punktu widzenia tak użytkowników Internetu, jak i wielu przedsiębiorców, dla których jest on głównych kanałem prowadzenia działalności. Tego dnia nastąpiło rozpoczęcie stosowania przepisów uchwalonego 19 października 2022 r. unijnego rozporządzenia – Akt o Usługach Cyfrowych, nazywanego nową Konstytucją Internetu wobec wszystkich podmiotów objętych jego przepisami (wcześniej, czyli do 25 sierpnia 2023 r. zwymogi z AUC musiały wdrożyć w swoich organizacjach bardzo duże platformy online i wyszukiwarki internetowe).

Dlaczego powstało AUC?

Kiedy w 2000 roku Unia Europejska podjęła pierwszą próbę uregulowania Internetu, globalna i polska przestrzeń cyfrowa wyglądały zdecydowanie inaczej niż dzisiaj. E-commerce raczkował, czasy panowania gigantów mediów społecznościowych, takich jak Facebook czy Tik Tok miały dopiero nadejść. Trudno było w pełni wyobrazić sobie na tamtym etapie, jak ogromne możliwości w zakresie wpływania na niemal każdy aspekt codzienności przyniesie rozwój Internetu. W tych realiach wprowadzone przez Unię Europejską przepisy – czyli dyrektywa o handlu elektronicznych – miały ograniczony zakres. Dobrze obrazuje to fakt, że dyrektywa miała niewiele ponad 20 artykułów. Do polskiego porządku prawnego przepisy dyrektywy wprowadzone zostały w roku 2002 dobrze znaną wszystkim, którzy zajmują się tematami związanymi z e-commerce, ustawą o świadczeniu usług drogą elektroniczną.

Po dwudziestu latach intensywnego rozwoju i zmian unijni decydenci uznali, że Internet bardzo potrzebuje nowych regulacji, które w sposób kompleksowy obejmą ten istotny obszar cyfrowej przestrzeni, jakim są usługi pośrednie, z jednej strony zapewniając, że prawa użytkowników są chronione na odpowiednim poziomie, z drugiej zaś – dając państwom członkowskim narzędzia do walki z istotnymi zagrożeniami, takimi jak np. dezinformacja. Właśnie potrzeba dostosowania przepisów do nowej – równie ekscytującej, co pełnej wyzwań – rzeczywistości cyfrowej była jednym z celów uchwalenia 19 października 2022 r. Aktu o Usługach Cyfrowych, nazywanego nową Konstytucją Internetu.

Trzy zasadnicze cele AUC

Analiza Motywów do AUC pozwala na wyróżnienie trzech zasadniczych celów, jakie przyświecały autorom projektu rozporządzenia:

Aktualizacja obejmuje kwestie, które zostały w zasadzie opisane na wstępie – czyli dostosowanie uchwalonych ponad 20 lat temu przepisów do nowych technologii, modeli biznesowych, ale też wyzwań i zagrożeń, jakie wiążą się z istotną rolą Internetu i jego wpływem na świat.

Ujednolicenie przepisów – czyli drugi istotny cel AUC – ma zapewnić, że poprzez ścisłą harmonizację (głównie przez wykorzystane przez UE narzędzie, jakim jest bezpośrednio stosowane w państwach członkowskich rozporządzenie, a nie dyrektywa) usunięte zostaną przeszkody dla przedsiębiorców, które były dotychczas wynikiem różnic w przepisach obowiązujących w poszczególnych krajach członkowskich.

I w końcu cyberbezpieczeństwo: celem UE jest stworzenie bezpiecznej, przewidywalnej i transparentnej przestrzeni cyfrowej, w której z jednej strony chronione będą prawa podstawowe określone w Karcie Praw Podstawowych, z drugiej zaś – która wolna będzie o nielegalnych treści oraz dezinformacji.

🤔 Kogo to dotyczy?

AUC określa obowiązki i zasady odpowiedzialności dla dostawców usług pośrednich, takich jak platformy internetowe i wyszukiwarki. Mogłoby się wydawać, że akt ten jest adresowany do raczej wąskiego grona odbiorców, ale w praktyce, z uwagi np. na bardzo szeroką definicję hostingodawcy, wielu przedsiębiorców prowadzących „tradycyjny” sklep internetowy, również może być zobowiązanych do wprowadzenia rozwiązań wynikających z AUC.

***

Nie ulega wątpliwości, że Unia Europejska podjęła się ambitnego zadania, wdrażając rewolucję, która dla usług pośrednich ma być tym, czy dla danych osobowych było RODO. Równocześnie, analiza AUC prowadzi do wniosku, że autorzy rozporządzenia chcieli uniknąć najistotniejszych błędów RODO (wśród których wskazuje się m.in. nałożenie w RODO zasadniczo analogicznych obowiązków na wszystkich przedsiębiorców, niezależnie od rozmiaru i zakresu prowadzonej przez nich działalności). Czy ta misja zakończy się sukcesem – dowiemy się z czasem.

💬 Chcesz dowiedzieć się więcej o celach Aktu o Usługach Cyfrowych oraz o wpływie nowych przepisów na Twoją działalność? Po więcej zapraszamy do publikacji doradców naszej kancelarii: Link do publikacji

Wdrożenie aktu o usługach cyfrowych w e-commerce

Akt o usługach cyfrowych jest często nazywany nową „Konstytucją Internetu”. Więcej o tym, co zmienia, pisaliśmy między innymi TUTAJ. Jako rozporządzenie UE, AUC stosuje się bezpośrednio we wszystkich państwach członkowskich.
Świat e-commerce to nie teoria, ale praktyka – pełna wyzwań dla nowoczesnego biznesu. Dlatego nasi doradcy, wraz z wieloletnim zastępcą Prezesa Urzędu Ochrony Danych Osobowych (a wcześniej zastępcą GIODO) Mirosławem Sankiem oraz z wydawnictwem  C.H.Beck nie tylko szczegółowo omówili nowe regulacje, ale także przedstawili liczne przykłady (m. in. dotyczące wdrożeń AUC, ich mechanizmów funkcjonowania w e-commerce oraz naruszeń wskazanych regulacji), opracowali tabele (m. in. porównujące stare regulacje z nowymi regulacjami) oraz schematy funkcjonowania poszczególnych mechanizmów AUC, w tym również w porównaniu do RODO, aby ułatwić zrozumienie tych zagadnień.
Publikację kierujemy nie tylko do praktyków prawa, ale przede wszystkim do przedsiębiorców działających online, pracowników e-commerce oraz wszystkich, którzy chcą poszerzyć swoją wiedzę na temat działalności w Internecie.
Dziękujemy za zaangażowanie i wsparcie Wydawnictwu Wydawnictwo C.H.Beck, wszystkim autorom: adw. Mateusz Borkiewicz, r.pr. Jacek Cieśliński, r.pr. Marta Czeladzka, Marek Czwojdziński, r.pr. Paulina Jeziorska, r.pr. Ewa Knapińska, adw. Wojciech Kostka, adw. Grzegorz Lesniewski, Mirosław Sanek, r.pr. Monika Skaba-Szklarska, r.pr. Marta Żukowska oraz przede wszystkim r.pr. dr Wojciech Lamik, którego determinacja i nadzór merytoryczny pozwoliły doprowadzić tę publikację do mety💪🏻

CREDITS W GRACH WIDEO

Kontynuując serię wpisów dotyczących prawnych aspektów działania branży Game Dev, odrębną przestrzeń należy poświęcić kwestii napisów końcowych w grach wideo, czyli kwestii tzw. Creditsów. Problem w tym zakresie dotyczy przede wszystkim tego, kogo, w jakim zakresie i jaki sposób należy w takich Credistach oznaczać. Z uwagi na fakt, że w proces tworzenia gry wideo zaangażowanych jest wiele osób, instytucji czy w ogóle różnego rodzaju podmiotów, należy kierować się określonymi m.in. przez prawo autorskie zasadami – o czym szerzej w dalszej części wpisu.

CZEMU SŁUŻĄ CREDITS I CO MIEĆ NA UWADZE?

 

Napisy końcowe we wszelkiego rodzaju utworach (nie tylko w grach wideo, ale również np. w filmach) stanowią najczęstszą oraz najbardziej optymalną formę realizacji obowiązku oznaczania autorstwa gry jako utworu w rozumieniu prawa autorskiego. Jednocześnie,Creditsy mogą być (i najczęściej są) wykorzystywane również w celu podziękowania za wkład inny niż twórczy w stworzenie gry. Takie podziękowanie co do zasady nie jest uregulowane prawnie, chyba, że co innego wynika z umowy między producentem gry wideo zawartej z daną osobą czy podmiotem.

Co przy tym istotne, publikując Creditsy, należy mieć na uwadze przede wszystkim regulacje dotyczące osobistych praw autorskich, RODO, ochrony dóbr osobistych, nierównego traktowania w zatrudnieniu oraz zobowiązań umownych względem podwykonawców.

CREDITS A RODO

Szczególną uwagę w kontekście Creditsów należy poświęcić zdecydowanie RODO. W tym zakresie, należy przede wszystkim wskazać na podstawę prawną opublikowania danych określonych twórców. Co ciekawe, podstawa przetwarzania będzie inna w przypadku twórców i inna w przypadku nie-twórców:

  • względem twórców: realizacja umowy lub ustawa (uprawnienie / obowiązek oznaczenia autorstwa), tj. odpowiednio art. 6 ust. 1 lit. b albo c RODO;
  • względem nie-twórców: prawnie uzasadniony interes, tj. art. 6 ust. 1 lit. f RODO (możliwość szerokiej argumentacji w tym zakresie, w tym w szczególności: dbanie o wizerunek producenta gry wideo i relacje z pracownikami/współpracownikami, dążenie do zgodności z praktykami rynku i właściwymi standardami), z uwzględnieniem pozytywnego aspektu Credits dla interesów pracownika / współpracownika oraz uzasadnionych oczekiwań z jego strony – powyższe przemawia za pozytywnym wynikiem tzw. testu równowagi, który umożliwia powołanie się na ww. podstawę przetwarzania.

Oczywiście, ponad ww. podstawę przetwarzania w tym zakresie można wskazać również na odebranie zgody na takie przetwarzanie, zwłaszcza względem nie-twórców, które może być pozytywnie ocenione w kontekście transparentności takiego przetwarzania oraz przekazana osobom, których dane dotyczą, faktycznej decyzyjności co do takiego sposobu przetwarzania.

Co jednak istotne, bazowanie na zgodzie jako podstawie przetwarzania może praktyce okazać się bardzo problematyczne, w szczególności przy dużej skali produkcji gry (gdy w produkcję gry zaangażowane jest wiele osób). Chodzi tu oczywiście o potencjalny problem w uzyskaniu takiej zgody od każdej z osób, której dane mają być w Creditsach opublikowane (brak możliwości zagwarantowania odpowiedzi od wszystkich osób, brak możliwości „wymuszenia” zgody oraz możliwość wycofania zgody w każdym czasie – co może prowadzić do konieczności częstej aktualizacji Credits). W przypadku oparcia przetwarzania danych o uzasadniony interes, podmiot danych ma co prawda możliwość wniesienia sprzeciwu, natomiast administrator posiada instrumenty prawne pozwalające na jego nieuwzględnienie (podejście per case).

Wydaje się więc, że zdecydowanie lepszym i bardziej praktycznym podejściem w tym przypadku jest opieranie publikacji danych osobowych w Credits na podstawie uzasadnionego interesu. Co istotne, jeśli producent zdecyduje się na przyjęcie jako podstawy przetwarzania zgody uzyskanej od podmiotu danych, a odebranie takiej zgody okaże się od części osób niemożliwe finalna publikacja gry może stanowić incydent w rozumieniu RODO.

 

POZOSTAŁE KWESTIE PRAWNE

Jeśli chodzi o osobiste prawa autorskie przysługujące twórcom, obejmują one m.in. prawo do decydowania o oznaczeniu autorstwa. W tym kontekście szczególną uwagę należy zwrócić na zapisy wynikające z umowy między producentem a samym twórcą. Zazwyczaj to w umowach wskazane jest, czy prawo do decydowania o oznaczeniu autorstwa przysługuje producentowi czy też samemu twórcy. Od tego też zależeć będzie konieczność uzyskania zgody na oznaczenie autorstwa lub brak konieczności uzyskania takiej zgody.

Ważnym aspektem w zakresie Credits jest również kwestia ochrony dóbr osobistych osób, których dane są lub nie są uwzględniane w napisach końcowych. Jeśli takie uwzględnienie lub nieuwzględnienie będzie bezprawne lub będzie powodowało wrażenie błędnego przypisania autorstwa innej osobie, może wówczas dojść do naruszenia dóbr osobistych twórcy lub nie-twórcy.

Warto wspomnieć również o perspektywie nierównego traktowania w zatrudnieniu. Co istotne, każda samodzielna decyzja producenta gry wideo o niepublikowaniu danych konkretnego pracownika (stosunek pracy) powinna mieć obiektywne uzasadnienie. W innym przypadku niewykluczony jest zarzut nierównego traktowania w zatrudnieniu. Wspomnieć należy, że ryzyko takiego zarzutu pojawić może się również ze strony byłych pracowników, jednak jest ono mniejsze (w zależności od tego, kiedy wygasł stosunek pracy).

Dobrą praktyką w zakresie Credits, która pozwala uniknąć różnego rodzaju niejasności, jest z pewnością wprowadzenie wewnętrznej Credits Policy określającej m.in. podejście producenta gry do Credits, z opisem uzasadnienia dla zebrania w części przypadków zgód. Taka polityka może również określać okresy zatrudnienia / współpracy lub inne zasady, które uzasadniają umieszczenie bądź nieumieszczenie określonych osób w ramach Credits oraz ewentualne zasady postępowania na wypadek otrzymania sprzeciwów co do publikacji.

PODSUMOWANIE

Kwestia dotycząca Credits jest kolejnym zagadnieniem dotyczącym gier wideo, na które należy patrzeć z wielu perspektyw. Publikując dane poszczególnych twórców lub nie-twórców, producenci muszą zwrócić uwagę na wiele aspektów prawnych żeby nie dopuścić się naruszeń a tym samym nie narazić się na odpowiedzialność prawną lub wizerunkową. Problematyka Credits jako kolejna pokazuje jak złożonym procesem jest tworzenie gry wideo.

Akt o usługach cyfrowych: zgłaszanie nielegalnych treści, czyli notice-and-action

Nowa „konstytucja” dla Internetu jest tuż za progiem – już 17 lutego 2024 roku wejdą w życie przepisy rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/2065 z dnia 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (akt o usługach cyfrowych – AUC; Eng.: Digital Services Act – DSA).

Chociaż w Polsce nadal trwają prace nad przepisami wykonawczymi, rozporządzenie ma bezpośrednie zastosowanie. Oznacza to, że mimo lokalnych opóźnień, w całej Unii Europejskiej za chwilę zaczną obowiązywać nowe zasady opisane AUC.

Rewolucyjnych zmian jest bardzo dużo, w tym wymagających zmian interfejsów wielu stron internetowych, portali oraz usług, a także stosowanych procesów firm działających w internecie, jak również ich regulaminów. Dotkną one tzw. dostawców usług pośrednich (najszersza kategoria), dostawców usług hostingu, dostawców platform internetowych oraz dostawców bardzo dużych platform internetowych (podkategorie). Będziemy regularnie opisywać najważniejsze zagadnienia.

Zgłaszanie nielegalnych treści

Dzisiaj sygnalizujemy kwestię nowego podejścia do zgłaszania nielegalnych treści w Internecie. Jest to tzw. procedura notice-and-action, która w pewnym sensie zastąpi znaną i dotychczas stosowaną procedurę notice&take-down (w Polsce wdrożoną już lata temu ustawą o świadczeniu usług drogą elektroniczną).

Obowiązki w tym zakresie zostały nałożone na wszystkich dostawców usługi hostingu. Jest to podkategoria dostawców usług pośrednich, polegająca na przechowywaniu informacji przekazanych przez odbiorcę usługi (tj. osobę fizyczną lub prawną, która korzysta z usługi pośredniej, w szczególności w celu poszukiwania informacji lub udostępnienia jej) oraz na jego żądanie. Przekładając to na bardziej zrozumiałe przykłady, zakres definicji jest bardzo szeroki – obejmuje nie tylko np. firmy udostępniające serwery dla stron internetowych, ale też właścicieli platform internetowych, które pozwalają na umieszczanie na nich przez użytkowników jakiś treści – np. portale społecznościowe, portale z ogłoszeniami, serwisy z muzyką czy filmami, strony do transferowania plików, marketplaces, fora internetowe i wiele innych.

Zgłoszenie może skierować do dostawcy każdy. Nowością jest tutaj przyznawanie specjalnych statusów niektórym podmiotom, tj. zaufanym podmiotom zgłaszającym, których zgłoszenia niektórzy dostawcy będą musieli rozpatrywać priorytetowo.

Największe wyzwania wywołuje sama kwestia konieczności wdrożenia przyjmowania zgłoszeń w całości elektronicznie, ułatwiania zgłaszającym podawania informacji uzasadniających zasadność zgłoszenia (dostosowanie formularzy), czy sformułowanie procedur odwoławczych. Nie wszystkie podmioty mają takie same obowiązki – pewne zwolnienia występują np. dla mikro i małych przedsiębiorstw, chyba że są bardzo dużymi platformami internetowymi. Co więcej, pojawią się twarde obowiązki zgłaszania niektórych przestępstw, o których dowiedzą się dostawcy usług, obowiązki raportowania podejmowanych decyzji i wiele więcej.

Ciekawym zagadnieniem będzie też ew. stosowanie chociaż elementów procedury przewidzianej w AUC dla zgłoszeń otrzymywanych innymi niż dedykowane kanały elektroniczne (np. pocztą tradycyjną) – część nowych obowiązków może w praktyce przeniknąć „do realu”.

Poniżej przedstawiamy przykładowy schemat procesu, zgodnie z AUC, trzymając kciuki aby był dla zainteresowanych pomocnym drogowskazem!

Ważne postępy w prawie dostępu do danych osobowych

W minionym roku wiele działo się w kontekście prawa dostępu do danych osobowych, zwłaszcza w świetle orzeczeń Trybunału Sprawiedliwości Unii Europejskiej dotyczących tego zagadnienia.  

  

Jednym z gorących tematów w tym obszarze była kwestia informowania podmiotu, który korzysta z prawa dostępu do swoich danych, o odbiorcach tych danych osobowych. W obecnych realiach trudno sobie wyobrazić przetwarzanie danych osobowych bez ich udostępniania podmiotom trzecim, takim jak dostawcy usług hostingowych, dostawcy innych usług IT czy firmy kurierskie.  

  

Zgodnie z artykułem 15 ust. 1 Ogólnego Rozporządzenia o Ochronie Danych (RODO), administrator danych ma obowiązek udzielić dostępu do przetwarzanych danych osobowych osobie, której one dotyczą, jeśli złoży ona takie żądanie. W ramach prawa dostępu podmiotowi danych przysługuje prawo do uzyskania informacji m.in. o odbiorcach lub kategoriach odbiorców jego danych osobowych.  

  

Administratorzy danych czasami napotykają na wyzwanie dotyczące prawidłowego wykonania tego obowiązku. Czy konieczne jest przekazanie informacji o tożsamości konkretnych odbiorców danych, takich jak nazwy konkretnych dostawców usług hostingowych, czy wystarczy wskazanie kategorii odbiorców danych?  

  

Ewa Knapińska z naszego Zespołu przyjrzała się temu zagadnieniu w ostatnim numerze @ ABI Expert”. W swoim artykule „Prawo dostępu do danych a odbiorcy danych”, Ewa omawia m.in. wyrok TSUE z 12 stycznia 2023 r. w sprawie C-154/21 dotyczący tego zagadnienia, a także zaktualizowaną wersję wytycznych 1/2022 Europejskiej Rady Ochrony Danych Osobowych dotyczących realizacji prawa dostępu.  

  

#RODO #OchronaDanych #PrawoDostępu #TSUE #ABIExpert 

 

Link do pełnego artykułu:

Październik – Grudzień 2023


Nowy Partner w LBKP!

Dr Jan Pietrzak, który dołączył do naszego zespołu
we wrześniu ubiegłego roku jako Head of Tax, z początkiem 2024 staje się nowym Partnerem LBKP.

Jan to nie tylko doktor nauk prawnych, ale również doświadczony doradca podatkowy i radca prawny z ponad 13-letnim doświadczeniem zawodowym. Wnosi do LBKP nie tylko swoją wiedzę oraz umiejętności, ale także wieloletnią praktykę rozwijaną dotychczas w ramach jego spółki doradztwa podatkowego Legal Taxes sp. z o.o.

Jego obszar działalności obejmuje wsparcie dla firm z różnych sektorów, a szczególnie w branżach takich jak IT, e-commerce, automotive, facility management, hotelarstwo czy farmacja. Jan jest ekspertem w dziedzinie transakcji typu M&A, zarówno na poziomie krajowym, jak i międzynarodowym (aktualna łączna wartość transakcji, w których doradzał Jan przekracza kwotę 10 mld złotych). Jego rola obejmuje nie tylko kierowanie procesmi, ale także opracowywanie skutecznych struktur podatkowych transakcji.

Jan pełni też funkcję CEO biura rachunkowego Tax Venture sp. z o.o., które… dołącza do grupy LBKP! Tym samym jako Kancelaria poszerzamy zakres oferowanych przez nas usług – w jakości LBKP obok prawa i podatków pojawiają się usługi księgowe oraz kadry i płace (ale o tym więcej niebawem).

Gratulacje Jan, to się nazywa mocne wejście w Nowy Rok!

SME FUND również w 2024 roku

Na stronie internetowej Europejskiego Urzędu ds. Własności Intelektualnej (EUIPO), pojawiła się informacja, że w 2024 roku, podobnie jak w latach ubiegłych, możliwe będzie uzyskanie dofinansowania do rejestracji znaku towarowego na terenie Unii Europejskiej, za pośrednictwem Funduszu SME, działającego przy EUIPO. Wnioski o dofinansowanie w ramach programu SME FUND będzie można składać od dnia 22 stycznia 2024 r. Jeżeli więc jesteś MŚP i chciałbyś chronić swój znak towarowy – prosimy o kontakt – chętnie pomożemy w sposób kompleksowy.

 

Co ciekawe, ww. Fundusz działał również m.in. w roku 2023 i cieszy się dużą popularnością wśród przedsiębiorców. W samym 2023 roku złożonych zostało niemal 35 tysięcy wniosków o dofinansowanie. Co ciekawe, Polska znajduje się na 2 miejscu (zaraz za Hiszpanią), jeśli chodzi o ilość złożonych wniosków.

Dlaczego warto chronić własność intelektualną?

 

W erze cyfrowej ochrona własności intelektualnej jest niezbędna. Jest to jedyny zgodny z prawem sposób, by nie dopuścić do kopiowania lub wykorzystywania unikatowych pomysłów, produktów lub usług bez pozwolenia. Ochrona własności intelektualnej może obejmować m.in. znaki towarowe, które objęte są programem dofinansowania.

 

Koszty rejestracji oraz kwota dofinansowania

 

Standardowe koszty rejestracji 1 znaku są następujące:

– opłata podstawowa za jedną klasę wynosi 850 EUR,

– opłata za kolejną, drugą klasę towarów i usług wynosi dodatkowe 50 EUR,

– opłata za kolejną, trzecią i każdą dodatkową liczbę klas wynosi dodatkowe 150 EUR za każdą klasę od trzeciej wzwyż

W latach ubiegłych kwota dofinasowania wynosiła 75% opłaty wnoszonej do EUIPO za zgłoszenie znaku towarowego do rejestru, wobec czego prawdopodobne, że również w roku 2024 będzie podobnie. W ramach programu dofinansowania można zatem uzyskać zwrot zdecydowanej większości poniesionych kosztów.

 

Procedura

 

W celu uzyskania dofinansowania, należy poprawnie wykonać wszystkie określone przez EUIPO czynności, na które składają się:

– złożenie wniosku o dofinansowanie

– złożenie wniosku o rejestrację znaku towarowego po wydaniu decyzji o udzieleniu dofinansowania

– wystąpienie do odpowiedniego organu o zwrot poniesionych kosztów związanych z rejestracją

Co istotne – cały proces dotyczący zwrotu kosztów poniesionych w związku z dofinansowaniem jest stosunkowo szybki. Postępowanie od momentu złożenia wniosku o dofinansowanie do rzeczywistego zwrotu poniesionych kosztów w praktyce zajmuje do około 2 miesięcy, co sprawia, że środki z dofinansowania bardzo szybko trafiają do beneficjenta programu. Z naszego doświadczenia w tym zakresie wynika, że zwrot środków następuje bez jakichkolwiek problemów.

W ramach naszej pomocy związanej z procesem rejestracji znaków towarowych przed EUIPO, poza ww. czynnościami związanymi z uzyskaniem dofinansowania, zapewniamy również wsparcie dotyczące weryfikacji w zakresie możliwości rejestracji określonego znaku towarowego, jak również przeprowadzenia samego procesu rejestracji znaku.

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj