Ochrona konsumentów w ramach Aktu o Usługach Cyfrowych

W lutym tego roku weszło w życie gro przepisów Aktu o Usługach Cyfrowych (AUC), europejskiego rozporządzenia zwanego potocznie nową konstytucją Internetu AUC jest próbą usystematyzowania i uporządkowania przepisów regulujących bezpieczeństwo funkcjonowania różnych grup użytkowników w sieci, np. młodocianych czy konsumentów. W starciu z gigantami internetowymi jak Google, Amazon czy Facebook, użytkownicy narażone na szereg nadużyć, typu wykorzystywanie podawanych przez siebie (zazwyczaj dobrowolnie) informacji bez swojej wiedzy, manipulowanie danymi, profilowanie, brak rzetelnych informacji o oferowanych usługach czy produktach. W publikacji przygotowanej przez prawników z kancelarii LBKP „Wdrożenie aktu o usługach cyfrowych”, do której zachęcam do zakupu na stronie wydawnictwa Beck https://www.ksiegarnia.beck.pl/22073-wdrozenie-aktu-o-uslugach-cyfrowych-w-e-commerce-mateusz-borkiewicz, którego miałam przyjemność współtworzyć, znalazły się praktyczne wskazówki dotyczące jego stosowania. Niniejszy artykuł skupia się na kwestiach związanych z ochroną konsumentów w sieci, szerzej omówionych w publikacji w rozdziale VIII mojego autorstwa. 

Unia Europejska od wielu lat zajmuje się problemami konfliktu pomiędzy konsumentami a przedsiębiorcami. Z uwagi na coraz większą aktywność konsumentów w sieci, w szczególności za pośrednictwem internetowych platform cyfrowych, AUC jest odpowiedzią Unii na potrzebę wzmocnienia ochrony konsumentów przed zagrożeniami związanymi z e-handlem.    

AUC w art. 29-32 (Sekcja 4 Rozdziału III) reguluje nowe obowiązki dla dostawców platform internetowych umożliwiających konsumentom – osobom fizycznym zawieranie z przedsiębiorcami umów zawieranych na odległość. Dotyczy to tylko tych platform, które kwalifikują się jako średnie lub duże przedsiębiorstwa, zgodnie z definicją w załączniku do zalecenia Komisji Europejskiej 2003/361/WE, lub wskazanych jako bardzo duże platformy internetowe (zgodnie z art. 33 AUC), np. Allegro, Amazon, Zalando.   

W wielu przypadkach konsumenci nie zdają sobie sprawy, że zawierają umowę z drobnym przedsiębiorcą i nie mają po drugiej stronie internetowego giganta jako wypłacalnego partnera umownego. Platformy przyciągają konsumentów swoją nazwą, infrastrukturą, bogatą ofertą, a jednak umowa zawierana jest w rzeczywistości z nierzadko małym dostawcą działającym za pośrednictwem platformy e-handlu. Co prawda platformy mają wpływ na formę umowy (w szczególności poprzez swoje ogólne warunki), jednak nie ponoszą odpowiedzialności w przypadku wystąpienia problemów, pozostawiając konsumenta bez możliwości dochodzenia swoich roszczeń.  

Pierwszą z nowości jest wprowadzenie dla platform e-handlu zasady „znaj swojego klienta” (art. 30 AUC), poprzez ułatwienie identyfikalności użytkowników platormy – przedsiębiorców. Celem jest stworzenie bezpiecznego środowiska internetowego dla konsumentów, konkurentów i posiadaczy praw własności intelektualne, i ograniczenie liczby fałszywych sklepów na platformach. Platformy powinny dopuścić do korzystania z ich usług tylko tych przedsiębiorców, którzy przekazali informacje i dane wymagane przez art. 30 AUC. Są to:  

Źródło: opracowanie własne. 

 

Część z tych informacji platforma e-handlu musi opublikować co najmniej w interfejsie internetowym, w miejscu gdzie przedstawione są informacje na temat produktu lub usługi. Platformy e-handlu powinny wszelkich starań do oceny, czy otrzymane od przedsiębiorcy informacje są prawdziwe, kompletne i aktualne, szczegóły dotyczące terminów dostarczenia i weryfikacji zawarte są w rozdziale VIII publikacji. Jeśli przedsiębiorca nie dostarczy danych lub wyjaśnień, platforma powinna zawiesić lub odmówić świadczenie usług pośrednictwa e-handlu wraz z uzasadnieniem. Na marginesie należy dodać, że przedsiębiorca, którego konto zostało zablokowane bądź nieutworzone, może bezpłatnie złożyć elektroniczną skargę oraz odwołać się od decyzji, o czym więcej w naszej publikacji.  

AUC wprowadziło wymogi dotyczące projektowania interfejsu (strony internetowej) dla platform e-handlu, aby były czytelniejsze i bezpieczniejsze dla potencjalnych klientów-konsumentów. Przedsiębiorcy oferujący swoje produkty powinni mieć możliwość podania w widocznym miejscu w odniesieniu do oferowanego produktu podanie nazwy, adresu, numeru telefonu i adresu poczty elektronicznej producenta lub właściwego podmiotu odpowiedzialnego za produkt, a także dokładnego opisu produktu wraz z logo, a w przypadkach produktów specjalistycznych, z rynków regulowanych również informacje dotyczące etykietowania i oznakowania zgodnie z obowiązującymi przepisami dotyczącymi bezpieczeństwa produktów i zgodności produktów. W tym przypadku platformy e-handlu nie są zobowiązane do weryfikacji prawdziwości tych informacji, ale powinny podjąć pewne działania kontrolne w stosunku do nich. Oferowane produktu i usługi powinny natomiast podlegać losowym kontrolom okresowo przeprowadzanym przez platformy. Przykładowe zestawienie częstotliwości kontroli oferowanych produktów lub usług przedstawione zostało poniżej w tabeli, przy czym szersze omówienie tych obowiązków zawarte jest w rozdziale VIII publikacji.  

Tabela 5. Zestawienie częstotliwości kontroli oferowanych produktów lub usług  

Źródło: opracowanie własne. 

  

Mimo przełomowych zmian w e-commerce, konsumenci nadal stosunkowo często napotykają przeszkody w egzekwowaniu swoich praw jako ofiary oszustwa, czy w przypadku zakupu nielegalnych towarów. AUC idzie o kolejny krok dalej i zobowiązuje dostawców internetowych platform handlowych do informowania konsumentów, jeśli są świadomi niezgodności z prawem produktu lub usługi oferowanej lub już sprzedanej za pośrednictwem platformy e-handlu (art. 32 ust. 1 AUC). Dotyczy to wszystkich konsumentów, którzy nabyli taki nielegalny produkt lub usługę w ciągu 6 miesięcy od chwili dowiedzenia się dostawcy platformy e-commerce o nielegalnym charakterze takiego produktu lub usługi. Platforma e-handlu nie musi podawać uzasadnienia ani źródła przekazywanej o nielegalności produktu lub usługi, wystarczy że poweźmie wiedzę o takim fakcie, np. na podstawie monitorowania ofert, prawomocnego wyroku, zgłoszenia od użytkowników platformy lub policji. Przepisy AUC nie przewidziały szczególnej formy przekazania informacji nabywcy nielegalnego produktu, z pewnością wiadomość e-mail będzie właściwym środkiem zawiadomienia takich konsumentów. Krąg adresatów tej wiadomości jest ograniczony – dotyczy wyłącznie konsumentów, którzy nabyli nielegalny produkt w ciągu ostatnich 6 miesięcy, a więc bezpośrednio zainteresowanych, których faktycznie dotyczy ta sytuacja. Może się jednak zdarzyć, że dostawca internetowej platformy handlowej nie będzie posiadał danych kontaktowych wszystkich zainteresowanych konsumentów, którzy nabyli nielegalny produkt w ciągu ostatnich 6 miesięcy. Wystarczy, że jeden z konsumentów usunie w tym czasie swoje konto i dane kontaktowe. W takim przypadku platforma powinna podać do wiadomości publicznej w łatwo dostępny sposób informacje na swojej stronie internetowej.  

Szersze omówienie przedstawionych powyżej zagadnień wraz z praktycznymi wskazówkami i przykładami zawarte jest w ww. publikacji w rozdziale VIII. Z pewnością dzięki przewidzianym w Sekcji 4 Rozdziału III obowiązkom dla dostawców internetowych platform handlowych AUC przyczyni się do wzmocnienia pozycji konsumentów na rynku, a także zwiększenia pewności i bezpieczeństwa obrotu w sieci.  

Czym jest ESG? 

Pojęcie ESG obejmuje kryteria pozafinansowej oceny działalności przedsiębiorstwa w trzech głównych obszarach: środowiskowym (environmental), społecznym (social) oraz ładu korporacyjnego (corporate). 

Za sprawą tzw. CRSD, czyli nowej dyrektywy o sprawozdawczości przedsiębiorstw w zakresie zrównoważonego rozwoju, która weszła w życie 1 stycznia 2024 r., ESG ma dostarczać wymiernych wskaźników, które pozwolą zmierzyć to, co do tej pory wydawało się niemierzalne – szeroko pojęty wpływ przedsiębiorstwa na środowisko, społeczeństwo i gospodarkę. Ocena działalności przedsiębiorstwa w trzech wymienionych wyżej obszarach przedstawiana będzie w raportach niefinansowych, które w przeciągu najbliższych lat zobowiązana będzie przygotowywać i upubliczniać liczna grupa polskich i europejskich przedsiębiorstw. 

Raporty niefinansowe obejmować mają szereg informacji dotyczących działalności przedsiębiorstwa w obszarze środowiska naturalnego (np. ślad węglowy), spraw pracowniczych, poszanowania praw człowieka czy też przeciwdziałania korupcji. 

Docelowo, informacje ujęte w raporcie niefinansowym mają stać się tak samo istotnym elementem oceny kondycji i sytuacji przedsiębiorstwa, jak jego wyniki finansowe. 

Raportowanie niefinansowe po nowemu 

Do czasu uchwalenia CRSD, obowiązek raportowania niefinansowego dotyczył w Polsce wyłącznie największych jednostek zainteresowania publicznego (takich jak banki, największe spółki giełdowe etc. – ok. 150 podmiotów). Po zmianach, które na zasadach opisanych w poniższej tabeli obejmować będą stopniowo kolejne grupy przedsiębiorstw szacuje się, że nowymi obowiązkami objęte będzie docelowo około 3500 – 4000 podmiotów. 

 

 Istotną zmianę stanowią również precyzyjne wymagania dotyczące treści i formy przyszłych raportów niefinansowych. Dotychczas przepisy nie określały, co dokładnie powinien zawierać raport dotyczący ESG. Nowe standardy raportowania (ESRS), narzucać będą w tym zakresie bardzo szczegółowe reguły. Już teraz można ocenić, że dla wielu przedsiębiorców – szczególnie tych nieposiadających doświadczeń w zakresie raportowania niefinansowego – przygotowanie raportu zgodnego z wymaganiami ESRS stanowić będzie prawdziwe wyzwanie. 

Dlaczego to ważne? 

Chęć uniknięcia sankcji za nierealizowanie obowiązków nakładanych przez CRSD i implementujące ją ustawodawstwo krajowe to tylko jeden z powodów, dla których warto w najbliższych miesiącach zainteresować się tematem ESG. 

Kryteria związane z ESG są coraz częściej brane pod uwagę przez duże podmioty w procesie wyboru kontrahentów, z którymi podmioty te współpracują. Już teraz najwięksi gracze niejednokrotnie uzależniają rozpoczęcie i kontynuowanie współpracy od przedstawienia dokumentów i informacji dotyczących działań ich dostawców w obszarze ESG. Nie zawsze wynika to jedynie z wewnętrznej polityki danej firmy. Przykładowo, zgodnie z prawodawstwem niemieckim, niemieccy przedsiębiorcy muszą badać swoich dostawców pod kątem spełniania przez nich m.in. wymogów środowiskowych i przestrzegania praw człowieka. Po wejściu w życiu CSRD przedsiębiorstwa objęte obowiązkiem raportowania będą zobowiązane do weryfikowania kwestii związanych z ESG w swoich łańcuchu dostaw. W efekcie, nawet jeżeli Państwa przedsiębiorstwo nie będzie podlegać obowiązkowi sporządzania raportu niefinansowego, konieczne może się okazać wdrożenie ESG przynajmniej w takim zakresie, który uznawany będzie przez Państwa kontrahentów. 

Wyniki raportów ESG będą miały ponadto coraz większy wpływ na decyzje inwestycyjne. Szacuje się, że do 2025 r. aż 1/3 funduszy inwestycyjnych na świecie będzie inwestowała zgodnie z trendem ESG, 69% banków planuje w ciągu najbliższego roku uwzględniać kryteria ESG w zarządzaniu ryzykiem kredytowym. Zaobserwować można rozwój trendu finansowania w formule SSL (eng. sustainability linked loan), polegającego na powiązaniu wysokości marży kredytu z realizacją przed kredytobiorcę celów z obszaru ESG. 

Działania przedsiębiorstwa w obszarze ESG będą miały zatem wpływ na jego wizerunek, dostęp do kapitału, możliwość zawierania umów z innymi uczestnikami rynku. To wszystko powoduje, że wdrożenie ESG będzie się po prostu opłacało.  

Eksperci z LBKP wesprą Państwa w zrozumieniu i wdrożeniu nowych standardów, a także w procesie tworzenia raportów zrównoważonego rozwoju zgodnie z obowiązującymi przepisami i najlepszymi praktykami. Nasza oferta obejmuje również kompleksowe wsparcie dla tych przedsiębiorców, których nie będzie w najbliższych latach dotyczył obowiązek sporządzania raportów niefinansowych, ale którzy będą zainteresowani uwzględnieniem aspektów związanych ESG w swoje działalności. 

Zapraszamy do kontaktu w celu uzyskania bardziej szczegółowych informacji. 

 

Czy wiesz, jakich praktyki unikać, aby zapewnić uczciwe i przyjazne doświadczenia użytkownikom?

Zapraszamy do wysłuchania rozmowy, w której dr Wojciech Lamik razem z dr hab. Marleną Sakowską- Baryłą omawiają zagadnienia związane z dark patterns, czyli zwodniczymi interfejsami.

Dzielą się swoimi spostrzeżeniami na temat:

🔷 definicji dark patterns,

🔷 przykładowych praktyk stosowanych w dark patterns,
🔷 konsekwencji prawnych dla osób używających dark patterns,

🔷 sugerowanych praktyk i materiałów, które mogą pomóc w uniknięciu stosowania dark patterns na stronach internetowych i w aplikacjach.

Więcej o dark patterns znajdziesz w naszej publikacji „Wdrożenie aktu o usługach cyfrowych”, która już 15 kwietnia ukaże się nakładem Wydawnictwa C.H. Beck 🙂

Link do publikacji

Jak tworzyć narzędzia AI zgodnie z prawem?

Jak już wspominaliśmy w poprzednich wpisach, wciąż pozostało wiele pracy w kontekście prawa sztucznej inteligencji.

Zobacz:

Sztuczna Inteligencja a prawo – Globalne interpretacje i lokalne adaptacje

Jak legalnie wykorzystywać AI?

Sztuczna inteligencja a odpowiedzialność prawna – nowe horyzonty?

Jednak w oparciu o ogólne zasady obowiązujące w wielu jurysdykcjach, projekty ustaw i obecne prawodawstwo UE, które już można zastosować do systemów AI, a także akty prawne „na ukończeniu”, stworzyliśmy ten uproszczony przewodnik prawny dotyczący tworzenia narzędzi AI.

_________________________________________________________________________________

Etap 1: zdefiniuj funkcjonalności i cele systemu AI (nie tylko zamierzone, ale także inne możliwe). W tym kontekście:

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie;

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić;

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych;

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA. Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania

Etap 2: zdefiniuj wejściową/ szkoleniową bazę danych

Upewnij się, że możesz z niej korzystać zgodnie z prawem. Istnieje wiele dyskusji na temat dozwolonego wykorzystania publicznie dostępnych danych, ale takie działanie zawsze oceniać indywidualnie. Kluczowe zagrożenia obejmują

– naruszenie praw własności intelektualnej (praw autorskich, znaków towarowych, praw do baz danych);

– niezgodne z prawem przetwarzanie danych osobowych;

– niemożność realizacji praw osób, których dane dotyczą (RODO dopuszcza wiele praw osób, których dane są przetwarzane, a wiele systemów AI jest tworzonych w sposób utrudniający ich realizację);

– naruszenie tajemnic handlowych lub informacji poufnych;

Upewnij się, że baza danych jest poprawna, zawiera dane dobrej jakości i nie stwarza możliwości powstawania uprzedzeń lub błędów statystycznych.

Etap 3: Cyberbezpieczeństwo

Wdrażaj rozwiązania odpowiednie dla systemu AI i zidentyfikowanych zagrożeń. Chodzi tu nie tylko o ochronę efektów pracy i inwestycji, ale także o zgodność z przepisami. W niektórych przypadkach mogą obowiązywać szczególne wymagania, zwłaszcza jeśli przetwarzasz dane osobowe (RODO) lub jeśli system jest przeznaczony do użytku w sektorze finansowym (DORA).

Etap 4: Narzędzia do programowania

Jeśli korzystasz z technologii lub aplikacji stron trzecich do opracowania systemu sztucznej inteligencji, upewnij się, że masz wszystkie niezbędne licencje i nie naruszasz ich. Ważne jest, aby uzyskać i przeanalizować całą odpowiednią dokumentację takich narzędzi, aby zrozumieć, w jaki sposób mogą one zmienić Twoje podejście / ustalenia istotne dla poszczególnych etapów tworzenia systemu AI.

Etap 5:  Proces rozwoju – pamiętaj o:

– zasadach privacy by design i privacy by default wynikających z RODO;

– jeśli Twój system będzie oferowany konsumentom, musisz przestrzegać przepisów dotyczących ochrony konsumentów;

– testowaniu wszystko wiele razy 😊

– wdrożeniu procesu odnotowywania i zgłaszania incydentów (przechwytywanie, analiza, wyciąganie wniosków).

***

Upewnij się, że wszystkie etapy spełniają wymogi przejrzystości i zrównoważonego rozwoju. W przyszłości kluczowe będzie udowodnienie zgodności z przepisami w tym obszarze. Ponieważ wiele przepisów prawnych faworyzuje podejście oparte na ryzyku, potrzebne będą istotne dowody na to, że wszystkie zagrożenia zostały uwzględnione na wszystkich etapach cyklu życia systemu sztucznej inteligencji.

Jeżeli chcesz dowiedzieć się więcej na temat wytycznych dotyczących systemów sztucznej inteligencji zobacz „Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji”,

Wprowadzają one ramy oceny wpływu systemów AI na politykę publiczną w obszarach objętych Zasadami AI OECD i klasyfikują systemy i aplikacje AI według następujących obszarów: Ludzie i planeta, Kontekst ekonomiczny, Dane i dane wejściowe, Model AI oraz Zadanie i wynik.

Pamiętaj, że w przypadku prac nad produktami zawierającymi systemy sztucznej inteligencji, które ze względu na swoją specyfikę mogą zostać uznane za system AI wysokiego ryzyka, koniecznością w takim przypadku będzie wprowadzenie systemów zarządzania jakością i ryzykiem na każdym etapie rozwoju projektu. Ten krok jest niezbędny, aby zapewnić zgodność systemu sztucznej inteligencji z AI Act oraz z innymi aktami prawnymi. Wdrożenie takich procesów jest kluczowe nie tylko podczas tworzenia produktu, ale także po jego wprowadzeniu na rynek.

Autorzy: adw. Mateusz Borkiewicz, Agata Jałowiecka

Podstawowe obowiązki dostawców usług pośrednich według AUC

Na mocy Aktu o Usługach Cyfrowych (dalej: „AUC”), na dostawców usług pośrednich zostały nałożone obowiązki należytej staranności na potrzeby przejrzystego i bezpiecznego środowiska internetowego.

Z uwagi na fakt, że pod pojęciem dostawcy usług pośrednich kryje się wiele, różnego rodzaju podmiotów (często o różnej strukturze i wielkości), jak również fakt, że pojęcie usługi pośredniej jest samo w sobie szerokie i obejmuje katalog usług o różnej specyfice, ustawodawca uznał, że obowiązki w zakresie należytej staranności muszą być dostosowane do rodzaju, wielkości i charakteru danej usługi pośredniej i dlatego wyodrębniono katalog obowiązków podstawowych – czyli takich, które mają zastosowanie do wszystkich dostawców usług pośrednich, a ponadto obowiązków dodatkowych – które mają zastosowanie do poszczególnych rodzajów dostawców usług pośrednich, ze względu na specyfikę i wielkość świadczonych przez nich usług. Obowiązki podstawowe powinny być wykonywane przez dostawcę usług pośrednich każdego rodzaju.

Do podstawowych obowiązków należytej staranności dostawców usług pośrednich należą:

  • Wyznaczenie punktów kontaktowych.

 

Dostawcy usług pośrednich mają obowiązek wyznaczenia pojedynczego elektronicznego punktu kontaktowego oraz publikowania i aktualizowania odpowiednich informacji dotyczących tego punktu kontaktowego. Nałożenie na dostawców usług pośrednich takiego obowiązku ma na celu zagwarantowanie sprawnej komunikacji pomiędzy dostawcą a odbiorcą usługi oraz pomiędzy dostawcą a organami państw członkowskich, Komisja Europejską, Europejską Radą ds. Usług Cyfrowych.

W odróżnieniu od przedstawiciela prawnego, punkt kontaktowy nie musi mieć fizycznej lokalizacji, jest to wirtualne miejsce. Punkt kontaktowy może służyć realizacji obowiązków nałożonych na mocy różnych innych aktów prawnych, nie tylko na mocy AUC. Informacje o punktach kontaktowych muszą być łatwo dostępne i aktualizowane na stronie internetowej dostawcy.

Punkt kontaktowy dla odbiorców usług powinien przede wszystkim umożliwiać im bezpośrednią i szybką komunikację z dostawcą usług pośrednich, drogą elektroniczną, w sposób przyjazny dla użytkownika, w tym poprzez umożliwienie odbiorcom usług wyboru środków komunikacji, które nie mogą opierać się wyłącznie na zautomatyzowanych narzędziach. Oznacza to w praktyce przede wszystkim, że odbiorca usługi powinien mieć do wyboru przynajmniej dwa narzędzia komunikacji, z czego jedno z nich nie może opierać się wyłącznie na zautomatyzowanych narzędziach.

 

  • Wyznaczenie przedstawiciela prawnego.

 

Dostawcy usług pośrednich, którzy mają siedzibę w państwie trzecim (czyli poza UE), i oferują usługi w Unii Europejskiej, powinni wyznaczyć dysponującego wystarczającymi uprawnieniami przedstawiciela prawnego w UE oraz udzielić odpowiednim organom informacji dotyczących ich przedstawicieli prawnych i podać takie informacje do wiadomości publicznej.

Dostawcy usług pośrednich wyznaczają na piśmie w szczególności osobę prawną lub fizyczną do działania w charakterze ich przedstawiciela prawnego w jednym z państw członkowskich, w których dostawca oferuje swoje usługi. Przedstawiciel prawny może reprezentować jednego lub więcej dostawców usług pośrednich.

 

Przedstawiciel prawny jest nie tylko pełnomocnikiem do doręczeń w sprawach związanych z wydawaniem przez organy decyzji dot. AUC. Musi on być w stanie także współpracować z organami, reagować na otrzymane wezwania. Przedstawiciel prawny powinien otrzymać upoważnienia do działań, które zapewnią stosowanie się do decyzji właściwych organów.

Aby wypełnić obowiązek wyznaczenia przedstawiciela prawnego, dostawcy usług pośrednich powinni zapewnić, by wyznaczony przedstawiciel prawny dysponował uprawnieniami i zasobami niezbędnymi do współpracy z odpowiednimi organami. Jako odpowiednie zasoby należy postrzegać odpowiednie kompetencje i doświadczenie, jak również dysponowanie stosownymi możliwościami organizacyjnymi, prawnymi czy technicznymi umożliwiającymi pełnienie takiej roli.

 

  • Uwzględnienie w warunkach świadczenia usług informacji na temat ograniczeń związanych z korzystaniem z usług.

 

Dostawcy usług pośrednich powinni w warunkach świadczenia usług (czyli np. regulaminach stanowiących część umów zawieranych z użytkownikami) uwzględnić informacje na temat wszelkich ograniczeń, które nakładają w związku z korzystaniem z ich usług, w odniesieniu do informacji przekazywanych przez odbiorców usługi. Informacje takie muszą zawierać wskazanie w zakresie wszelkich polityk, procedur, środków i narzędzi wykorzystywanych na potrzeby moderowania treści, jak również powinny zawierać informacje na temat regulaminu wewnętrznego rozpatrywania skarg. Akt o Usługach Cyfrowych formułuje dodatkowy wymóg, żeby ww. informacje podane były w sposób prosty i zrozumiały dla odbiorcy, a ponadto, żeby informacje te nadawały się do odczytu maszynowego.

Dostawcy usług pośrednich kierowanych głównie względem małoletnich (np. z uwagi na rodzaj usługi lub rodzaj związanych z tą usługą działań marketingowych), powinni dołożyć szczególnych starań, aby w sposób łatwo zrozumiały dla małoletnich wyjaśnić warunki korzystania z usług.

Szczególne obowiązki związane z uwzględnieniem w warunkach świadczenia usług informacji na temat ograniczeń zostały nałożone na dostawców usług pośrednich kwalifikujących się jako bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe. Jako uzasadnienie nałożenia dodatkowych obowiązków wskazano przede wszystkim konieczność zapewnienia przez tego rodzaju duże podmioty szczególnej przejrzystości, jeśli chodzi o warunki korzystania z ich usług. Dostawcy bardzo dużych przeglądarek internetowych i bardzo dużych wyszukiwarek internetowych, ponad obowiązujący wszystkie rodzaje podmiotów świadczących usługi pośrednie obowiązek przedstawienia warunków korzystania z usług, zobowiązani są również m.in.: udostępnić streszczenie takich warunków, udostępnić warunki w językach urzędowych wszystkich państw członkowskich, w których oferują swoje usługi.

 

  • Obowiązki sprawozdawcze.

AUC nakłada na dostawców usług pośrednich również coroczny obowiązek sprawozdawczy, w zakresie wszelkiego moderowania treści, które dokonali w danym okresie.

Sprawozdanie powinno zawierać m.in. następujące informacje:

  • Liczba nakazów otrzymanych od organów państw członkowskich;
  • Liczba zgłoszeń dokonanych zgodnie z art. 16 AUC;
  • Istotne i zrozumiałe informacje na temat moderowania treści dokonanego z własnej inicjatywy dostawców;
  • Liczba skarg otrzymanych za pośrednictwem wewnętrznych systemów rozpatrywania skarg zgodnie z warunkami korzystania z usług dostawcy;
  • Wszelkie przypadki wykorzystania zautomatyzowanych środków do celów moderowania treści.

Komisja Europejska na mocy AUC posiada uprawnienie do przyjmowania aktów wykonawczych w celu ustanowienia wzorów określających formę, treść i inne szczegóły sprawozdań, w tym zharmonizowane okresy sprawozdawczości. Aktualnie Komisja pracuje nad przyjęciem takiego wzoru.

***

Chcesz dowiedzieć się więcej o podstawowych obowiązkach dostawców usług pośrednich według Aktu o Usługach Cyfrowych? Po więcej zapraszamy do publikacji doradców naszej kancelarii: [Link do publikacji]

Sztuczna inteligencja – czym jest (z prawnego punktu widzenia) i jak radzi sobie z nią świat

„W szybko rozwijającej się dziedzinie technologii sztuczna inteligencja (AI) jest przełomową siłą, która nie tylko przekształciła branże, ale także zrodziła wiele pytań i wyzwań prawnych”.

Chat GPT poproszony o przedstawienie sztucznej inteligencji w kontekście wyzwań prawnych.

Czy istnieje definicja sztucznej inteligencji?

Obecnie nie ma prawnej definicji sztucznej inteligencji ani w Polsce, ani w Unii Europejskiej. Podobna sytuacja występuje również w innych głównych jurysdykcjach na świecie. Prawdopodobnie najbliższa definicji AI jest definicja “zautomatyzowanego podejmowania decyzji” zawarta w RODO, która może obejmować niektóre systemy AI.

RODO w art. 22 definiuje zautomatyzowane podejmowanie decyzji jako:

„… decyzja, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec (…) osoby skutki prawne lub w podobny sposób istotnie na nią wpływa.”.

Definicja ta w swoim obecnym kształcie nie jest jednak wystarczająco konkretna, aby w wystarczający sposób “pokryć” pojęcie systemów sztucznej inteligencji jakie znamy obecnie.

Z prawnego punktu widzenia sztuczna inteligencja jest więc „tylko” technologią lub zestawem technologii i jest regulowana w taki sam sposób, jak każda inna technologia – poprzez wiele różnych przepisów mających zastosowanie do określonych kontekstów lub zastosowań. Może być wykorzystywana w dobrych celach lub w celu wyrządzenia szkody, jej użycie może być legalne lub nielegalne – wszystko zależy od sytuacji i kontekstu.

Dlaczego uregulowanie sztucznej inteligencji jest tak ważne?

Tempo rozwoju sztucznej inteligencji przyspiesza. A ponieważ sztuczna inteligencja jest „przełomową siłą”, różne kraje mają trudności z opisaniem tej technologii do celów legislacyjnych. W przeszłości ustawodawcy rzadko rozważali tworzenie nowych przepisów na poziomie międzynarodowym specjalnie dla pojedynczej technologii. Ostatnie lata dowiodły jednak, że coraz więcej przełomów technologicznych wymaga szybkiej reakcji prawnej – nie trzeba daleko szukać, wystarczy pomyśleć o przetwarzaniu w chmurze, blockchainie, a teraz o sztucznej inteligencji.

Przykładowo, różne części lub komponenty tej technologii mogą być własnością różnych osób lub firm (na przykład prawa autorskie do określonego kodu programu lub własność baz danych), ale idea sztucznej inteligencji jest publiczna. A ponieważ coraz więcej narzędzi i wiedzy na temat AI jest dostępnych dla wszystkich, teoretycznie każdy może korzystać z narzędzi AI lub tworzyć nowe narzędzia. Może się to wiązać z potencjalnymi nadużyciami, stąd regulacje prawne tej technologii są tak ważne.

Dlaczego jeszcze? Wszyscy zgadzają się, że sztuczna inteligencja ma potencjał, by zmienić krajobraz gospodarczy i społeczny na całym świecie. Oczywiście, to już się dzieje, a proces ten przyspiesza każdego dnia – co jest równie ekscytujące, co przerażające. Tempo rozwoju nowych technologii sprawia, że trudno jest przewidzieć rezultaty. Dlatego też kluczowe znaczenie ma posiadanie pewnych zasad prawnych, które zapewnią, że sztuczna inteligencja będzie wykorzystywana w sposób korzystny dla wszystkich. A ponieważ jest to „zjawisko globalne”, najlepiej byłoby, gdyby przynajmniej powszechnie uzgodniono, czym jest sztuczna inteligencja z prawnego punktu widzenia.

Najprawdopodobniej nie stanie się to jednak w skali globalnej. Niektóre kraje próbują zdefiniować sztuczną inteligencję ze względu na jej cel lub funkcje, inne ze względu na stosowane technologie, a niektóre łączą różne podejścia. Wiele kluczowych jurysdykcji stara się jednak uzgodnić definicję sztucznej inteligencji i znaleźć wspólne zasady. Jest to ważne, aby uniknąć praktycznych problemów, zwłaszcza dla dostawców globalnych rozwiązań AI, ponieważ wkrótce będą oni musieli zmierzyć się z licznymi kwestiami zgodności. Tylko co najmniej podstawowa interoperacyjność między jurysdykcjami pozwoli sztucznej inteligencji w pełni wykorzystać swój potencjał.

Podejście unijne

Różne kraje w Unii Europejskiej na wiele sposobów próbowały „podejść” do zagadnienia AI. Jeśli jednak szukamy szybkiej odpowiedzi na pytanie „jak najprawdopodobniej będzie wyglądać definicja sztucznej inteligencji w UE?”, większość odeśle nas do Aktu o Sztucznej Inteligencji, czyli AI Act, a właściwie jego projektu. Kraje członkowskie odraczają konkretne decyzji do czasu przyjęcia ostatecznej wersji AI Act, który w sposób kompleksowy ureguluje tę technologię na poziomie europejskim we wszystkich krajach członkowskich.

Aktualnie publicznie dostępna wersja AI Act zawiera następującą definicję systemu sztucznej inteligencji:

“An AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.”

Źródło: https://www.linkedin.com/feed/update/urn:li:activity:7155091883872964608/

Co można tłumaczyć jako: “System sztucznej inteligencji jest systemem maszynowym zaprojektowanym do działania z różnymi poziomami autonomii, który może wykazywać zdolność adaptacji po wdrożeniu i który, dla wyraźnych lub dorozumianych celów lub ukrytych celów, wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na fizyczne lub wirtualne środowiska.”

Jest to różnica w porównaniu do ostatniego tekstu AI Act z 2023 r., który system sztucznej inteligencji definiował jako “oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.”

Tym samym UE zbliżyła się w swojej definicji systemu sztucznej inteligencji do standardu OECD.

A czym jest ten standard? W listopadzie 2023 r. OECD (Organizacja Współpracy Gospodarczej i Rozwoju) zaktualizowała definicję AI zawartą w Zasadach AI OECD. Jest to pierwszy międzyrządowy standard dotyczący AI (został przyjęty w 2019 r.). Liczne władze na całym świecie zobowiązały się do stosowania tej definicji bezpośrednio lub z niewielkimi modyfikacjami. Do tej grupy należy również Unia Europejska.

Źródło: https://oralytics.com/2022/03/14/oced-framework-for-classifying-of-ai-systems/

Definicja Systemu AI OECD:

An AI system is a machine-based system that , for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.”

(PL: “System sztucznej inteligencji to system oparty na maszynach, który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. Różne systemy sztucznej inteligencji różnią się poziomem autonomii i zdolności adaptacyjnych po wdrożeniu”).

Aktualny model systemu sztucznej inteligencji OECD

Oprócz wspomnianej definicji, w zaleceniach OECD wyznaczono pięć dodatkowych zasad opartych na wartościach dotyczących odpowiedzialnego zarządzania godną zaufania sztuczną inteligencją.

Zawierają one:

wzrost gospodarczy sprzyjający włączeniu społecznemu, zrównoważony rozwój i dobrobyt;
wartości i sprawiedliwość skoncentrowane na człowieku;
przejrzystość i “wyjaśnialność”;
solidność, bezpieczeństwo i ochrona;
odpowiedzialność.
W kontekście powyższych informacji kraje, które zobowiązały się przestrzegać zasad OECD dotyczących sztucznej inteligencji powinny odzwierciedlać wymienione aspekty (przynajmniej w teorii). W tym kontekście UE jest na dobrej drodze.

W jaki sposób sztuczna inteligencja jest interpretowana na poziomie globalnym?

Stany Zjednoczone

Oczywiście jedną z najbardziej aktywnych jurysdykcji, jeśli chodzi o sztuczną inteligencję, są Stany Zjednoczone.Zgodnie z informacjami zamieszczonymi na stronie Krajowej Konferencji Ustawodawców Stanowych w 2023 r. co najmniej 25 stanów, Portoryko i Dystrykt Kolumbii wprowadziły akty prawne dotyczące sztucznej inteligencji, z kolei 15 stanów i Portoryko podjęło rezolucje w tym obszarze. Poszczególne stany podjęły ponad 120 inicjatyw w związku z ogólnymi zagadnieniami związanymi z AI (przepisy dotyczące konkretnych technologii sztucznej inteligencji, takich jak rozpoznawanie twarzy czy samochody autonomiczne, są monitorowane osobno).

Podejście w Stanach Zjednoczonych jest więc różne. Jako ciekawostkę można podać, że w maju 2023 r. w Kalifornii został przedstawiony projekt aktu wzywającego rząd USA do nałożenia natychmiastowego moratorium na szkolenie systemów sztucznej inteligencji potężniejszych niż GPT-4 przez co najmniej sześć miesięcy, aby dać czas na opracowanie systemu zarządzania sztuczną inteligencją – jego status jest obecnie „oczekujący”, jednak nie wydaje się prawdopodobne, aby został przyjęty.

Jeśli chodzi o definicję sztucznej inteligencji, w Stanach Zjednoczonych nie ma jednolitej definicji prawnej. Jednak jeden z kluczowych aktów prawnych związanych z AI – National AI Initiative Act z 2020 r. – ustanowił National Artificial Intelligence Initiative Office i zdefiniował sztuczną inteligencję jako „system oparty na maszynach, który może, dla danego zestawu celów zdefiniowanych przez człowieka, dokonywać prognoz, zaleceń lub decyzji wpływających na rzeczywiste lub wirtualne środowiska”. Wyjaśnia dalej, że „systemy sztucznej inteligencji wykorzystują dane wejściowe oparte na maszynach i ludziach, aby – (A) postrzegać rzeczywiste i wirtualne środowiska; (B) abstrahować takie postrzeganie w modele poprzez analizę w sposób zautomatyzowany; oraz (C) wykorzystywać wnioskowanie modelu do formułowania opcji informacji lub działania”. Dokument ten koncentruje się jednak głównie na organizacji Biura Inicjatywy AI w celu wspierania rozwoju tej technologii w Stanach Zjednoczonych, a nie na regulowaniu samej sztucznej inteligencji.

Stany Zjednoczone zobowiązały się do przestrzegania zasad OECD dotyczących sztucznej inteligencji. Niemniej jednak istnieją również inne wskazówki dotyczące tego, czego należy się spodziewać po federalnych przepisach dotyczących sztucznej inteligencji. „The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” to miejsce, od którego warto zacząć. Został on opublikowany przez Biuro Polityki Naukowej i Technologicznej Białego Domu w październiku 2022 r. i zawiera listę 5 zasad, które mają „pomóc w zapewnieniu wskazówek w każdym przypadku, gdy zautomatyzowane systemy mogą znacząco wpływać na prawa, możliwości lub dostęp do krytycznych potrzeb społeczeństwa”. Zasady te obejmują:

1. Bezpieczne i skuteczne systemy

2. Ochrona przed dyskryminacją algorytmiczną

3. Prywatność danych

4. Powiadomienie i wyjaśnienie

5. Ludzkie alternatywy, rozważania i rozwiązania awaryjne

Definicja systemów sztucznej inteligencji objętych przez Blueprint obejmuje dwa elementy: (i) ma potencjał, aby znacząco wpłynąć na prawa, możliwości lub dostęp osób lub społeczności oraz (ii) jest „zautomatyzowanym systemem”. Zautomatyzowany system jest dalej definiowany jako „dowolny system, oprogramowanie lub proces, który wykorzystuje obliczenia jako całość lub część systemu do określania wyników, podejmowania lub wspomagania decyzji, informowania o wdrażaniu polityki, gromadzenia danych lub obserwacji lub w inny sposób interakcji z osobami i / lub społecznościami. Zautomatyzowane systemy obejmują między innymi systemy wywodzące się z uczenia maszynowego, statystyki lub innych technik przetwarzania danych lub sztucznej inteligencji i wykluczają pasywną infrastrukturę obliczeniową”. Gwoli wyjaśnienia, „pasywna infrastruktura obliczeniowa to dowolna technologia pośrednicząca, która nie wpływa ani nie określa wyniku decyzji, nie podejmuje ani nie pomaga w podejmowaniu decyzji, nie informuje o wdrażaniu polityki ani nie gromadzi danych lub obserwacji”, w tym np. hosting internetowy.

Jeśli chodzi o inne kluczowe jurysdykcje, żadna z poniższych nie ma żadnej powszechnie uznanej definicji prawnej, ale:

Chiny

Chiny określiły standardy na poziomie krajowym oraz lokalne adaptacje, które opierają się na niektórych definicjach związanych z funkcjonalnością systemów sztucznej inteligencji;

Hongkong

Stworzył wytyczne etycznego rozwoju i wykorzystania sztucznej inteligencji, które określają sztuczną inteligencję jako „rodzinę technologii, które obejmują wykorzystanie programów komputerowych i maszyn w celu naśladowania problemu- zdolności człowieka do rozwiązywania problemów i podejmowania decyzji”.

Japonia

Japonia określiła „Strategię AI 2022”. Została ona wydana przez Cabinet Office’s Integrated Innovation Strategy Promotion Council. Sugeruje ona, że „AI” odnosi się do systemu zdolnego do wykonywania funkcji uznawanych za inteligentne.

Singapur

Singapur z kolei podjął próby definiowania “sztucznej inteligencji” jako zestaw technologii, które mają na celu symulowanie cech ludzkich, takich jak wiedza, rozumowanie, rozwiązywanie problemów, percepcja, uczenie się i planowanie oraz, w zależności od modelu sztucznej inteligencji, dają wynik lub decyzję (taką jak prognoza, zalecenie i/lub klasyfikacja). Definicja ta została zamieszczona w Modelowych Ramach Zarządzania Sztuczną Inteligencją wydanych przez Infocomm Media Development Authority i Personal Data Protection Commission.

***

Na całym świecie trwają próby stworzenia prawnej definicji sztucznej inteligencji. Aktualnie jedną z najnowszych propozycji jest ta zaproponowana przez OECD. Uchwalenie AI Act w ostatecznej wersji z pewnością przyspieszy proces unifikacji podejścia do definicji AI na całym świecie. Otwarte pozostaje pytanie, czy niektóre kraje nie będą jednak chciały “wyróżnić” się mocno liberalnym podejściem do AI, aby to właśnie do siebie ściągać twórców tej technologii (bez szczególnego dbania o aspekty prawne i etyczne).

Autorzy: Mateusz Borkiewicz, Agata Jałowiecka, Grzegorz Leśniewski

Nowa Konstytucja Internetu już obowiązuje

17 lutego 2024 r. to istotna data w punktu widzenia tak użytkowników Internetu, jak i wielu przedsiębiorców, dla których jest on głównych kanałem prowadzenia działalności. Tego dnia nastąpiło rozpoczęcie stosowania przepisów uchwalonego 19 października 2022 r. unijnego rozporządzenia – Akt o Usługach Cyfrowych, nazywanego nową Konstytucją Internetu wobec wszystkich podmiotów objętych jego przepisami (wcześniej, czyli do 25 sierpnia 2023 r. zwymogi z AUC musiały wdrożyć w swoich organizacjach bardzo duże platformy online i wyszukiwarki internetowe).

Dlaczego powstało AUC?

Kiedy w 2000 roku Unia Europejska podjęła pierwszą próbę uregulowania Internetu, globalna i polska przestrzeń cyfrowa wyglądały zdecydowanie inaczej niż dzisiaj. E-commerce raczkował, czasy panowania gigantów mediów społecznościowych, takich jak Facebook czy Tik Tok miały dopiero nadejść. Trudno było w pełni wyobrazić sobie na tamtym etapie, jak ogromne możliwości w zakresie wpływania na niemal każdy aspekt codzienności przyniesie rozwój Internetu. W tych realiach wprowadzone przez Unię Europejską przepisy – czyli dyrektywa o handlu elektronicznych – miały ograniczony zakres. Dobrze obrazuje to fakt, że dyrektywa miała niewiele ponad 20 artykułów. Do polskiego porządku prawnego przepisy dyrektywy wprowadzone zostały w roku 2002 dobrze znaną wszystkim, którzy zajmują się tematami związanymi z e-commerce, ustawą o świadczeniu usług drogą elektroniczną.

Po dwudziestu latach intensywnego rozwoju i zmian unijni decydenci uznali, że Internet bardzo potrzebuje nowych regulacji, które w sposób kompleksowy obejmą ten istotny obszar cyfrowej przestrzeni, jakim są usługi pośrednie, z jednej strony zapewniając, że prawa użytkowników są chronione na odpowiednim poziomie, z drugiej zaś – dając państwom członkowskim narzędzia do walki z istotnymi zagrożeniami, takimi jak np. dezinformacja. Właśnie potrzeba dostosowania przepisów do nowej – równie ekscytującej, co pełnej wyzwań – rzeczywistości cyfrowej była jednym z celów uchwalenia 19 października 2022 r. Aktu o Usługach Cyfrowych, nazywanego nową Konstytucją Internetu.

Trzy zasadnicze cele AUC

Analiza Motywów do AUC pozwala na wyróżnienie trzech zasadniczych celów, jakie przyświecały autorom projektu rozporządzenia:

Aktualizacja obejmuje kwestie, które zostały w zasadzie opisane na wstępie – czyli dostosowanie uchwalonych ponad 20 lat temu przepisów do nowych technologii, modeli biznesowych, ale też wyzwań i zagrożeń, jakie wiążą się z istotną rolą Internetu i jego wpływem na świat.

Ujednolicenie przepisów – czyli drugi istotny cel AUC – ma zapewnić, że poprzez ścisłą harmonizację (głównie przez wykorzystane przez UE narzędzie, jakim jest bezpośrednio stosowane w państwach członkowskich rozporządzenie, a nie dyrektywa) usunięte zostaną przeszkody dla przedsiębiorców, które były dotychczas wynikiem różnic w przepisach obowiązujących w poszczególnych krajach członkowskich.

I w końcu cyberbezpieczeństwo: celem UE jest stworzenie bezpiecznej, przewidywalnej i transparentnej przestrzeni cyfrowej, w której z jednej strony chronione będą prawa podstawowe określone w Karcie Praw Podstawowych, z drugiej zaś – która wolna będzie o nielegalnych treści oraz dezinformacji.

🤔 Kogo to dotyczy?

AUC określa obowiązki i zasady odpowiedzialności dla dostawców usług pośrednich, takich jak platformy internetowe i wyszukiwarki. Mogłoby się wydawać, że akt ten jest adresowany do raczej wąskiego grona odbiorców, ale w praktyce, z uwagi np. na bardzo szeroką definicję hostingodawcy, wielu przedsiębiorców prowadzących „tradycyjny” sklep internetowy, również może być zobowiązanych do wprowadzenia rozwiązań wynikających z AUC.

***

Nie ulega wątpliwości, że Unia Europejska podjęła się ambitnego zadania, wdrażając rewolucję, która dla usług pośrednich ma być tym, czy dla danych osobowych było RODO. Równocześnie, analiza AUC prowadzi do wniosku, że autorzy rozporządzenia chcieli uniknąć najistotniejszych błędów RODO (wśród których wskazuje się m.in. nałożenie w RODO zasadniczo analogicznych obowiązków na wszystkich przedsiębiorców, niezależnie od rozmiaru i zakresu prowadzonej przez nich działalności). Czy ta misja zakończy się sukcesem – dowiemy się z czasem.

💬 Chcesz dowiedzieć się więcej o celach Aktu o Usługach Cyfrowych oraz o wpływie nowych przepisów na Twoją działalność? Po więcej zapraszamy do publikacji doradców naszej kancelarii: Link do publikacji

Wdrożenie aktu o usługach cyfrowych w e-commerce

Akt o usługach cyfrowych jest często nazywany nową „Konstytucją Internetu”. Więcej o tym, co zmienia, pisaliśmy między innymi TUTAJ. Jako rozporządzenie UE, AUC stosuje się bezpośrednio we wszystkich państwach członkowskich.
Świat e-commerce to nie teoria, ale praktyka – pełna wyzwań dla nowoczesnego biznesu. Dlatego nasi doradcy, wraz z wieloletnim zastępcą Prezesa Urzędu Ochrony Danych Osobowych (a wcześniej zastępcą GIODO) Mirosławem Sankiem oraz z wydawnictwem  C.H.Beck nie tylko szczegółowo omówili nowe regulacje, ale także przedstawili liczne przykłady (m. in. dotyczące wdrożeń AUC, ich mechanizmów funkcjonowania w e-commerce oraz naruszeń wskazanych regulacji), opracowali tabele (m. in. porównujące stare regulacje z nowymi regulacjami) oraz schematy funkcjonowania poszczególnych mechanizmów AUC, w tym również w porównaniu do RODO, aby ułatwić zrozumienie tych zagadnień.
Publikację kierujemy nie tylko do praktyków prawa, ale przede wszystkim do przedsiębiorców działających online, pracowników e-commerce oraz wszystkich, którzy chcą poszerzyć swoją wiedzę na temat działalności w Internecie.
Dziękujemy za zaangażowanie i wsparcie Wydawnictwu Wydawnictwo C.H.Beck, wszystkim autorom: adw. Mateusz Borkiewicz, r.pr. Jacek Cieśliński, r.pr. Marta Czeladzka, Marek Czwojdziński, r.pr. Paulina Jeziorska, r.pr. Ewa Knapińska, adw. Wojciech Kostka, adw. Grzegorz Lesniewski, Mirosław Sanek, r.pr. Monika Skaba-Szklarska, r.pr. Marta Żukowska oraz przede wszystkim r.pr. dr Wojciech Lamik, którego determinacja i nadzór merytoryczny pozwoliły doprowadzić tę publikację do mety💪🏻

CREDITS W GRACH WIDEO

Kontynuując serię wpisów dotyczących prawnych aspektów działania branży Game Dev, odrębną przestrzeń należy poświęcić kwestii napisów końcowych w grach wideo, czyli kwestii tzw. Creditsów. Problem w tym zakresie dotyczy przede wszystkim tego, kogo, w jakim zakresie i jaki sposób należy w takich Credistach oznaczać. Z uwagi na fakt, że w proces tworzenia gry wideo zaangażowanych jest wiele osób, instytucji czy w ogóle różnego rodzaju podmiotów, należy kierować się określonymi m.in. przez prawo autorskie zasadami – o czym szerzej w dalszej części wpisu.

CZEMU SŁUŻĄ CREDITS I CO MIEĆ NA UWADZE?

 

Napisy końcowe we wszelkiego rodzaju utworach (nie tylko w grach wideo, ale również np. w filmach) stanowią najczęstszą oraz najbardziej optymalną formę realizacji obowiązku oznaczania autorstwa gry jako utworu w rozumieniu prawa autorskiego. Jednocześnie,Creditsy mogą być (i najczęściej są) wykorzystywane również w celu podziękowania za wkład inny niż twórczy w stworzenie gry. Takie podziękowanie co do zasady nie jest uregulowane prawnie, chyba, że co innego wynika z umowy między producentem gry wideo zawartej z daną osobą czy podmiotem.

Co przy tym istotne, publikując Creditsy, należy mieć na uwadze przede wszystkim regulacje dotyczące osobistych praw autorskich, RODO, ochrony dóbr osobistych, nierównego traktowania w zatrudnieniu oraz zobowiązań umownych względem podwykonawców.

CREDITS A RODO

Szczególną uwagę w kontekście Creditsów należy poświęcić zdecydowanie RODO. W tym zakresie, należy przede wszystkim wskazać na podstawę prawną opublikowania danych określonych twórców. Co ciekawe, podstawa przetwarzania będzie inna w przypadku twórców i inna w przypadku nie-twórców:

  • względem twórców: realizacja umowy lub ustawa (uprawnienie / obowiązek oznaczenia autorstwa), tj. odpowiednio art. 6 ust. 1 lit. b albo c RODO;
  • względem nie-twórców: prawnie uzasadniony interes, tj. art. 6 ust. 1 lit. f RODO (możliwość szerokiej argumentacji w tym zakresie, w tym w szczególności: dbanie o wizerunek producenta gry wideo i relacje z pracownikami/współpracownikami, dążenie do zgodności z praktykami rynku i właściwymi standardami), z uwzględnieniem pozytywnego aspektu Credits dla interesów pracownika / współpracownika oraz uzasadnionych oczekiwań z jego strony – powyższe przemawia za pozytywnym wynikiem tzw. testu równowagi, który umożliwia powołanie się na ww. podstawę przetwarzania.

Oczywiście, ponad ww. podstawę przetwarzania w tym zakresie można wskazać również na odebranie zgody na takie przetwarzanie, zwłaszcza względem nie-twórców, które może być pozytywnie ocenione w kontekście transparentności takiego przetwarzania oraz przekazana osobom, których dane dotyczą, faktycznej decyzyjności co do takiego sposobu przetwarzania.

Co jednak istotne, bazowanie na zgodzie jako podstawie przetwarzania może praktyce okazać się bardzo problematyczne, w szczególności przy dużej skali produkcji gry (gdy w produkcję gry zaangażowane jest wiele osób). Chodzi tu oczywiście o potencjalny problem w uzyskaniu takiej zgody od każdej z osób, której dane mają być w Creditsach opublikowane (brak możliwości zagwarantowania odpowiedzi od wszystkich osób, brak możliwości „wymuszenia” zgody oraz możliwość wycofania zgody w każdym czasie – co może prowadzić do konieczności częstej aktualizacji Credits). W przypadku oparcia przetwarzania danych o uzasadniony interes, podmiot danych ma co prawda możliwość wniesienia sprzeciwu, natomiast administrator posiada instrumenty prawne pozwalające na jego nieuwzględnienie (podejście per case).

Wydaje się więc, że zdecydowanie lepszym i bardziej praktycznym podejściem w tym przypadku jest opieranie publikacji danych osobowych w Credits na podstawie uzasadnionego interesu. Co istotne, jeśli producent zdecyduje się na przyjęcie jako podstawy przetwarzania zgody uzyskanej od podmiotu danych, a odebranie takiej zgody okaże się od części osób niemożliwe finalna publikacja gry może stanowić incydent w rozumieniu RODO.

 

POZOSTAŁE KWESTIE PRAWNE

Jeśli chodzi o osobiste prawa autorskie przysługujące twórcom, obejmują one m.in. prawo do decydowania o oznaczeniu autorstwa. W tym kontekście szczególną uwagę należy zwrócić na zapisy wynikające z umowy między producentem a samym twórcą. Zazwyczaj to w umowach wskazane jest, czy prawo do decydowania o oznaczeniu autorstwa przysługuje producentowi czy też samemu twórcy. Od tego też zależeć będzie konieczność uzyskania zgody na oznaczenie autorstwa lub brak konieczności uzyskania takiej zgody.

Ważnym aspektem w zakresie Credits jest również kwestia ochrony dóbr osobistych osób, których dane są lub nie są uwzględniane w napisach końcowych. Jeśli takie uwzględnienie lub nieuwzględnienie będzie bezprawne lub będzie powodowało wrażenie błędnego przypisania autorstwa innej osobie, może wówczas dojść do naruszenia dóbr osobistych twórcy lub nie-twórcy.

Warto wspomnieć również o perspektywie nierównego traktowania w zatrudnieniu. Co istotne, każda samodzielna decyzja producenta gry wideo o niepublikowaniu danych konkretnego pracownika (stosunek pracy) powinna mieć obiektywne uzasadnienie. W innym przypadku niewykluczony jest zarzut nierównego traktowania w zatrudnieniu. Wspomnieć należy, że ryzyko takiego zarzutu pojawić może się również ze strony byłych pracowników, jednak jest ono mniejsze (w zależności od tego, kiedy wygasł stosunek pracy).

Dobrą praktyką w zakresie Credits, która pozwala uniknąć różnego rodzaju niejasności, jest z pewnością wprowadzenie wewnętrznej Credits Policy określającej m.in. podejście producenta gry do Credits, z opisem uzasadnienia dla zebrania w części przypadków zgód. Taka polityka może również określać okresy zatrudnienia / współpracy lub inne zasady, które uzasadniają umieszczenie bądź nieumieszczenie określonych osób w ramach Credits oraz ewentualne zasady postępowania na wypadek otrzymania sprzeciwów co do publikacji.

PODSUMOWANIE

Kwestia dotycząca Credits jest kolejnym zagadnieniem dotyczącym gier wideo, na które należy patrzeć z wielu perspektyw. Publikując dane poszczególnych twórców lub nie-twórców, producenci muszą zwrócić uwagę na wiele aspektów prawnych żeby nie dopuścić się naruszeń a tym samym nie narazić się na odpowiedzialność prawną lub wizerunkową. Problematyka Credits jako kolejna pokazuje jak złożonym procesem jest tworzenie gry wideo.

Akt o usługach cyfrowych: zgłaszanie nielegalnych treści, czyli notice-and-action

Nowa „konstytucja” dla Internetu jest tuż za progiem – już 17 lutego 2024 roku wejdą w życie przepisy rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/2065 z dnia 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (akt o usługach cyfrowych – AUC; Eng.: Digital Services Act – DSA).

Chociaż w Polsce nadal trwają prace nad przepisami wykonawczymi, rozporządzenie ma bezpośrednie zastosowanie. Oznacza to, że mimo lokalnych opóźnień, w całej Unii Europejskiej za chwilę zaczną obowiązywać nowe zasady opisane AUC.

Rewolucyjnych zmian jest bardzo dużo, w tym wymagających zmian interfejsów wielu stron internetowych, portali oraz usług, a także stosowanych procesów firm działających w internecie, jak również ich regulaminów. Dotkną one tzw. dostawców usług pośrednich (najszersza kategoria), dostawców usług hostingu, dostawców platform internetowych oraz dostawców bardzo dużych platform internetowych (podkategorie). Będziemy regularnie opisywać najważniejsze zagadnienia.

Zgłaszanie nielegalnych treści

Dzisiaj sygnalizujemy kwestię nowego podejścia do zgłaszania nielegalnych treści w Internecie. Jest to tzw. procedura notice-and-action, która w pewnym sensie zastąpi znaną i dotychczas stosowaną procedurę notice&take-down (w Polsce wdrożoną już lata temu ustawą o świadczeniu usług drogą elektroniczną).

Obowiązki w tym zakresie zostały nałożone na wszystkich dostawców usługi hostingu. Jest to podkategoria dostawców usług pośrednich, polegająca na przechowywaniu informacji przekazanych przez odbiorcę usługi (tj. osobę fizyczną lub prawną, która korzysta z usługi pośredniej, w szczególności w celu poszukiwania informacji lub udostępnienia jej) oraz na jego żądanie. Przekładając to na bardziej zrozumiałe przykłady, zakres definicji jest bardzo szeroki – obejmuje nie tylko np. firmy udostępniające serwery dla stron internetowych, ale też właścicieli platform internetowych, które pozwalają na umieszczanie na nich przez użytkowników jakiś treści – np. portale społecznościowe, portale z ogłoszeniami, serwisy z muzyką czy filmami, strony do transferowania plików, marketplaces, fora internetowe i wiele innych.

Zgłoszenie może skierować do dostawcy każdy. Nowością jest tutaj przyznawanie specjalnych statusów niektórym podmiotom, tj. zaufanym podmiotom zgłaszającym, których zgłoszenia niektórzy dostawcy będą musieli rozpatrywać priorytetowo.

Największe wyzwania wywołuje sama kwestia konieczności wdrożenia przyjmowania zgłoszeń w całości elektronicznie, ułatwiania zgłaszającym podawania informacji uzasadniających zasadność zgłoszenia (dostosowanie formularzy), czy sformułowanie procedur odwoławczych. Nie wszystkie podmioty mają takie same obowiązki – pewne zwolnienia występują np. dla mikro i małych przedsiębiorstw, chyba że są bardzo dużymi platformami internetowymi. Co więcej, pojawią się twarde obowiązki zgłaszania niektórych przestępstw, o których dowiedzą się dostawcy usług, obowiązki raportowania podejmowanych decyzji i wiele więcej.

Ciekawym zagadnieniem będzie też ew. stosowanie chociaż elementów procedury przewidzianej w AUC dla zgłoszeń otrzymywanych innymi niż dedykowane kanały elektroniczne (np. pocztą tradycyjną) – część nowych obowiązków może w praktyce przeniknąć „do realu”.

Poniżej przedstawiamy przykładowy schemat procesu, zgodnie z AUC, trzymając kciuki aby był dla zainteresowanych pomocnym drogowskazem!

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj