Obowiązki platform internetowych na gruncie aktu o usługach cyfrowych – wybrane zagadnienia

W tym artykule skupię się na omówieniu obowiązków, jakie spoczywają na dostawcach platform internetowych na podstawie aktu o usługach cyfrowych (AUC).  

Pod platformy internetowe kwalifikuje się wiele usług. Mogą nimi być media społecznościowe (np. usługi Meta, jak Facebook czy Instagram), usługa typu market place (np. Allegro, Amazon), czy też miejsca umożliwiające publikowanie filmów (np. Youtube). W ciągu ostatnich lat świadczenie usług w formie platform internetowych stało się jednym z przodujących sektorów gospodarki cyfrowej. Dlatego też prawodawca unijny postanowił poświęcić bardzo dużo uwagi tym podmiotom podczas tworzenia AUC i nałożył na nie szereg obowiązków. 

Kim jest dostawca platformy internetowej? 

Na samym początku należy wskazać, kim jest dostawca platformy internetowej.  

Platformą internetową w myśl AUC jest usługa hostingu (więcej informacji na ten temat znajdziecie na naszym blogu w artykule [__]), która na żądanie odbiorcy usługi przechowuje i rozpowszechnia publicznie informacje. 

AUC przewiduje jednak wyjątki od tego, czy konkretna usługa kwalifikuje się jako platforma internetowa. Z takim wyłączeniem mamy do czynienia, gdy działanie jest nieznaczną lub wyłącznie poboczną cechą innej usługi lub nieznaczną funkcją głównej usługi, i ze względów obiektywnych i technicznych nie można z niej skorzystać bez takiej innej usługi, a włączenie takiej cechy lub funkcji w taką inną usługę nie jest sposobem na obejście stosowania AUC.  

Samo ustalenie, że konkretny dostawca spełnia przesłanki bycia platformą internetową, wcale nie oznacza, że konieczne będzie stosowanie w tym zakresie AUC. Jeżeli dostawca jest mikro lub małym przedsiębiorstwem w myśl zaleceń Komisji Europejskiej 2003/361/WE, wówczas – poza jednym wyjątkiem sprawozdawczym – nie będzie zobowiązany do wdrożenia rozwiązań przewidzianych dla dostawców platformy internetowej. Są to następujące przedziały: 

mikro przedsiębiorstwo – zatrudnia mniej niż 10 pracowników, a jego obrót lub roczna suma bilansowa nie przekracza 2 mln EUR; 

małe przedsiębiorstwo – zatrudnia mniej niż 50 pracowników, oraz których obrót lub roczna suma bilansowa nie przekracza 10 mln EUR. 

Ale i tutaj mamy wyjątek od wyjątku 😊 Nawet jeżeli dostawca platformy internetowej jest mikro lub małym przedsiębiorstwem, będzie musiał przestrzegać tych obowiązków, jeżeli jednocześnie będzie posiadał status dostawcy bardzo dużej platformy internetowej. Wynika to z tego, że przy takiej kwalifikacji nie ma znaczenia rozmiar dostawcy, a przede wszystkim jego zasięgi (o czym więcej poniżej).  

Poniżej ogólne zestawienie obowiązków przewidzianych wyłącznie dla dostawców platform internetowych z AUC (Rozdział III Sekcja 3 AUC): 

Ale uwaga! Musimy jeszcze pamiętać o poniższych zasadach: 

  1. Dostawca platformy internetowej musi spełniać również obowiązki, jakie są przewidziane dla każdego dostawcy usług pośrednich (Rozdział III Sekcja 1 AUC) oraz dostawcy usług hostingu (Rozdział III Sekcja 2 AUC). Wynika to z tego, że dostawca platformy internetowej z założenia jest również dostawcą hostingu, czyli jednego z rodzajów usług pośrednich. 
  1. Kolejne obowiązki dla dostawcy platformy internetowej pojawią się, jeżeli jego platforma umożliwia konsumentom zawieranie z przedsiębiorcami umów zawieranych na odległość (tzw. platformy B2C) (Rozdział III Sekcja 4 AUC). 
  1. Jeszcze więcej obowiązków wystąpi, kiedy dostawca będzie posiadał status dostawcy bardzo dużej platformy internetowej, czyli posiadał średnią liczbę miesięcznie aktywnych odbiorców usługi w Unii wynoszącą co najmniej 45 mln i został wskazany przez Komisję Europejską jako bardzo duża platforma internetowa. 
  1. Last but not least, niezależnie od obowiązków nałożonych przez AUC, dostawca platformy internetowej musi spełniać obowiązki, jakie są na niego nałożone w innych aktach prawnych (jak np. rozporządzenia 2021/784 w sprawie przeciwdziałania rozpowszechnianiu w internecie treści o charakterze terrorystycznym, czy też RODO). 

Poniżej skrótowo obowiązki dostawców platform internetowych, jakie wymieniłem powyżej. 

Wewnętrzny system rozpatrywania skarg 

Jest to rozwinięcie nałożonych na każdego dostawcę usługi obowiązków związanych z moderacją treści w swoich zasobach. Dostawca platformy internetowej musi umożliwić odbiorcom usługi, w tym osobom, które dokonują zgłoszenia, przez okres co najmniej sześciu miesięcy od podjęcia decyzji związanej z moderacją dostęp do skutecznego wewnętrznego systemu rozpatrywania skarg.  

Dla przykładu, załóżmy że użytkownik A zauważył, że na platformie internetowej XYZ użytkownik B zamieścił komentarz, który narusza dobra osobiste użytkownika A. Użytkownik A zgłosił do dostawcy platformy internetowej XYZ o występowaniu tych nielegalnych treści. Po pewnym czasie dostawca platformy wydał decyzję, w której przychylił się do stanowiska użytkownika A i usunął z platformy XYZ treści komentarz użytkownika B, który został o tym fakcie poinformowany. Użytkownik B nie zgadza się z taką decyzją, dlatego składa na nią skargę, która będzie rozpatrywana przez właśnie wewnętrzny system rozpatrywania skarg tego dostawcy. 

Oczywiście jest to jeden ze scenariuszy, kiedy wewnętrzny system rozpatrywania skarg znajduje zastosowanie.  

Więcej informacji o tej procedurze znajdziecie w tym artykule. 

Pozasądowy mechanizm rozstrzygania sporów 

Kolejnym obowiązkiem, jaki spoczywa na dostawcach platform internetowych, jest zapewnienie użytkownikom i osobom uprawnionym (tj. osobom dokonującym zgłoszenia, które nie są użytkownikami) możliwości skorzystania z pozasądowego mechanizmu rozstrzygania sporów. 

Należy pamiętać, że nie jest to kolejny etap rozpatrywania sprawy przez dostawcę platformy internetowej. Sprawa jest rozstrzygana przez zewnętrzny podmiot. Dostawca platformy internetowej musi wskazać zainteresowanemu, że prawo skorzystania z tego środka.  

Zainteresowany może skierować wniosek o rozwiązanie sporu do pozasądowego (np. certyfikowanego) organu. Co do zasady dostawca platformy internetowej nie może odmówić przystąpienia do takiej sprawy. 

Priorytetowe traktowanie zgłoszeń  

Na dostawcy platformy internetowej spoczywa obowiązek wdrożenia w swojej organizacji niezbędnych środków technicznych i organizacyjnych w celu zapewnienia priorytetowego traktowania zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące. Są to podmioty wskazane przez koordynatora ds. usług cyfrowych, które: 

  1. dysponują szczególną wiedzą ekspercką i kompetencjami do celów wykrywania, identyfikowania i zgłaszania nielegalnych treści; 
  1. są niezależne od dostawców platform internetowych; 
  1. podejmują działania mające na celu dokonywanie zgłoszeń w sposób dokładny i obiektywny oraz z zachowaniem należytej staranności. 

Spełnienie takiego obowiązku może się wiązać np. z ustanowieniem osobnego kanału zgłoszeń dla tych podmiotów, niezależnie od zgłoszeń dokonywanych przez inne osoby.  

Mechanizmu reagowania na nadużycia w korzystaniu usług 

AUC nakłada na dostawcy platformy internetowej wdrożenie mechanizmów, z których ten może skorzystać, gdy nadużywa się z udostępnianych przez niego usług. Bardzo często są to osoby uprawiające „trolling”.  

Po pierwsze, dostawca zawiesza na rozsądny okres i po wydaniu uprzedniego ostrzeżenia świadczenie usług na rzecz odbiorców usługi często przekazujących oczywiście nielegalne treści. 

Po drugie, dostawca zawiesza na rozsądny okres i po wydaniu uprzedniego ostrzeżenia rozpatrywanie zgłoszeń dokonanych za pośrednictwem mechanizmów zgłaszania i działania oraz skarg wnoszonych za pośrednictwem wewnętrznych systemów rozpatrywania skarg przez osoby lub podmioty dokonujące często oczywiście bezzasadnych zgłoszeń lub przez skarżących wnoszących często oczywiście bezzasadne skargi. 

Dla przykładu, użytkownik A, mający konto w platformie społecznościowej XYZ, zgłasza jej dostawcy jako potencjalne nielegalne treści każdy wpis użytkownika B, który dotyczy sytuacji politycznej w kraju. Użytkownik A nie zgadza się z poglądami użytkownika B, ponieważ sam opowiada się za inną opcją polityczną. Natomiast już bez potrzeby posiadania wiedzy eksperckiej dostawca platformy XYZ zauważa, że żadna z wypowiedzi użytkownika B nie zawiera treści nielegalnych, a same wypowiedzi są konstruktywną krytyką. W takiej sytuacji dostawca platformy XYZ zwraca się do użytkownika A z ostrzeżeniem, że ten nadużywa swoich uprawnień zgłoszeniowych i wzywa do zaprzestania tych praktyk. Pomimo wezwania, użytkownik A dalej dokonuje zgłoszeń wypowiedzi użytkownika B. W związku z tym dostawca zawiesza na czas 1 miesiąca rozpatrywanie zgłoszeń użytkownika A. 

Dodatkowe obowiązki sprawozdawcze 

Dostawca platformy internetowej posiada więcej obowiązków sprawozdawczych, niż standardowy dostawca usług pośrednich. Poniżej przykładowe obowiązki w tym zakresie. 

Poza informacjami zawartymi w art. 15 AUC (więcej informacji w artykule pod tym linkiem), dostawca platformy internetowej musi podać do publicznej wiadomości (najczęściej na stronie internetowej platformy internetowej) również następujące dane: 

  1. związane z prowadzeniem przez dostawcę platformy internetowej sporów:  
  1. liczbę sporów przekazywanych do organów pozasądowego rozstrzygania sporów; 
  1. wyniki rozstrzygania tych sporów oraz 
  1. medianę czasu potrzebnego na przeprowadzenie postępowania w sprawie rozstrzygania sporów, a także 
  1. udział sporów, w których dostawca platformy internetowej wdrożył decyzje tego organu. 

 

  1. liczbę przypadków zawieszenia świadczenia usług z podziałem na zawieszenia dokonane w związku z: 
  1. przekazywaniem treści oczywiście nielegalnych; 
  1. dokonywaniem oczywiście bezzasadnych zgłoszeń; oraz 
  1. wnoszeniem oczywiście bezzasadnych skarg.  

 

Ponadto co najmniej raz na sześć miesięcy dostawcy, w odniesieniu do każdej platformy internetowej lub wyszukiwarki internetowej, publikują w publicznie dostępnej sekcji swojego interfejsu internetowego informacje na temat średniej liczby aktywnych miesięcznie odbiorców usługi w Unii. 

Jednocześnie dostawcy platform internetowych lub wyszukiwarek internetowych przekazują koordynatorowi ds. usług cyfrowych właściwemu dla miejsca siedziby i Komisji Europejskiej – na ich wniosek i bez zbędnej zwłoki – informacje o średniej liczbie aktywnych miesięcznie odbiorców w Unii.  

Zakaz wykorzystywania dark patterns 

Dostawca platformy internetowej nie może projektować, organizować ani obsługiwać swoich interfejsów internetowych w sposób, który wprowadza w błąd odbiorców usługi lub nimi manipuluje lub w inny istotny sposób zakłóca lub ogranicza zdolność odbiorców ich usługi do podejmowania wolnych i świadomych decyzji. AUC nazywa tego typu praktyki „zwodniczymi interfejsami internetowymi”, jednak w najczęściej biznes posługuje się zwrotem „dark patterns”. Stosowanie dark patterns jest niezwykle często występującym zjawiskiem, m.in. w e-commerce. Przez takie interfejsy użytkownicy często kupują produkty, których w ogóle nie potrzebują, czy też kupują je w ilości większej niż to niezbędne.  

Należy tutaj zauważyć, że pierwszeństwo stosowania przed przepisem AUC w tym zakresie mają regulacje RODO oraz dyrektywy o nieuczciwych praktykach rynkowych (w polskim porządku prawnym implementowanej jako ustawa o przeciwdziałaniu nieuczciwym praktykom rynkowym).  

Transparentność reklam internetowych 

Dostawcy platform internetowych, którzy prezentują reklamy na swoich interfejsach internetowych, zapewniają, aby – w odniesieniu do każdej konkretnej reklamy prezentowanej każdemu indywidualnemu odbiorcy – odbiorcy usługi byli w stanie w sposób jasny, wyraźny, zwięzły i jednoznaczny oraz w czasie rzeczywistym: 

  1. stwierdzić, że informacje są reklamą;  
  1. stwierdzić, w imieniu jakiej osoby fizycznej lub prawnej jest prezentowana reklama;  
  1. stwierdzić, jaka osoba fizyczna lub prawna zapłaciła za reklamę, jeżeli osobą tą nie jest osoba fizyczna lub prawna, o której mowa w lit. b;  
  1. znaleźć istotne informacje, pozyskane bezpośrednio i łatwo z reklamy, na temat głównych parametrów wykorzystanych do określenia odbiorcy, któremu reklama jest prezentowana i, w stosownych przypadkach, sposobu zmiany tych parametrów.  

W dodatku dostawcy zapewniają odbiorcom usługi funkcję umożliwiającą składanie oświadczenia, czy przekazywane przez nich treści są informacjami handlowym lub zawierają informacje handlowe (widzicie czasem na platformach, że konkretny materiał jest „sponsorowany”? 😊). 

Kolejnym istotnym obowiązkiem nałożonym na dostawców platform internetowych jest zakaz prezentowania odbiorcom usługi reklam opartych na profilowaniu w myśl przepisów RODO z wykorzystaniem szczególnych kategorii danych osobowych (np. danych dot. stanu zdrowia lub poglądów politycznych).  

Stosowanie przejrzystego systemu rekomendacji 

Dostawcy platform internetowych, którzy korzystają z systemów rekomendacji, w prostym i przystępnym języku określają w swoich warunkach korzystania z usług główne parametry stosowane w ich systemach rekomendacji, a także wszelkie opcje zmieniania tych parametrów przez odbiorców usługi lub wpływania na nie. 

W głównych parametrach wyjaśnia się, dlaczego niektóre informacje są sugerowane odbiorcy usługi. Obejmują one co najmniej: 

  1. kryteria, które są najistotniejsze przy określaniu informacji sugerowanych odbiorcy usługi; oraz 
  1. udział poszczególnych parametrów („ile ważą”) przy ustalaniu rekomendacji dla użytkownika. 

Innymi słowy, dzięki temu powinniśmy wiedzieć, że często wyświetlają nam się na platformie zdjęcia śmiesznych kotów, ponieważ oglądamy bardzo dużo filmików z nimi w udziale 😊 

Jeżeli dostępnych jest kilka opcji dla systemów rekomendacji, które określają względną kolejność informacji przedstawianych odbiorcom usługi, dostawcy udostępniają również funkcję umożliwiającą odbiorcy usługi wybór i zmianę w dowolnym momencie preferowanej opcji. Ta funkcja musi być bezpośrednio i łatwo dostępna w określonej sekcji interfejsu internetowego platformy internetowej, w której informacje są szeregowane. 

Ochrona małoletnich w internecie 

Ostatnim obszarem obowiązków, jakie spoczywają na dostawcach platform internetowych, związana jest z korzystaniem z ich usług przez osoby małoletnie. Są to następujące obowiązki: 

  1. wprowadzenie odpowiednich i proporcjonalnych środków, aby zapewnić wysoki poziom prywatności, bezpieczeństwa i ochrony małoletnich w ramach świadczonych przez dostawców usług (bardzo pomocne są tutaj rozwiązania wypracowane w RODO); 
  1. zakaz prezentowania przez dostawców na swoim interfejsie reklam opartych na profilowaniu z wykorzystaniem danych osobowych odbiorcy usługi, jeżeli wiedzą z wystarczającą pewnością, że odbiorca usługi jest małoletni. 

Wypełnianie powyższych obowiązków nie zobowiązuje dostawców platform internetowych do przetwarzania dodatkowych danych osobowych w celu oceny, czy odbiorca usługi jest małoletni. 

Internet nie ma granic – czyli kwestie prawne sprzedaży usług i produktów za granicę

Już w 2003 roku pewien polski zespół śpiewał w języku niemieckim, że nie ma żadnych granic. Dużo w tym racji, natomiast na szczęście jesteśmy w roku 2024 i Twoje możliwości w e-commerce idą jeszcze o krok dalej: możesz prowadzić sprzedaż internetową względem więcej niż 3 osób (można powiedzieć: Ich Więcej) i nie tylko w Niemczech! 🌍 

Przechodząc płynnie do kwestii prawnych, na które należy zwrócić uwagę przy sprzedaży usług i produktów za granicę, spójrzmy przede wszystkim na dokumentację niezbędną do prawidłowego i zgodnego z prawem funkcjonowania Twojego e-commerce’u, na którą składają się m.in.: 

  • 📜 regulamin sklepu internetowego 
  • 🔐 polityka prywatności (obowiązki informacyjne RODO oraz cookies) 
  • ✉️ regulamin newslettera (jeśli takowy będzie przewidziany) 
  • 🔄 regulamin zwrotów i reklamacji

📜 Regulamin sklepu internetowego 

Z powyżej wymienionych dokumentów, najistotniejszym i tym, od którego polecamy rozpocząć kompletowanie odpowiedniej dokumentacji, jest właśnie regulamin sklepu internetowego. 

Jest to kwestia dość złożona, natomiast na pewno, celem ułatwienia sobie życia na przyszłość oraz spełnienia wymogów prawnych, warto określić w nim m.in.: 

  • ⚖️prawo właściwe – To od Ciebie zależy, jakie prawo właściwe wybierzesz. Oczywiście, w przypadku polskiego sklepu, najłatwiej i najbezpieczniej będzie wybrać prawo polskie. Dodaj również, że wybór tego prawa nie pozbawia konsumenta ochrony przyznanej na podstawie przepisów kraju, z którego pochodzi klient. 
  • 🛒zakres dostępnych usług elektronicznych – Chodzi o to, co właściwie klient może w Twoim sklepie robić. Zazwyczaj wymienia się m.in. kwestie dotyczące konta użytkownika, newslettera, zawierania umów sprzedaży itp. 
  • 💸warunki zawarcia umowy sprzedaży – Bardzo istotna część regulaminu. Warto tu wskazać godziny zakupu, waluty, sposoby płatności oraz realizacji zamówienia, czy kwestię podatków. 
  • 🚚warunki dostawy – Określ kwestie takie jak: koszty wysyłki, dostępne sposoby dostawy, termin realizacji zamówienia. 
  • 🔄warunki reklamacji – Warto mieć procedurę na wypadek reklamacji. Określ, jakie uprawnienia przysługują klientowi i w jakim terminie. 
  • 🤝warunki pozasądowych sposobów rozpatrywania reklamacji (ADR) – Wskaż możliwości pozasądowych sposobów rozpatrywania reklamacji, nawet jeśli nie jest obowiązkowe. 
  • 📝wzory dokumentów – Warto załączyć wzory formularzy, np. reklamacyjnego oraz odstąpienia od umowy. 

🔐 Polityka prywatności, czyli obowiązki informacyjne RODO oraz cookies 

Spełnienie obowiązków związanych z danymi osobowymi, jakie nakłada RODO, to kolejny ważny temat. Chodzi głównie o obowiązki informacyjne wobec klienta oraz informację dotyczącą plików cookies. 

W polityce prywatności wyjaśnij m.in.: 

  • Kim jesteś i jak przetwarzasz dane osobowe klientów, 
  • Jakie prawa ma klient w tym zakresie, 
  • Jakie dane są gromadzone, w jakim celu, na jakiej podstawie prawnej i jak długo są przetwarzane, 
  • Kto ma do nich dostęp. 

Dodatkowo, określ w osobnym dokumencie, czym są pliki cookies, jakie są ich rodzaje i do jakich celów są używane przez Twój e-commerce. 

✉️ Regulaminy newslettera oraz zwrotów i reklamacji 

Pamiętaj, że te regulaminy również są istotnymi częściami dokumentacji, szczególnie jeśli prowadzisz sprzedaż za granicę. Konieczne będzie udostępnienie ich w wersji angielskiej. 📄 

🚫 Geoblocking 

Blokowanie geograficzne (geoblocking) to ograniczanie dostępu użytkowników do określonej strony w zależności od kraju zamieszkania lub pobytu. Wprowadzono jednak przepisy, które zakazują takiej dyskryminacji w handlu w UE. 

Ciekawym przykładem geoblockingu jest dostęp do platform streamingowych, jak Netflix, gdzie oferta może różnić się w zależności od kraju. 🌍 

📝 Praktyka dotycząca zgód internetowych 

Warto mieć na uwadze, że pomimo ogólnoeuropejskich regulacji, różne kraje mają różne praktyki dotyczące zgód na przetwarzanie danych osobowych czy przesyłanie newsletterów. 

🚀 Podsumowanie 

Staranne przygotowanie dokumentacji e-commerce to pierwszy krok ku sukcesowi. Dobrze przygotowana dokumentacja pozwoli uniknąć sporów z klientami i budować pozytywny wizerunek firmy. 

Jeśli potrzebujesz konsultacji – skontaktuj się z nami 📞 

Rozporządzenie maszynowe – nowe standardy dla produkcji i dystrybucji

Podgląd zdjęcia

Już wkrótce istotne zmiany dla podmiotów zajmujących się produkcją i dystrybucją maszyn!

Prawo nowych technologii nie kończy się na branży IT czy Game Dev. Nowe technologie mocno obecne są również w branżach: automatyki i robotyki, produkcji maszyn, sprzętów elektrycznych i elektronicznych, w tym urządzeń AGD, z których korzystamy na co dzień w naszych domach – i to nie tylko urządzeń smart i IoT.

Produkcja, wymogi bezpieczeństwa czy też zasady wprowadzenia do obrotu i dystrybucji maszyn, narzędzi i innych sprzętów, regulowana jest licznymi aktami prawa UE (głównie dyrektywami).

Podmioty zajmujące się produkcją i dystrybucją maszyn czekają wkrótce istotne zmiany.  Wprowadzi je uchwalone już Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/1230 z dnia 14 czerwca 2023 r. w sprawie maszyn oraz w sprawie uchylenia dyrektywy 2006/42/WE Parlamentu Europejskiego i Rady i dyrektywy Rady 73/361/EWG („Rozporządzenie maszynowe”).

Zastąpi ono obowiązującą obecnie dyrektywę maszynową z 2006 roku 2006/42/WE. Rozporządzenie maszynowe dotyczy nie tylko maszyn przemysłowych oraz do użytku dla konsumentów. Obejmuje również niewielkie pojazdy do użytku osobistego i lekkie pojazdy elektryczne, takie jak skutery i rowery.

 

Rozporządzenie maszynowe wprowadza m. in. takie zmiany jak:

Przekazywanie instrukcji obsługi produktu w formacie cyfrowym. Informacje w wersji papierowej będą musiały nadal zostać udostępniane, lecz jedynie na prośbę klientów.

Doprecyzowanie, kiedy dochodzi do istotnej modyfikacji maszyny, która powoduje konieczność przeprowadzenia ponownej oceny zgodności produktu z wymogami bezpieczeństwa oraz wystawienia nowego oznaczenia CE.

Obowiązek przeprowadzania oceny zgodności przez osobę trzecią w odniesieniu do sześciu kategorii maszyn „wysokiego ryzyka”.

Wprowadzenie ogólnych wymagań dotyczących cyberbezpieczeństwa i sztucznej inteligencji.

Przepisy Rozporządzenia maszynowego zaczną obowiązywać od 14 stycznia 2027 r. Już teraz jednak wiele podmiotów zasadnie przygotowuje się do ich wdrożenia.

W przypadku pytań związanych z aktualnymi regulacjami w temacie produkcji i dystrybucji maszyn lub zmian, które wprowadzi Rozporządzenie maszynowe, zachęcamy do kontaktu z Ewa Knapińska z naszej Kancelarii.

#NoweTechnologie #Robotyka #Produkcja #Dystrybucja #SztucznaInteligencja  #RegulacjePrawne

Relacja RODO do aktu o usługach cyfrowych 

1. AUC i RODO – status związku: „to skomplikowane” 

Ostatnie miesiące upływają wielu przedsiębiorcom działającym w e-commerce na wdrażaniu w swoich organizacjach unijnego rozporządzenia – aktu o usługach cyfrowych (AUC).  

Należy pamiętać, że AUC nie działa w próżni. Poza nim przedsiębiorcy e-commerce muszą pamiętać o innych regulacjach, które muszą stosować, aby być w pełni compliance. Jednym z nich jest właśnie RODO. Można nawet zaryzykować stwierdzenie, że AUC nie będzie poprawnie wdrożone, jeśli wcześniej w organizacji nie zostało wdrożone RODO.  

Rozporządzenie AUC w swojej treści wskazuje, jak wygląda jego relacja z RODO. Generalnie AUC pozostaje bez wpływu na unijne regulacje ochrony danych osobowych (czyli przede wszystkim RODO). W tym miejscu prawnik użyje sformułowania, że RODO jest lex specialis do AUC. Oznacza to, że przepisy RODO mają charakter szczególny względem przepisów AUC. Akt o usługach cyfrowych ma wyłącznie charakter uzupełniający względem regulacji RODO.  

Poniżej znajduje się kilka obszarów, gdzie przy wdrażaniu AUC w organizacji należy pamiętać o RODO. 

2. RODO a dark patterns  

Jednym z przykładów jest zakaz stosowania dark patterns – „zwodniczych interfejsów”. Zgodnie z art. 25 ust. 1 AUC dostawcy platform internetowych nie mogą projektować, organizować ani obsługiwać swoich interfejsów internetowych w sposób, który wprowadza w błąd odbiorców usługi lub nimi manipuluje lub w inny istotny sposób zakłóca lub ogranicza zdolność odbiorców ich usługi do podejmowania wolnych i świadomych decyzji. Co istotne, ta regulacja ma zastosowanie wtedy, gdy nie znajdą zastosowania przepisy RODO oraz dyrektywy o nieuczciwych praktykach rynkowych. Co to oznacza? Nawet jeżeli dostawca platformy internetowej używa dark patterns, najpierw trzeba ustalić, czy nie są one związane z gromadzeniem lub przetwarzaniem danych osobowych, czy też są skierowane do konsumentów. Jeżeli żadna z tych sytuacji nie będzie miała miejsca, wówczas należy skorzystać z regulacji AUC.  

Tym samym przy zwalczaniu dark patterns większe znaczenie niż AUC ma w dalszym ciągu RODO. Istotne w tym kontekście jest zwrócenie uwagi m.in. na wytyczne Europejskiej Rady Ochrony Danych 3/2022 (Guidelines 3/2022 on Deceptive design patterns in social media platform interfaces: How to recognise and avoid them, przyjęte 14.2.2023 r. (wersja 2.0)). 

3. RODO a profilowanie 

Jednym z obszarów, na który AUC zwróciło szczególną uwagę, jest kwestia przedstawiania reklam w oparciu o profilowanie z wykorzystaniem danych osobowych. 

Czym jest profilowanie? Zgodnie z RODO jest to dowolna forma zautomatyzowanego przetwarzania danych osobowych, która polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się. 

Rozporządzenie AUC odnosi się przede wszystkim do profilowania w przypadku dostawców platform internetowych. 

Po pierwsze, dostawcy platform internetowych nie mogą prezentować odbiorcom usługi reklam opartych na profilowaniu z wykorzystaniem szczególnych kategorii danych osobowych. Czym są te „szczególne kategorie danych”, które są również nazywane „danymi wrażliwymi”? RODO wskazuje, że są to dane osobowe ujawniające pochodzenie rasowe lub etniczne, poglądy polityczne, przekonania religijne lub światopoglądowe, przynależność do związków zawodowych oraz dane genetyczne, dane biometryczne w celu jednoznacznego zidentyfikowania osoby fizycznej lub dane dotyczące zdrowia, seksualności lub orientacji seksualnej tej osoby. 

Po drugie, dostawcy platform internetowych nie mogą prezentować na swoim interfejsie reklam opartych na profilowaniu z wykorzystaniem danych osobowych (nie tylko wrażliwych!) odbiorcy usługi, jeżeli wiedzą z wystarczającą pewnością, że odbiorca usługi jest małoletni. 

Po trzecie, dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych, którzy korzystają z systemów rekomendacji (więcej pod tym linkiem), zapewniają co najmniej jedną opcję dla każdego ze swoich systemów rekomendacji, która nie jest oparta na profilowaniu. 

4. RODO a ochrona małoletnich 

Kolejnym obszarem AUC, przy którego wdrożeniu konieczna jest znajomość RODO, jest kwestia ochrony małoletnich (z perspektywy AUC osób poniżej 18. roku życia). Powyżej wspomniałem o zakazie prezentowania małoletnim reklam opartych o profilowaniu z wykorzystaniem danych osobowych. Poniżej kolejny obowiązek. 

Dostawcy platform internetowych dostępnych dla małoletnich wprowadzają odpowiednie i proporcjonalne środki, aby zapewnić wysoki poziom prywatności, bezpieczeństwa i ochrony małoletnich w ramach świadczonych przez siebie usług. Jest do podejście zbliżone do modelu privacy by design oraz privacy by default, jakie zostało wprowadzone w RODO. Innymi słowy, przy wprowadzaniu odpowiednich środków w celu zapewnienia prywatności, bezpieczeństwa i ochrony małoletnich, konieczne jest skorzystanie z dorobku RODO w tym zakresie, zwłaszcza w kontekście art. 25 i 34 tego rozporządzenia. Ważne jest też korzystanie z wytycznych opracowanych zarówno przez EROD (np. 5/2020 dotyczące zgody na mocy rozporządzenia 2016/679), czy też organów nadzorczych poszczególnych państw członkowskich Unii Europejskiej (np. „The Fundamentals for a Child-Oriented Approach to Data Processing”, opracowane przez irlandzki Data Protection Commision). 

5. Podsumowanie 

To tylko kilka przykładów, które pokazują, jak ważnym rozporządzeniem z perspektywy AUC jest RODO. Wdrożenie aktu o usługach cyfrowych w organizacji nie będzie kompletne, jeżeli zawczasu nie doszło do prawidłowego wdrożenia RODO. Oznacza to, że już teraz warto, aby każdy z przedsiębiorców sektora e-commerce sprawdził aktualność swoich rozwiązań w kontekście ochrony danych osobowych.

Poznaj naszą drużynę ekspertów

Doradcy LBKPteam

Ostatnie lata to czas dynamicznego rozwoju nie tylko dla Leśniewski Borkiewicz Kostka & Partners, ale przede wszystkim dla naszych doradców.

Dziękujemy LBKPteam za to, że wspólnie udało nam się stworzyć Zespół oparty o tak wysokie kompetencje i doświadczenie.

Oto nasi niezastąpieni:

Senior Manager:

r. pr. Monika Skaba-Szklarska, r. pr. Paweł Kempa-Dymiński

Manager:

r. pr. Ewa Knapińska, r. pr. Jacek Cieśliński, r. pr. Paulina Jeziorska, r. pr. Anna Żmidzińska, r. pr.Marta Żukowska

Senior Associate:

r. pr. Marta Czeladzka, r. pr. Dr Wojciech Lamik, r. pr. Natalia Wojciechowska-Chałupińska, Adw. Marta Maliszewska

Associate:

Marek Czwojdziński, Albert Krynicki

Junior Associate:

Agata Jałowiecka, Anna Adamiak

Intern:

Maciej Małek, Gracjan Ciupa

Ochrona konsumentów w ramach Aktu o Usługach Cyfrowych

W lutym tego roku weszło w życie gro przepisów Aktu o Usługach Cyfrowych (AUC), europejskiego rozporządzenia zwanego potocznie nową konstytucją Internetu AUC jest próbą usystematyzowania i uporządkowania przepisów regulujących bezpieczeństwo funkcjonowania różnych grup użytkowników w sieci, np. młodocianych czy konsumentów. W starciu z gigantami internetowymi jak Google, Amazon czy Facebook, użytkownicy narażone na szereg nadużyć, typu wykorzystywanie podawanych przez siebie (zazwyczaj dobrowolnie) informacji bez swojej wiedzy, manipulowanie danymi, profilowanie, brak rzetelnych informacji o oferowanych usługach czy produktach. W publikacji przygotowanej przez prawników z kancelarii LBKP „Wdrożenie aktu o usługach cyfrowych”, do której zachęcam do zakupu na stronie wydawnictwa Beck https://www.ksiegarnia.beck.pl/22073-wdrozenie-aktu-o-uslugach-cyfrowych-w-e-commerce-mateusz-borkiewicz, którego miałam przyjemność współtworzyć, znalazły się praktyczne wskazówki dotyczące jego stosowania. Niniejszy artykuł skupia się na kwestiach związanych z ochroną konsumentów w sieci, szerzej omówionych w publikacji w rozdziale VIII mojego autorstwa. 

Unia Europejska od wielu lat zajmuje się problemami konfliktu pomiędzy konsumentami a przedsiębiorcami. Z uwagi na coraz większą aktywność konsumentów w sieci, w szczególności za pośrednictwem internetowych platform cyfrowych, AUC jest odpowiedzią Unii na potrzebę wzmocnienia ochrony konsumentów przed zagrożeniami związanymi z e-handlem.    

AUC w art. 29-32 (Sekcja 4 Rozdziału III) reguluje nowe obowiązki dla dostawców platform internetowych umożliwiających konsumentom – osobom fizycznym zawieranie z przedsiębiorcami umów zawieranych na odległość. Dotyczy to tylko tych platform, które kwalifikują się jako średnie lub duże przedsiębiorstwa, zgodnie z definicją w załączniku do zalecenia Komisji Europejskiej 2003/361/WE, lub wskazanych jako bardzo duże platformy internetowe (zgodnie z art. 33 AUC), np. Allegro, Amazon, Zalando.   

W wielu przypadkach konsumenci nie zdają sobie sprawy, że zawierają umowę z drobnym przedsiębiorcą i nie mają po drugiej stronie internetowego giganta jako wypłacalnego partnera umownego. Platformy przyciągają konsumentów swoją nazwą, infrastrukturą, bogatą ofertą, a jednak umowa zawierana jest w rzeczywistości z nierzadko małym dostawcą działającym za pośrednictwem platformy e-handlu. Co prawda platformy mają wpływ na formę umowy (w szczególności poprzez swoje ogólne warunki), jednak nie ponoszą odpowiedzialności w przypadku wystąpienia problemów, pozostawiając konsumenta bez możliwości dochodzenia swoich roszczeń.  

Pierwszą z nowości jest wprowadzenie dla platform e-handlu zasady „znaj swojego klienta” (art. 30 AUC), poprzez ułatwienie identyfikalności użytkowników platormy – przedsiębiorców. Celem jest stworzenie bezpiecznego środowiska internetowego dla konsumentów, konkurentów i posiadaczy praw własności intelektualne, i ograniczenie liczby fałszywych sklepów na platformach. Platformy powinny dopuścić do korzystania z ich usług tylko tych przedsiębiorców, którzy przekazali informacje i dane wymagane przez art. 30 AUC. Są to:  

Źródło: opracowanie własne. 

 

Część z tych informacji platforma e-handlu musi opublikować co najmniej w interfejsie internetowym, w miejscu gdzie przedstawione są informacje na temat produktu lub usługi. Platformy e-handlu powinny wszelkich starań do oceny, czy otrzymane od przedsiębiorcy informacje są prawdziwe, kompletne i aktualne, szczegóły dotyczące terminów dostarczenia i weryfikacji zawarte są w rozdziale VIII publikacji. Jeśli przedsiębiorca nie dostarczy danych lub wyjaśnień, platforma powinna zawiesić lub odmówić świadczenie usług pośrednictwa e-handlu wraz z uzasadnieniem. Na marginesie należy dodać, że przedsiębiorca, którego konto zostało zablokowane bądź nieutworzone, może bezpłatnie złożyć elektroniczną skargę oraz odwołać się od decyzji, o czym więcej w naszej publikacji.  

AUC wprowadziło wymogi dotyczące projektowania interfejsu (strony internetowej) dla platform e-handlu, aby były czytelniejsze i bezpieczniejsze dla potencjalnych klientów-konsumentów. Przedsiębiorcy oferujący swoje produkty powinni mieć możliwość podania w widocznym miejscu w odniesieniu do oferowanego produktu podanie nazwy, adresu, numeru telefonu i adresu poczty elektronicznej producenta lub właściwego podmiotu odpowiedzialnego za produkt, a także dokładnego opisu produktu wraz z logo, a w przypadkach produktów specjalistycznych, z rynków regulowanych również informacje dotyczące etykietowania i oznakowania zgodnie z obowiązującymi przepisami dotyczącymi bezpieczeństwa produktów i zgodności produktów. W tym przypadku platformy e-handlu nie są zobowiązane do weryfikacji prawdziwości tych informacji, ale powinny podjąć pewne działania kontrolne w stosunku do nich. Oferowane produktu i usługi powinny natomiast podlegać losowym kontrolom okresowo przeprowadzanym przez platformy. Przykładowe zestawienie częstotliwości kontroli oferowanych produktów lub usług przedstawione zostało poniżej w tabeli, przy czym szersze omówienie tych obowiązków zawarte jest w rozdziale VIII publikacji.  

Tabela 5. Zestawienie częstotliwości kontroli oferowanych produktów lub usług  

Źródło: opracowanie własne. 

  

Mimo przełomowych zmian w e-commerce, konsumenci nadal stosunkowo często napotykają przeszkody w egzekwowaniu swoich praw jako ofiary oszustwa, czy w przypadku zakupu nielegalnych towarów. AUC idzie o kolejny krok dalej i zobowiązuje dostawców internetowych platform handlowych do informowania konsumentów, jeśli są świadomi niezgodności z prawem produktu lub usługi oferowanej lub już sprzedanej za pośrednictwem platformy e-handlu (art. 32 ust. 1 AUC). Dotyczy to wszystkich konsumentów, którzy nabyli taki nielegalny produkt lub usługę w ciągu 6 miesięcy od chwili dowiedzenia się dostawcy platformy e-commerce o nielegalnym charakterze takiego produktu lub usługi. Platforma e-handlu nie musi podawać uzasadnienia ani źródła przekazywanej o nielegalności produktu lub usługi, wystarczy że poweźmie wiedzę o takim fakcie, np. na podstawie monitorowania ofert, prawomocnego wyroku, zgłoszenia od użytkowników platformy lub policji. Przepisy AUC nie przewidziały szczególnej formy przekazania informacji nabywcy nielegalnego produktu, z pewnością wiadomość e-mail będzie właściwym środkiem zawiadomienia takich konsumentów. Krąg adresatów tej wiadomości jest ograniczony – dotyczy wyłącznie konsumentów, którzy nabyli nielegalny produkt w ciągu ostatnich 6 miesięcy, a więc bezpośrednio zainteresowanych, których faktycznie dotyczy ta sytuacja. Może się jednak zdarzyć, że dostawca internetowej platformy handlowej nie będzie posiadał danych kontaktowych wszystkich zainteresowanych konsumentów, którzy nabyli nielegalny produkt w ciągu ostatnich 6 miesięcy. Wystarczy, że jeden z konsumentów usunie w tym czasie swoje konto i dane kontaktowe. W takim przypadku platforma powinna podać do wiadomości publicznej w łatwo dostępny sposób informacje na swojej stronie internetowej.  

Szersze omówienie przedstawionych powyżej zagadnień wraz z praktycznymi wskazówkami i przykładami zawarte jest w ww. publikacji w rozdziale VIII. Z pewnością dzięki przewidzianym w Sekcji 4 Rozdziału III obowiązkom dla dostawców internetowych platform handlowych AUC przyczyni się do wzmocnienia pozycji konsumentów na rynku, a także zwiększenia pewności i bezpieczeństwa obrotu w sieci.  

Sztuczna inteligencja – czym jest (z prawnego punktu widzenia) i jak radzi sobie z nią świat

W szybko rozwijającej się dziedzinie technologii sztuczna inteligencja (AI) jest przełomową siłą, która nie tylko przekształciła branże, ale także zrodziła wiele pytań i wyzwań prawnych”. 

Chat GPT poproszony o przedstawienie sztucznej inteligencji w kontekście wyzwań prawnych. 

Czy istnieje definicja sztucznej inteligencji? 

Obecnie nie ma prawnej definicji sztucznej inteligencji ani w Polsce, ani w Unii Europejskiej. Podobna sytuacja występuje również w innych głównych jurysdykcjach na świecie. Prawdopodobnie najbliższa definicji AI jest definicja “zautomatyzowanego podejmowania decyzji” zawarta w RODO, która może obejmować niektóre systemy AI. 

RODO w art. 22 definiuje zautomatyzowane podejmowanie decyzji jako: 

„… decyzja, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec (…) osoby skutki prawne lub w podobny sposób istotnie na nią wpływa.”. 

Definicja ta w swoim obecnym kształcie nie jest jednak wystarczająco konkretna, aby w wystarczający sposób “pokryć” pojęcie systemów sztucznej inteligencji jakie znamy obecnie. 

Z prawnego punktu widzenia sztuczna inteligencja jest więc „tylko” technologią lub zestawem technologii i jest regulowana w taki sam sposób, jak każda inna technologia – poprzez wiele różnych przepisów mających zastosowanie do określonych kontekstów lub zastosowań. Może być wykorzystywana w dobrych celach lub w celu wyrządzenia szkody, jej użycie może być legalne lub nielegalne – wszystko zależy od sytuacji i kontekstu. 

Dlaczego uregulowanie sztucznej inteligencji jest tak ważne? 

Tempo rozwoju sztucznej inteligencji przyspiesza. A ponieważ sztuczna inteligencja jest „przełomową siłą”, różne kraje mają trudności z opisaniem tej technologii do celów legislacyjnych. W przeszłości ustawodawcy rzadko rozważali tworzenie nowych przepisów na poziomie międzynarodowym specjalnie dla pojedynczej technologii. Ostatnie lata dowiodły jednak, że coraz więcej przełomów technologicznych wymaga szybkiej reakcji prawnej – nie trzeba daleko szukać, wystarczy pomyśleć o przetwarzaniu w chmurze, blockchainie, a teraz o sztucznej inteligencji. 

Przykładowo, różne części lub komponenty tej technologii mogą być własnością różnych osób lub firm (na przykład prawa autorskie do określonego kodu programu lub własność baz danych), ale idea sztucznej inteligencji jest publiczna. A ponieważ coraz więcej narzędzi i wiedzy na temat AI jest dostępnych dla wszystkich, teoretycznie każdy może korzystać z narzędzi AI lub tworzyć nowe narzędzia. Może się to wiązać z potencjalnymi nadużyciami, stąd regulacje prawne tej technologii są tak ważne. 

Dlaczego jeszcze? Wszyscy zgadzają się, że sztuczna inteligencja ma potencjał, by zmienić krajobraz gospodarczy i społeczny na całym świecie. Oczywiście, to już się dzieje, a proces ten przyspiesza każdego dnia – co jest równie ekscytujące, co przerażające. Tempo rozwoju nowych technologii sprawia, że trudno jest przewidzieć rezultaty. Dlatego też kluczowe znaczenie ma posiadanie pewnych zasad prawnych, które zapewnią, że sztuczna inteligencja będzie wykorzystywana w sposób korzystny dla wszystkich. A ponieważ jest to „zjawisko globalne”, najlepiej byłoby, gdyby przynajmniej powszechnie uzgodniono, czym jest sztuczna inteligencja z prawnego punktu widzenia. 

Najprawdopodobniej nie stanie się to jednak w skali globalnej. Niektóre kraje próbują zdefiniować sztuczną inteligencję ze względu na jej cel lub funkcje, inne ze względu na stosowane technologie, a niektóre łączą różne podejścia. Wiele kluczowych jurysdykcji stara się jednak uzgodnić definicję sztucznej inteligencji i znaleźć wspólne zasady. Jest to ważne, aby uniknąć praktycznych problemów, zwłaszcza dla dostawców globalnych rozwiązań AI, ponieważ wkrótce będą oni musieli zmierzyć się z licznymi kwestiami zgodności. Tylko co najmniej podstawowa interoperacyjność między jurysdykcjami pozwoli sztucznej inteligencji w pełni wykorzystać swój potencjał. 

Podejście unijne 

Różne kraje w Unii Europejskiej na wiele sposobów próbowały „podejść” do zagadnienia AI. Jeśli jednak szukamy szybkiej odpowiedzi na pytanie „jak najprawdopodobniej będzie wyglądać definicja sztucznej inteligencji w UE?”, większość odeśle nas do Aktu o Sztucznej Inteligencji, czyli AI Act, a właściwie jego projektu. Kraje członkowskie odraczają konkretne decyzji do czasu przyjęcia ostatecznej wersji AI Act, który w sposób kompleksowy ureguluje tę technologię na poziomie europejskim we wszystkich krajach członkowskich. 

Aktualnie publicznie dostępna wersja AI Act zawiera następującą definicję systemu sztucznej inteligencji: 

“An AI system is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.” 

Źródło: https://www.linkedin.com/feed/update/urn:li:activity:7155091883872964608/ 

Co można tłumaczyć jako: “System sztucznej inteligencji jest systemem maszynowym zaprojektowanym do działania z różnymi poziomami autonomii, który może wykazywać zdolność adaptacji po wdrożeniu i który, dla wyraźnych lub dorozumianych celów lub ukrytych celów, wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na fizyczne lub wirtualne środowiska.” 

Jest to różnica w porównaniu do ostatniego tekstu AI Act z 2023 r., który system sztucznej inteligencji definiował jako “oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.” 

Tym samym UE zbliżyła się w swojej definicji systemu sztucznej inteligencji do standardu OECD. 

A czym jest ten standard? W listopadzie 2023 r. OECD (Organizacja Współpracy Gospodarczej i Rozwoju) zaktualizowała definicję AI zawartą w Zasadach AI OECD. Jest to pierwszy międzyrządowy standard dotyczący AI (został przyjęty w 2019 r.). Liczne władze na całym świecie zobowiązały się do stosowania tej definicji bezpośrednio lub z niewielkimi modyfikacjami. Do tej grupy należy również Unia Europejska. 

Źródło: https://oralytics.com/2022/03/14/oced-framework-for-classifying-of-ai-systems/ 

Definicja Systemu AI OECD: 

An AI system is a machine-based system that , for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.” 

(PL: “System sztucznej inteligencji to system oparty na maszynach, który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. Różne systemy sztucznej inteligencji różnią się poziomem autonomii i zdolności adaptacyjnych po wdrożeniu”). 

Aktualny model systemu sztucznej inteligencji OECD 

Oprócz wspomnianej definicji, w zaleceniach OECD wyznaczono pięć dodatkowych zasad opartych na wartościach dotyczących odpowiedzialnego zarządzania godną zaufania sztuczną inteligencją. 

Zawierają one: 

wzrost gospodarczy sprzyjający włączeniu społecznemu, zrównoważony rozwój i dobrobyt; 

wartości i sprawiedliwość skoncentrowane na człowieku; 

przejrzystość i “wyjaśnialność”; 

solidność, bezpieczeństwo i ochrona; 

odpowiedzialność. 

W kontekście powyższych informacji kraje, które zobowiązały się przestrzegać zasad OECD dotyczących sztucznej inteligencji powinny odzwierciedlać wymienione aspekty (przynajmniej w teorii). W tym kontekście UE jest na dobrej drodze. 

W jaki sposób sztuczna inteligencja jest interpretowana na poziomie globalnym? 

Stany Zjednoczone 

Oczywiście jedną z najbardziej aktywnych jurysdykcji, jeśli chodzi o sztuczną inteligencję, są Stany Zjednoczone.Zgodnie z informacjami zamieszczonymi na stronie Krajowej Konferencji Ustawodawców Stanowych w 2023 r. co najmniej 25 stanów, Portoryko i Dystrykt Kolumbii wprowadziły akty prawne dotyczące sztucznej inteligencji, z kolei 15 stanów i Portoryko podjęło rezolucje w tym obszarze. Poszczególne stany podjęły ponad 120 inicjatyw w związku z ogólnymi zagadnieniami związanymi z AI (przepisy dotyczące konkretnych technologii sztucznej inteligencji, takich jak rozpoznawanie twarzy czy samochody autonomiczne, są monitorowane osobno). 

Podejście w Stanach Zjednoczonych jest więc różne. Jako ciekawostkę można podać, że w maju 2023 r. w Kalifornii został przedstawiony projekt aktu wzywającego rząd USA do nałożenia natychmiastowego moratorium na szkolenie systemów sztucznej inteligencji potężniejszych niż GPT-4 przez co najmniej sześć miesięcy, aby dać czas na opracowanie systemu zarządzania sztuczną inteligencją – jego status jest obecnie „oczekujący”, jednak nie wydaje się prawdopodobne, aby został przyjęty. 

Jeśli chodzi o definicję sztucznej inteligencji, w Stanach Zjednoczonych nie ma jednolitej definicji prawnej. Jednak jeden z kluczowych aktów prawnych związanych z AI – National AI Initiative Act z 2020 r. – ustanowił National Artificial Intelligence Initiative Office i zdefiniował sztuczną inteligencję jako „system oparty na maszynach, który może, dla danego zestawu celów zdefiniowanych przez człowieka, dokonywać prognoz, zaleceń lub decyzji wpływających na rzeczywiste lub wirtualne środowiska”. Wyjaśnia dalej, że „systemy sztucznej inteligencji wykorzystują dane wejściowe oparte na maszynach i ludziach, aby – (A) postrzegać rzeczywiste i wirtualne środowiska; (B) abstrahować takie postrzeganie w modele poprzez analizę w sposób zautomatyzowany; oraz (C) wykorzystywać wnioskowanie modelu do formułowania opcji informacji lub działania”. Dokument ten koncentruje się jednak głównie na organizacji Biura Inicjatywy AI w celu wspierania rozwoju tej technologii w Stanach Zjednoczonych, a nie na regulowaniu samej sztucznej inteligencji. 

Stany Zjednoczone zobowiązały się do przestrzegania zasad OECD dotyczących sztucznej inteligencji. Niemniej jednak istnieją również inne wskazówki dotyczące tego, czego należy się spodziewać po federalnych przepisach dotyczących sztucznej inteligencji. „The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” to miejsce, od którego warto zacząć. Został on opublikowany przez Biuro Polityki Naukowej i Technologicznej Białego Domu w październiku 2022 r. i zawiera listę 5 zasad, które mają „pomóc w zapewnieniu wskazówek w każdym przypadku, gdy zautomatyzowane systemy mogą znacząco wpływać na prawa, możliwości lub dostęp do krytycznych potrzeb społeczeństwa”. Zasady te obejmują: 

  1. Bezpieczne i skuteczne systemy
  2. Ochrona przed dyskryminacją algorytmiczną
  3. Prywatność danych
  4. Powiadomienie i wyjaśnienie
  5. Ludzkie alternatywy, rozważania i rozwiązania awaryjne

Definicja systemów sztucznej inteligencji objętych przez Blueprint obejmuje dwa elementy: (i) ma potencjał, aby znacząco wpłynąć na prawa, możliwości lub dostęp osób lub społeczności oraz (ii) jest „zautomatyzowanym systemem”. Zautomatyzowany system jest dalej definiowany jako „dowolny system, oprogramowanie lub proces, który wykorzystuje obliczenia jako całość lub część systemu do określania wyników, podejmowania lub wspomagania decyzji, informowania o wdrażaniu polityki, gromadzenia danych lub obserwacji lub w inny sposób interakcji z osobami i / lub społecznościami. Zautomatyzowane systemy obejmują między innymi systemy wywodzące się z uczenia maszynowego, statystyki lub innych technik przetwarzania danych lub sztucznej inteligencji i wykluczają pasywną infrastrukturę obliczeniową”. Gwoli wyjaśnienia, „pasywna infrastruktura obliczeniowa to dowolna technologia pośrednicząca, która nie wpływa ani nie określa wyniku decyzji, nie podejmuje ani nie pomaga w podejmowaniu decyzji, nie informuje o wdrażaniu polityki ani nie gromadzi danych lub obserwacji”, w tym np. hosting internetowy. 

Jeśli chodzi o inne kluczowe jurysdykcje, żadna z poniższych nie ma żadnej powszechnie uznanej definicji prawnej, ale: 

Chiny 

Chiny określiły standardy na poziomie krajowym oraz lokalne adaptacje, które opierają się na niektórych definicjach związanych z funkcjonalnością systemów sztucznej inteligencji; 

Hongkong 

Stworzył wytyczne etycznego rozwoju i wykorzystania sztucznej inteligencji, które określają sztuczną inteligencję jako „rodzinę technologii, które obejmują wykorzystanie programów komputerowych i maszyn w celu naśladowania problemu- zdolności człowieka do rozwiązywania problemów i podejmowania decyzji”. 

Japonia 

Japonia określiła „Strategię AI 2022”. Została ona wydana przez Cabinet Office’s Integrated Innovation Strategy Promotion Council. Sugeruje ona, że „AI” odnosi się do systemu zdolnego do wykonywania funkcji uznawanych za inteligentne. 

Singapur 

Singapur z kolei podjął próby definiowania “sztucznej inteligencji” jako zestaw technologii, które mają na celu symulowanie cech ludzkich, takich jak wiedza, rozumowanie, rozwiązywanie problemów, percepcja, uczenie się i planowanie oraz, w zależności od modelu sztucznej inteligencji, dają wynik lub decyzję (taką jak prognoza, zalecenie i/lub klasyfikacja). Definicja ta została zamieszczona w Modelowych Ramach Zarządzania Sztuczną Inteligencją wydanych przez Infocomm Media Development Authority i Personal Data Protection Commission. 

*** 

Na całym świecie trwają próby stworzenia prawnej definicji sztucznej inteligencji. Aktualnie jedną z najnowszych propozycji jest ta zaproponowana przez OECD. Uchwalenie AI Act w ostatecznej wersji z pewnością przyspieszy proces unifikacji podejścia do definicji AI na całym świecie. Otwarte pozostaje pytanie, czy niektóre kraje nie będą jednak chciały “wyróżnić” się mocno liberalnym podejściem do AI, aby to właśnie do siebie ściągać twórców tej technologii (bez szczególnego dbania o aspekty prawne i etyczne). 

Autorzy: Mateusz Borkiewicz, Agata Jałowiecka, Grzegorz Leśniewski 

Czym jest ESG? 

Pojęcie ESG obejmuje kryteria pozafinansowej oceny działalności przedsiębiorstwa w trzech głównych obszarach: środowiskowym (environmental), społecznym (social) oraz ładu korporacyjnego (corporate). 

Za sprawą tzw. CRSD, czyli nowej dyrektywy o sprawozdawczości przedsiębiorstw w zakresie zrównoważonego rozwoju, która weszła w życie 1 stycznia 2024 r., ESG ma dostarczać wymiernych wskaźników, które pozwolą zmierzyć to, co do tej pory wydawało się niemierzalne – szeroko pojęty wpływ przedsiębiorstwa na środowisko, społeczeństwo i gospodarkę. Ocena działalności przedsiębiorstwa w trzech wymienionych wyżej obszarach przedstawiana będzie w raportach niefinansowych, które w przeciągu najbliższych lat zobowiązana będzie przygotowywać i upubliczniać liczna grupa polskich i europejskich przedsiębiorstw. 

Raporty niefinansowe obejmować mają szereg informacji dotyczących działalności przedsiębiorstwa w obszarze środowiska naturalnego (np. ślad węglowy), spraw pracowniczych, poszanowania praw człowieka czy też przeciwdziałania korupcji. 

Docelowo, informacje ujęte w raporcie niefinansowym mają stać się tak samo istotnym elementem oceny kondycji i sytuacji przedsiębiorstwa, jak jego wyniki finansowe. 

Raportowanie niefinansowe po nowemu 

Do czasu uchwalenia CRSD, obowiązek raportowania niefinansowego dotyczył w Polsce wyłącznie największych jednostek zainteresowania publicznego (takich jak banki, największe spółki giełdowe etc. – ok. 150 podmiotów). Po zmianach, które na zasadach opisanych w poniższej tabeli obejmować będą stopniowo kolejne grupy przedsiębiorstw szacuje się, że nowymi obowiązkami objęte będzie docelowo około 3500 – 4000 podmiotów. 

 

 Istotną zmianę stanowią również precyzyjne wymagania dotyczące treści i formy przyszłych raportów niefinansowych. Dotychczas przepisy nie określały, co dokładnie powinien zawierać raport dotyczący ESG. Nowe standardy raportowania (ESRS), narzucać będą w tym zakresie bardzo szczegółowe reguły. Już teraz można ocenić, że dla wielu przedsiębiorców – szczególnie tych nieposiadających doświadczeń w zakresie raportowania niefinansowego – przygotowanie raportu zgodnego z wymaganiami ESRS stanowić będzie prawdziwe wyzwanie. 

Dlaczego to ważne? 

Chęć uniknięcia sankcji za nierealizowanie obowiązków nakładanych przez CRSD i implementujące ją ustawodawstwo krajowe to tylko jeden z powodów, dla których warto w najbliższych miesiącach zainteresować się tematem ESG. 

Kryteria związane z ESG są coraz częściej brane pod uwagę przez duże podmioty w procesie wyboru kontrahentów, z którymi podmioty te współpracują. Już teraz najwięksi gracze niejednokrotnie uzależniają rozpoczęcie i kontynuowanie współpracy od przedstawienia dokumentów i informacji dotyczących działań ich dostawców w obszarze ESG. Nie zawsze wynika to jedynie z wewnętrznej polityki danej firmy. Przykładowo, zgodnie z prawodawstwem niemieckim, niemieccy przedsiębiorcy muszą badać swoich dostawców pod kątem spełniania przez nich m.in. wymogów środowiskowych i przestrzegania praw człowieka. Po wejściu w życiu CSRD przedsiębiorstwa objęte obowiązkiem raportowania będą zobowiązane do weryfikowania kwestii związanych z ESG w swoich łańcuchu dostaw. W efekcie, nawet jeżeli Państwa przedsiębiorstwo nie będzie podlegać obowiązkowi sporządzania raportu niefinansowego, konieczne może się okazać wdrożenie ESG przynajmniej w takim zakresie, który uznawany będzie przez Państwa kontrahentów. 

Wyniki raportów ESG będą miały ponadto coraz większy wpływ na decyzje inwestycyjne. Szacuje się, że do 2025 r. aż 1/3 funduszy inwestycyjnych na świecie będzie inwestowała zgodnie z trendem ESG, 69% banków planuje w ciągu najbliższego roku uwzględniać kryteria ESG w zarządzaniu ryzykiem kredytowym. Zaobserwować można rozwój trendu finansowania w formule SSL (eng. sustainability linked loan), polegającego na powiązaniu wysokości marży kredytu z realizacją przed kredytobiorcę celów z obszaru ESG. 

Działania przedsiębiorstwa w obszarze ESG będą miały zatem wpływ na jego wizerunek, dostęp do kapitału, możliwość zawierania umów z innymi uczestnikami rynku. To wszystko powoduje, że wdrożenie ESG będzie się po prostu opłacało.  

Eksperci z LBKP wesprą Państwa w zrozumieniu i wdrożeniu nowych standardów, a także w procesie tworzenia raportów zrównoważonego rozwoju zgodnie z obowiązującymi przepisami i najlepszymi praktykami. Nasza oferta obejmuje również kompleksowe wsparcie dla tych przedsiębiorców, których nie będzie w najbliższych latach dotyczył obowiązek sporządzania raportów niefinansowych, ale którzy będą zainteresowani uwzględnieniem aspektów związanych ESG w swoje działalności. 

Zapraszamy do kontaktu w celu uzyskania bardziej szczegółowych informacji. 

 

Czy wiesz, jakich praktyki unikać, aby zapewnić uczciwe i przyjazne doświadczenia użytkownikom?

Zapraszamy do wysłuchania rozmowy, w której dr Wojciech Lamik razem z dr hab. Marleną Sakowską- Baryłą omawiają zagadnienia związane z dark patterns, czyli zwodniczymi interfejsami.

Dzielą się swoimi spostrzeżeniami na temat:

🔷 definicji dark patterns,

🔷 przykładowych praktyk stosowanych w dark patterns,
🔷 konsekwencji prawnych dla osób używających dark patterns,

🔷 sugerowanych praktyk i materiałów, które mogą pomóc w uniknięciu stosowania dark patterns na stronach internetowych i w aplikacjach.

Więcej o dark patterns znajdziesz w naszej publikacji „Wdrożenie aktu o usługach cyfrowych”, która już 15 kwietnia ukaże się nakładem Wydawnictwa C.H. Beck 🙂

Link do publikacji

Jak tworzyć narzędzia AI zgodnie z prawem?

Jak już wspominaliśmy w poprzednich wpisach, wciąż pozostało wiele pracy w kontekście prawa sztucznej inteligencji.

Zobacz:

Sztuczna Inteligencja a prawo – Globalne interpretacje i lokalne adaptacje

Jak legalnie wykorzystywać AI?

Sztuczna inteligencja a odpowiedzialność prawna – nowe horyzonty?

Jednak w oparciu o ogólne zasady obowiązujące w wielu jurysdykcjach, projekty ustaw i obecne prawodawstwo UE, które już można zastosować do systemów AI, a także akty prawne „na ukończeniu”, stworzyliśmy ten uproszczony przewodnik prawny dotyczący tworzenia narzędzi AI.

_________________________________________________________________________________

Etap 1: zdefiniuj funkcjonalności i cele systemu AI (nie tylko zamierzone, ale także inne możliwe). W tym kontekście:

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie;

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić;

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych;

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA. Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania

Etap 2: zdefiniuj wejściową/ szkoleniową bazę danych

Upewnij się, że możesz z niej korzystać zgodnie z prawem. Istnieje wiele dyskusji na temat dozwolonego wykorzystania publicznie dostępnych danych, ale takie działanie zawsze oceniać indywidualnie. Kluczowe zagrożenia obejmują

– naruszenie praw własności intelektualnej (praw autorskich, znaków towarowych, praw do baz danych);

– niezgodne z prawem przetwarzanie danych osobowych;

– niemożność realizacji praw osób, których dane dotyczą (RODO dopuszcza wiele praw osób, których dane są przetwarzane, a wiele systemów AI jest tworzonych w sposób utrudniający ich realizację);

– naruszenie tajemnic handlowych lub informacji poufnych;

Upewnij się, że baza danych jest poprawna, zawiera dane dobrej jakości i nie stwarza możliwości powstawania uprzedzeń lub błędów statystycznych.

Etap 3: Cyberbezpieczeństwo

Wdrażaj rozwiązania odpowiednie dla systemu AI i zidentyfikowanych zagrożeń. Chodzi tu nie tylko o ochronę efektów pracy i inwestycji, ale także o zgodność z przepisami. W niektórych przypadkach mogą obowiązywać szczególne wymagania, zwłaszcza jeśli przetwarzasz dane osobowe (RODO) lub jeśli system jest przeznaczony do użytku w sektorze finansowym (DORA).

Etap 4: Narzędzia do programowania

Jeśli korzystasz z technologii lub aplikacji stron trzecich do opracowania systemu sztucznej inteligencji, upewnij się, że masz wszystkie niezbędne licencje i nie naruszasz ich. Ważne jest, aby uzyskać i przeanalizować całą odpowiednią dokumentację takich narzędzi, aby zrozumieć, w jaki sposób mogą one zmienić Twoje podejście / ustalenia istotne dla poszczególnych etapów tworzenia systemu AI.

Etap 5:  Proces rozwoju – pamiętaj o:

– zasadach privacy by design i privacy by default wynikających z RODO;

– jeśli Twój system będzie oferowany konsumentom, musisz przestrzegać przepisów dotyczących ochrony konsumentów;

– testowaniu wszystko wiele razy 😊

– wdrożeniu procesu odnotowywania i zgłaszania incydentów (przechwytywanie, analiza, wyciąganie wniosków).

***

Upewnij się, że wszystkie etapy spełniają wymogi przejrzystości i zrównoważonego rozwoju. W przyszłości kluczowe będzie udowodnienie zgodności z przepisami w tym obszarze. Ponieważ wiele przepisów prawnych faworyzuje podejście oparte na ryzyku, potrzebne będą istotne dowody na to, że wszystkie zagrożenia zostały uwzględnione na wszystkich etapach cyklu życia systemu sztucznej inteligencji.

Jeżeli chcesz dowiedzieć się więcej na temat wytycznych dotyczących systemów sztucznej inteligencji zobacz „Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji”,

Wprowadzają one ramy oceny wpływu systemów AI na politykę publiczną w obszarach objętych Zasadami AI OECD i klasyfikują systemy i aplikacje AI według następujących obszarów: Ludzie i planeta, Kontekst ekonomiczny, Dane i dane wejściowe, Model AI oraz Zadanie i wynik.

Pamiętaj, że w przypadku prac nad produktami zawierającymi systemy sztucznej inteligencji, które ze względu na swoją specyfikę mogą zostać uznane za system AI wysokiego ryzyka, koniecznością w takim przypadku będzie wprowadzenie systemów zarządzania jakością i ryzykiem na każdym etapie rozwoju projektu. Ten krok jest niezbędny, aby zapewnić zgodność systemu sztucznej inteligencji z AI Act oraz z innymi aktami prawnymi. Wdrożenie takich procesów jest kluczowe nie tylko podczas tworzenia produktu, ale także po jego wprowadzeniu na rynek.

Autorzy: adw. Mateusz Borkiewicz, Agata Jałowiecka

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj