Jak tworzyć narzędzia AI zgodnie z prawem?

2 kwietnia 2024   /  AI

Jak już wspominaliśmy w poprzednich wpisach, wciąż pozostało wiele pracy w kontekście prawa sztucznej inteligencji.

Zobacz:

Sztuczna Inteligencja a prawo – Globalne interpretacje i lokalne adaptacje

Jak legalnie wykorzystywać AI?

Sztuczna inteligencja a odpowiedzialność prawna – nowe horyzonty?

Jednak w oparciu o ogólne zasady obowiązujące w wielu jurysdykcjach, projekty ustaw i obecne prawodawstwo UE, które już można zastosować do systemów AI, a także akty prawne „na ukończeniu”, stworzyliśmy ten uproszczony przewodnik prawny dotyczący tworzenia narzędzi AI.

_________________________________________________________________________________

Etap 1: zdefiniuj funkcjonalności i cele systemu AI (nie tylko zamierzone, ale także inne możliwe). W tym kontekście:

– upewnij się, że funkcjonalności i cele są zgodne z prawem, etyczne i nie stwarzają możliwości nadużyć. Weź pod uwagę, w jaki sposób wyniki pracy systemu AI mogą być wykorzystywane przez osoby trzecie;

– zidentyfikuj wszelkie wymagania dotyczące zgodności (może się to różnić w zależności od lokalizacji firmy i zamierzonych rynków docelowych) i potwierdź, że jesteś w stanie je spełnić;

– stwórz listę wszystkich potencjalnych zagrożeń i środków ograniczających ryzyka w odniesieniu do funkcjonalności i wymogów prawnych;

– przeprowadź analizy ryzyka w kontekście wymogów zgodności, którym podlegasz. Na przykład, jeśli system będzie wykorzystywał dane osobowe jako część szkoleniowej bazy danych, przeprowadź DPIA. Pomoże to zrozumieć zakres projektu i stojące przed nim wyzwania

Etap 2: zdefiniuj wejściową/ szkoleniową bazę danych

Upewnij się, że możesz z niej korzystać zgodnie z prawem. Istnieje wiele dyskusji na temat dozwolonego wykorzystania publicznie dostępnych danych, ale takie działanie zawsze oceniać indywidualnie. Kluczowe zagrożenia obejmują

– naruszenie praw własności intelektualnej (praw autorskich, znaków towarowych, praw do baz danych);

– niezgodne z prawem przetwarzanie danych osobowych;

– niemożność realizacji praw osób, których dane dotyczą (RODO dopuszcza wiele praw osób, których dane są przetwarzane, a wiele systemów AI jest tworzonych w sposób utrudniający ich realizację);

– naruszenie tajemnic handlowych lub informacji poufnych;

Upewnij się, że baza danych jest poprawna, zawiera dane dobrej jakości i nie stwarza możliwości powstawania uprzedzeń lub błędów statystycznych.

Etap 3: Cyberbezpieczeństwo

Wdrażaj rozwiązania odpowiednie dla systemu AI i zidentyfikowanych zagrożeń. Chodzi tu nie tylko o ochronę efektów pracy i inwestycji, ale także o zgodność z przepisami. W niektórych przypadkach mogą obowiązywać szczególne wymagania, zwłaszcza jeśli przetwarzasz dane osobowe (RODO) lub jeśli system jest przeznaczony do użytku w sektorze finansowym (DORA).

Etap 4: Narzędzia do programowania

Jeśli korzystasz z technologii lub aplikacji stron trzecich do opracowania systemu sztucznej inteligencji, upewnij się, że masz wszystkie niezbędne licencje i nie naruszasz ich. Ważne jest, aby uzyskać i przeanalizować całą odpowiednią dokumentację takich narzędzi, aby zrozumieć, w jaki sposób mogą one zmienić Twoje podejście / ustalenia istotne dla poszczególnych etapów tworzenia systemu AI.

Etap 5:  Proces rozwoju – pamiętaj o:

– zasadach privacy by design i privacy by default wynikających z RODO;

– jeśli Twój system będzie oferowany konsumentom, musisz przestrzegać przepisów dotyczących ochrony konsumentów;

– testowaniu wszystko wiele razy 😊

– wdrożeniu procesu odnotowywania i zgłaszania incydentów (przechwytywanie, analiza, wyciąganie wniosków).

***

Upewnij się, że wszystkie etapy spełniają wymogi przejrzystości i zrównoważonego rozwoju. W przyszłości kluczowe będzie udowodnienie zgodności z przepisami w tym obszarze. Ponieważ wiele przepisów prawnych faworyzuje podejście oparte na ryzyku, potrzebne będą istotne dowody na to, że wszystkie zagrożenia zostały uwzględnione na wszystkich etapach cyklu życia systemu sztucznej inteligencji.

Jeżeli chcesz dowiedzieć się więcej na temat wytycznych dotyczących systemów sztucznej inteligencji zobacz „Ramy OECD dotyczące klasyfikacji systemów sztucznej inteligencji”,

Wprowadzają one ramy oceny wpływu systemów AI na politykę publiczną w obszarach objętych Zasadami AI OECD i klasyfikują systemy i aplikacje AI według następujących obszarów: Ludzie i planeta, Kontekst ekonomiczny, Dane i dane wejściowe, Model AI oraz Zadanie i wynik.

Pamiętaj, że w przypadku prac nad produktami zawierającymi systemy sztucznej inteligencji, które ze względu na swoją specyfikę mogą zostać uznane za system AI wysokiego ryzyka, koniecznością w takim przypadku będzie wprowadzenie systemów zarządzania jakością i ryzykiem na każdym etapie rozwoju projektu. Ten krok jest niezbędny, aby zapewnić zgodność systemu sztucznej inteligencji z AI Act oraz z innymi aktami prawnymi. Wdrożenie takich procesów jest kluczowe nie tylko podczas tworzenia produktu, ale także po jego wprowadzeniu na rynek.

Autorzy: adw. Mateusz Borkiewicz, Agata Jałowiecka

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Napisz do naszego eksperta

Mateusz Borkiewicz

Managing Partner, adwokat

+48 663 683 888 Kontakt

Artykuły z tej kategorii

Open AI OASIS

AI

Więcej
Open AI OASIS

Jakie wyzwania prawne stoją przed sztuczną inteligencją?

AI

Więcej
Jakie wyzwania prawne stoją przed sztuczną inteligencją?

Co powinna zawierać Polityka wykorzystywania systemów AI?

AI

Więcej
Co powinna zawierać Polityka wykorzystywania systemów AI?

Sztuczna inteligencja – czym jest (z prawnego punktu widzenia) i jak radzi sobie z nią świat

AI

Więcej
Sztuczna inteligencja – czym jest (z prawnego punktu widzenia) i jak radzi sobie z nią świat
Więcej

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj