Porwanie przez AI: przypadek Mike’a Johnsa a ryzyko prawne pojazdów autonomicznych

7 stycznia 2025   /  AI

W dobie dynamicznego rozwoju technologii AI coraz częściej spotykamy się z pytaniami nie tylko o jej efektywność, ale także o kwestie prawne i odpowiedzialność za szkody wyrządzone przez systemy AI.

Głośny przypadek Mike’a Johnsa, przedsiębiorcy technologicznego z Los Angeles, który niemal spóźnił się na lot, ponieważ “został porwany przez pojazd autonomiczny” z powodu usterki w pojeździe Waymo stanowi doskonały przykład wyzwań związanych z regulacjami prawnymi w obszarze sztucznej inteligencji i technologii autonomicznych.

Jak sam określił Mike Johns „Stałem się swoim własnym studium przypadku”.

Pojazd autonomiczny

Incydent i jego konsekwencje

Johns został „uwięziony” w samochodzie Waymo, który przez kilka minut krążył po parkingu, nie reagując na polecenia ani użytkownika wystosowane za pomocą aplikacji, ani przedstawiciela firmy. Na marginesie Mike nie miał pewności czy przedstawicielem jest system sztucznej inteligencji, czy człowiek i nie został o tym poinformowany. Choć sytuacja została ostatecznie opanowana, a użytkownik zdążył na lot dzięki opóźnieniu samolotu, przypadek ten rodzi istotne pytania:

  • Kto ponosi odpowiedzialność za usterki w pojazdach autonomicznych?
  • Jakie prawa przysługują pasażerowi w takich sytuacjach?
  • Czy użytkownik autonomicznego pojazdu ma obowiązek podjęcia określonych działań w sytuacjach awaryjnych?
  • Jakie obowiązki w takiej sytuacji powinien spełnić producent?

Odpowiedzialność producenta i operatora

W przypadku Waymo problem „zapętlenia” został rozwiązany za pomocą aktualizacji oprogramowania, co może sugerować, że usterka wynikała z błędu algorytmicznego. Pojawia się jednak pytanie, czy takie błędy można traktować jak klasyczne wady produktów, a jeśli tak, to kto powinien być za nie odpowiedzialny: Producent oprogramowania? Operator floty Waymo?

Pojazd autonomiczny

Ramowy kontekst prawny

  • W Unii Europejskiej kwestie związane z autonomicznymi pojazdami regulują między innymi Rozporządzenie AI Act, Dyrektywa w sprawie odpowiedzialności za produkty wadliwe, czy prawa miejscowe dotyczące ruchu drogowego i odpowiedzialności cywilnej.

AI Act w art. 43 nakłada na dostawców systemów sztucznej inteligencji obowiązek przeprowadzania oceny ryzyka i monitorowania działania ich produktów, ponadto zgodnie z art. 50 AI Act użytkownik za każdym razem powinien zostać poinformowany w przypadku interakcji z systemem sztucznej inteligencji. Z kolei w Stanach Zjednoczonych podobne obowiązki dotyczą jedynie sektora publicznego i agencji federalnych na podstawie Rozporządzenia Wykonawczego nr 14091, podpisanego przez prezydenta Joe Bidena w 2023 roku, które odnosi się do odpowiedzialnego rozwoju sztucznej inteligencji. W sektorze prywatnym, odpowiedzialne użycie AI, w tym informowanie użytkowników o interakcji z systemem AI jest bardziej przedmiotem dobrych praktyk i standardów etycznych, niż regulacji prawnych. Jednakże istnieje presja społeczna i prawna, aby większe platformy technologiczne, takie jak Google czy OpenAI, stosowały podobne standardy przejrzystości, jak podmioty publiczne. Listę podmiotów, które podpisały list otwarty zobowiązujący do budowania etycznej sztucznej inteligencji w USA można znaleźć na stronie www.nist.gov/aisi. Waymo nie należy do podmiotów znajdujących się na tej liście.

AI

Prawo pasażera – ochrona konsumenta

Wspomniany incydent pokazuje także konieczność stworzenia standardów dotyczących komunikacji i wsparcia pasażera w sytuacjach awaryjnych, szczególnie ze względu na szkody na tle emocjonalnym, które mogą pojawić się w takiej sytuacji.

Przypadek Mike’a Johnsa to nie tylko ciekawostka technologiczna, ale także materiał do głębszej refleksji nad regulacjami prawnymi w obszarze AI i technologii autonomicznych.

Jeśli interesuje Cię analiza prawna technologii autonomicznych lub masz pytania dotyczące zgodności Twojego produktu z AI Act, zapraszamy do kontaktu. Razem możemy przygotować rozwiązania prawne dopasowane do dynamicznie zmieniającej się rzeczywistości technologicznej. 

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Napisz do naszego eksperta

Mateusz Borkiewicz

Managing Partner, adwokat

+48 663 683 888 Kontakt

Artykuły z tej kategorii

Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiaku

AI

Więcej
Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiaku

Civilization VII – modele LLM odkrywają tajemnice tytułowego utworu

AI

Więcej
Civilization VII – modele LLM odkrywają tajemnice tytułowego utworu

Czy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?

AI

Więcej
Czy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?

Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej

AI

Więcej
Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej

Open AI OASIS

AI

Więcej
Open AI OASIS
Więcej

Kontakt

Masz pytania?zobacz telefon+48 570 913 713
zobacz e-mail

Biuro w Warszawie

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Biuro we Wrocławiu

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Hej, Userze
czy jesteś już w newsletterze?

    Zobacz jak przetwarzamy Twoje dane osobowe tutaj