Porwanie przez AI: przypadek Mike’a Johnsa a ryzyko prawne pojazdów autonomicznych
7 stycznia 2025 / AI
W dobie dynamicznego rozwoju technologii AI coraz częściej spotykamy się z pytaniami nie tylko o jej efektywność, ale także o kwestie prawne i odpowiedzialność za szkody wyrządzone przez systemy AI.
Głośny przypadek Mike’a Johnsa, przedsiębiorcy technologicznego z Los Angeles, który niemal spóźnił się na lot, ponieważ “został porwany przez pojazd autonomiczny” z powodu usterki w pojeździe Waymo stanowi doskonały przykład wyzwań związanych z regulacjami prawnymi w obszarze sztucznej inteligencji i technologii autonomicznych.
Jak sam określił Mike Johns „Stałem się swoim własnym studium przypadku”.
Incydent i jego konsekwencje
Johns został „uwięziony” w samochodzie Waymo, który przez kilka minut krążył po parkingu, nie reagując na polecenia ani użytkownika wystosowane za pomocą aplikacji, ani przedstawiciela firmy. Na marginesie Mike nie miał pewności czy przedstawicielem jest system sztucznej inteligencji, czy człowiek i nie został o tym poinformowany. Choć sytuacja została ostatecznie opanowana, a użytkownik zdążył na lot dzięki opóźnieniu samolotu, przypadek ten rodzi istotne pytania:
- Kto ponosi odpowiedzialność za usterki w pojazdach autonomicznych?
- Jakie prawa przysługują pasażerowi w takich sytuacjach?
- Czy użytkownik autonomicznego pojazdu ma obowiązek podjęcia określonych działań w sytuacjach awaryjnych?
- Jakie obowiązki w takiej sytuacji powinien spełnić producent?
Odpowiedzialność producenta i operatora
W przypadku Waymo problem „zapętlenia” został rozwiązany za pomocą aktualizacji oprogramowania, co może sugerować, że usterka wynikała z błędu algorytmicznego. Pojawia się jednak pytanie, czy takie błędy można traktować jak klasyczne wady produktów, a jeśli tak, to kto powinien być za nie odpowiedzialny: Producent oprogramowania? Operator floty Waymo?
Ramowy kontekst prawny
- W Unii Europejskiej kwestie związane z autonomicznymi pojazdami regulują między innymi Rozporządzenie AI Act, Dyrektywa w sprawie odpowiedzialności za produkty wadliwe, czy prawa miejscowe dotyczące ruchu drogowego i odpowiedzialności cywilnej.
AI Act w art. 43 nakłada na dostawców systemów sztucznej inteligencji obowiązek przeprowadzania oceny ryzyka i monitorowania działania ich produktów, ponadto zgodnie z art. 50 AI Act użytkownik za każdym razem powinien zostać poinformowany w przypadku interakcji z systemem sztucznej inteligencji. Z kolei w Stanach Zjednoczonych podobne obowiązki dotyczą jedynie sektora publicznego i agencji federalnych na podstawie Rozporządzenia Wykonawczego nr 14091, podpisanego przez prezydenta Joe Bidena w 2023 roku, które odnosi się do odpowiedzialnego rozwoju sztucznej inteligencji. W sektorze prywatnym, odpowiedzialne użycie AI, w tym informowanie użytkowników o interakcji z systemem AI jest bardziej przedmiotem dobrych praktyk i standardów etycznych, niż regulacji prawnych. Jednakże istnieje presja społeczna i prawna, aby większe platformy technologiczne, takie jak Google czy OpenAI, stosowały podobne standardy przejrzystości, jak podmioty publiczne. Listę podmiotów, które podpisały list otwarty zobowiązujący do budowania etycznej sztucznej inteligencji w USA można znaleźć na stronie www.nist.gov/aisi. Waymo nie należy do podmiotów znajdujących się na tej liście.
Prawo pasażera – ochrona konsumenta
Wspomniany incydent pokazuje także konieczność stworzenia standardów dotyczących komunikacji i wsparcia pasażera w sytuacjach awaryjnych, szczególnie ze względu na szkody na tle emocjonalnym, które mogą pojawić się w takiej sytuacji.
Przypadek Mike’a Johnsa to nie tylko ciekawostka technologiczna, ale także materiał do głębszej refleksji nad regulacjami prawnymi w obszarze AI i technologii autonomicznych.
Jeśli interesuje Cię analiza prawna technologii autonomicznych lub masz pytania dotyczące zgodności Twojego produktu z AI Act, zapraszamy do kontaktu. Razem możemy przygotować rozwiązania prawne dopasowane do dynamicznie zmieniającej się rzeczywistości technologicznej.
Potrzebujesz pomocy w tym temacie?
Napisz do naszego eksperta
Artykuły z tej kategorii
Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiaku
Horoskop 2025. Sprawdź, jaki rok AI przewiduje dla sztucznej inteligencji i jak będą korzystały z niej osoby spod różnych znaków zodiakuCivilization VII – modele LLM odkrywają tajemnice tytułowego utworu
Civilization VII – modele LLM odkrywają tajemnice tytułowego utworuCzy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?
Czy potrafimy zadbać o bezpieczeństwo swoich danych w modelach LLM (AI) takich jak ChatGPT?Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej
Suno AI. Szanse i zagrożenia muzyki generowanej przez AI z perspektywy prawnej