Porwanie przez AI: przypadek Mike’a Johnsa a ryzyko prawne pojazdów autonomicznych
7 stycznia 2025 / AI
W dobie dynamicznego rozwoju technologii AI coraz częściej spotykamy się z pytaniami nie tylko o jej efektywność, ale także o kwestie prawne i odpowiedzialność za szkody wyrządzone przez systemy AI.
Głośny przypadek Mike’a Johnsa, przedsiębiorcy technologicznego z Los Angeles, który niemal spóźnił się na lot, ponieważ “został porwany przez pojazd autonomiczny” z powodu usterki w pojeździe Waymo stanowi doskonały przykład wyzwań związanych z regulacjami prawnymi w obszarze sztucznej inteligencji i technologii autonomicznych.
Jak sam określił Mike Johns „Stałem się swoim własnym studium przypadku”.

Incydent i jego konsekwencje
Johns został „uwięziony” w samochodzie Waymo, który przez kilka minut krążył po parkingu, nie reagując na polecenia ani użytkownika wystosowane za pomocą aplikacji, ani przedstawiciela firmy. Na marginesie Mike nie miał pewności czy przedstawicielem jest system sztucznej inteligencji, czy człowiek i nie został o tym poinformowany. Choć sytuacja została ostatecznie opanowana, a użytkownik zdążył na lot dzięki opóźnieniu samolotu, przypadek ten rodzi istotne pytania:
- Kto ponosi odpowiedzialność za usterki w pojazdach autonomicznych?
- Jakie prawa przysługują pasażerowi w takich sytuacjach?
- Czy użytkownik autonomicznego pojazdu ma obowiązek podjęcia określonych działań w sytuacjach awaryjnych?
- Jakie obowiązki w takiej sytuacji powinien spełnić producent?
Odpowiedzialność producenta i operatora
W przypadku Waymo problem „zapętlenia” został rozwiązany za pomocą aktualizacji oprogramowania, co może sugerować, że usterka wynikała z błędu algorytmicznego. Pojawia się jednak pytanie, czy takie błędy można traktować jak klasyczne wady produktów, a jeśli tak, to kto powinien być za nie odpowiedzialny: Producent oprogramowania? Operator floty Waymo?
Ramowy kontekst prawny
- W Unii Europejskiej kwestie związane z autonomicznymi pojazdami regulują między innymi Rozporządzenie AI Act, Dyrektywa w sprawie odpowiedzialności za produkty wadliwe, czy prawa miejscowe dotyczące ruchu drogowego i odpowiedzialności cywilnej.
AI Act w art. 43 nakłada na dostawców systemów sztucznej inteligencji obowiązek przeprowadzania oceny ryzyka i monitorowania działania ich produktów, ponadto zgodnie z art. 50 AI Act użytkownik za każdym razem powinien zostać poinformowany w przypadku interakcji z systemem sztucznej inteligencji.
Ponadto w sekcji 3 AI Act można znaleźć obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka oraz innych osób.
Z kolei w Stanach Zjednoczonych podobne obowiązki dotyczą jedynie sektora publicznego i agencji federalnych na podstawie Rozporządzenia Wykonawczego nr 14091, podpisanego przez prezydenta Joe Bidena w 2023 roku, które odnosi się do odpowiedzialnego rozwoju sztucznej inteligencji. W sektorze prywatnym, odpowiedzialne użycie AI, w tym informowanie użytkowników o interakcji z systemem AI jest bardziej przedmiotem dobrych praktyk i standardów etycznych, niż regulacji prawnych. Jednakże istnieje presja społeczna i prawna, aby większe platformy technologiczne, takie jak Google czy OpenAI, stosowały podobne standardy przejrzystości, jak podmioty publiczne. Listę podmiotów, które podpisały list otwarty zobowiązujący do budowania etycznej sztucznej inteligencji w USA można znaleźć na stronie www.nist.gov/aisi. Waymo nie należy do podmiotów znajdujących się na tej liście.
Prawo pasażera – ochrona konsumenta
Wspomniany incydent pokazuje także konieczność stworzenia standardów dotyczących komunikacji i wsparcia pasażera w sytuacjach awaryjnych, szczególnie ze względu na szkody na tle emocjonalnym, które mogą pojawić się w takiej sytuacji.
Przypadek Mike’a Johnsa to nie tylko ciekawostka technologiczna, ale także materiał do głębszej refleksji nad regulacjami prawnymi w obszarze AI i technologii autonomicznych.
Jeśli interesuje Cię analiza prawna technologii autonomicznych lub masz pytania dotyczące zgodności Twojego produktu z AI Act, zapraszamy do kontaktu. Razem możemy przygotować rozwiązania prawne dopasowane do dynamicznie zmieniającej się rzeczywistości technologicznej.
Potrzebujesz pomocy w tym temacie?
Napisz do naszego eksperta
Artykuły z tej kategorii
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karami
Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karamiDeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?
DeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa
BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa