Викрадення через штучний інтелект: справа Майка Джонса та юридичні ризики безпілотних автомобілів

13 Січня 2025   /  AI

В епоху стрімкого розвитку технологій штучного інтелекту ми все частіше стикаємося з питаннями не лише про їхню ефективність, але й про правові аспекти та відповідальність за шкоду, заподіяну системами штучного інтелекту.
Гучний випадок Майка Джонса, технологічного підприємця з Лос-Анджелеса, який ледь не запізнився на літак через те, що його «викрав безпілотник» через збій у роботі його автомобіля Waymo, є чудовим прикладом регуляторних викликів у сфері штучного інтелекту та автономних технологій.
Як сказав сам Майк Джонс: «Я став власним прикладом для наслідування».

Pojazd autonomiczny

Інцидент та його наслідки

Джонс опинився в «пастці» в автомобілі Waymo, який кілька хвилин кружляв навколо автостоянки, не реагуючи на команди ні користувача, подані через додаток, ні представника компанії. До речі, Майк не був упевнений, чи був цей представник системою штучного інтелекту, чи людиною, і не був поінформований про це. Хоча ситуація врешті-решт була взята під контроль і користувач зміг встигнути на свій рейс завдяки затримці літака, цей випадок піднімає важливі питання:

  • Хто несе відповідальність за несправності в автономних транспортних засобах?
  • Які права має пасажир у таких ситуаціях?
  • Чи зобов’язаний користувач автономного транспортного засобу вчиняти певні дії в екстрених ситуаціях?
  • Які зобов’язання повинен виконувати виробник у такій ситуації?

Обов’язки виробника та оператора

У випадку Waymo проблему «зациклення» було вирішено за допомогою оновлення програмного забезпечення, що може свідчити про те, що несправність була спричинена алгоритмічною помилкою. Однак виникає питання, чи можна розглядати такі помилки як класичні дефекти продукту, і якщо так, то хто повинен нести відповідальність: виробник програмного забезпечення? Оператор автопарку Waymo?

Pojazd autonomiczny

Нормативно-правова база

  • У Європейському Союзі питання, пов’язані з автономними транспортними засобами, регулюються, серед іншого, Регламентом до Закону про ШІ, Директивою про відповідальність за дефектну продукцію або місцевими законами про дорожній рух і цивільну відповідальність.

Закон про штучний інтелект у статті 43 вимагає від постачальників систем штучного інтелекту проводити оцінку ризиків і контролювати роботу своїх продуктів, крім того, згідно зі статтею 50 Закону про штучний інтелект, користувач повинен бути поінформований щоразу, коли він/вона взаємодіє з системою штучного інтелекту.

Крім того, у розділі 3 Закону про ШІ можна знайти зобов’язання провайдерів і користувачів систем ШІ з високим ступенем ризику тощо.

З іншого боку, у США подібні зобов’язання поширюються лише на державний сектор і федеральні агентства відповідно до Виконавчого наказу 14091, підписаного президентом Джо Байденом у 2023 році, який стосується відповідального розвитку штучного інтелекту. У приватному секторі відповідальне використання ШІ, включно з інформуванням користувачів про взаємодію з ШІ-системою, є радше предметом належної практики та етичних стандартів, ніж правового регулювання. Однак існує громадський і правовий тиск на великі технологічні платформи, такі як Google або OpenAI, щоб вони застосовували такі ж стандарти прозорості, як і державні організації. Список організацій, які підписали відкритий лист, що зобов’язує будувати етичний штучний інтелект у США, можна знайти за посиланням www.nist.gov/aisi. Waymo не входить до цього списку.

AI

Права пасажирів – захист прав споживачів

Вищезгаданий інцидент також демонструє необхідність створення стандартів комунікації та підтримки пасажира в екстрених ситуаціях, особливо через емоційну шкоду, яка може виникнути в такій ситуації.

Випадок з Майком Джонсом є не лише технологічним курйозом, але й матеріалом для більш глибоких роздумів про правове регулювання у сфері ШІ та автономних технологій.

Якщо ви зацікавлені в юридичному аналізі автономних технологій або маєте питання щодо відповідності вашого продукту Закону про ШІ, запрошуємо вас зв’язатися з нами. Разом ми зможемо підготувати юридичні рішення, адаптовані до технологічної реальності, що динамічно змінюється.

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишіть нашому експерту

Матеуш Боркевич

КЕРУЮЧИЙ ПАРТНЕР, АДВОКАТ

+48 663 683 888 Контакти

Статті в цій категорії

ChatGPT в центрі суперечок. Вибух кібер-трака в Лас-Вегасі

AI

більше
ChatGPT в центрі суперечок. Вибух кібер-трака в Лас-Вегасі

Гороскоп 2025 – Дізнайтеся, який рік прогнозує штучний інтелект і як люди різних знаків зодіаку будуть його використовувати

AI

більше
Гороскоп 2025 – Дізнайтеся, який рік прогнозує штучний інтелект і як люди різних знаків зодіаку будуть його використовувати

Civilization VII – LLM-моделі розкривають секрети заголовного треку

AI

більше
Civilization VII – LLM-моделі розкривають секрети заголовного треку

Чи можемо ми захистити наші дані в моделях LLM (ШІ), таких як ChatGPT?

AI

більше
Чи можемо ми захистити наші дані в моделях LLM (ШІ), таких як ChatGPT?

Suno AI – ваш особистий композитор і співак у світі штучного інтелекту

AI

більше
Suno AI – ваш особистий композитор і співак у світі штучного інтелекту
більше

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten