Викрадення через штучний інтелект: справа Майка Джонса та юридичні ризики безпілотних автомобілів
13 Січня 2025 / AI
В епоху стрімкого розвитку технологій штучного інтелекту ми все частіше стикаємося з питаннями не лише про їхню ефективність, але й про правові аспекти та відповідальність за шкоду, заподіяну системами штучного інтелекту.
Гучний випадок Майка Джонса, технологічного підприємця з Лос-Анджелеса, який ледь не запізнився на літак через те, що його «викрав безпілотник» через збій у роботі його автомобіля Waymo, є чудовим прикладом регуляторних викликів у сфері штучного інтелекту та автономних технологій.
Як сказав сам Майк Джонс: «Я став власним прикладом для наслідування».
Інцидент та його наслідки
Джонс опинився в «пастці» в автомобілі Waymo, який кілька хвилин кружляв навколо автостоянки, не реагуючи на команди ні користувача, подані через додаток, ні представника компанії. До речі, Майк не був упевнений, чи був цей представник системою штучного інтелекту, чи людиною, і не був поінформований про це. Хоча ситуація врешті-решт була взята під контроль і користувач зміг встигнути на свій рейс завдяки затримці літака, цей випадок піднімає важливі питання:
- Хто несе відповідальність за несправності в автономних транспортних засобах?
- Які права має пасажир у таких ситуаціях?
- Чи зобов’язаний користувач автономного транспортного засобу вчиняти певні дії в екстрених ситуаціях?
- Які зобов’язання повинен виконувати виробник у такій ситуації?
Обов’язки виробника та оператора
У випадку Waymo проблему «зациклення» було вирішено за допомогою оновлення програмного забезпечення, що може свідчити про те, що несправність була спричинена алгоритмічною помилкою. Однак виникає питання, чи можна розглядати такі помилки як класичні дефекти продукту, і якщо так, то хто повинен нести відповідальність: виробник програмного забезпечення? Оператор автопарку Waymo?
Нормативно-правова база
- У Європейському Союзі питання, пов’язані з автономними транспортними засобами, регулюються, серед іншого, Регламентом до Закону про ШІ, Директивою про відповідальність за дефектну продукцію або місцевими законами про дорожній рух і цивільну відповідальність.
Закон про штучний інтелект у статті 43 вимагає від постачальників систем штучного інтелекту проводити оцінку ризиків і контролювати роботу своїх продуктів, крім того, згідно зі статтею 50 Закону про штучний інтелект, користувач повинен бути поінформований щоразу, коли він/вона взаємодіє з системою штучного інтелекту.
Крім того, у розділі 3 Закону про ШІ можна знайти зобов’язання провайдерів і користувачів систем ШІ з високим ступенем ризику тощо.
З іншого боку, у США подібні зобов’язання поширюються лише на державний сектор і федеральні агентства відповідно до Виконавчого наказу 14091, підписаного президентом Джо Байденом у 2023 році, який стосується відповідального розвитку штучного інтелекту. У приватному секторі відповідальне використання ШІ, включно з інформуванням користувачів про взаємодію з ШІ-системою, є радше предметом належної практики та етичних стандартів, ніж правового регулювання. Однак існує громадський і правовий тиск на великі технологічні платформи, такі як Google або OpenAI, щоб вони застосовували такі ж стандарти прозорості, як і державні організації. Список організацій, які підписали відкритий лист, що зобов’язує будувати етичний штучний інтелект у США, можна знайти за посиланням www.nist.gov/aisi. Waymo не входить до цього списку.
Права пасажирів – захист прав споживачів
Вищезгаданий інцидент також демонструє необхідність створення стандартів комунікації та підтримки пасажира в екстрених ситуаціях, особливо через емоційну шкоду, яка може виникнути в такій ситуації.
Випадок з Майком Джонсом є не лише технологічним курйозом, але й матеріалом для більш глибоких роздумів про правове регулювання у сфері ШІ та автономних технологій.
Якщо ви зацікавлені в юридичному аналізі автономних технологій або маєте питання щодо відповідності вашого продукту Закону про ШІ, запрошуємо вас зв’язатися з нами. Разом ми зможемо підготувати юридичні рішення, адаптовані до технологічної реальності, що динамічно змінюється.
Potrzebujesz pomocy w tym temacie?
Напишіть нашому експерту
Статті в цій категорії
ChatGPT в центрі суперечок. Вибух кібер-трака в Лас-Вегасі
ChatGPT в центрі суперечок. Вибух кібер-трака в Лас-ВегасіГороскоп 2025 – Дізнайтеся, який рік прогнозує штучний інтелект і як люди різних знаків зодіаку будуть його використовувати
Гороскоп 2025 – Дізнайтеся, який рік прогнозує штучний інтелект і як люди різних знаків зодіаку будуть його використовуватиCivilization VII – LLM-моделі розкривають секрети заголовного треку
Civilization VII – LLM-моделі розкривають секрети заголовного трекуЧи можемо ми захистити наші дані в моделях LLM (ШІ), таких як ChatGPT?
Чи можемо ми захистити наші дані в моделях LLM (ШІ), таких як ChatGPT?Suno AI – ваш особистий композитор і співак у світі штучного інтелекту
Suno AI – ваш особистий композитор і співак у світі штучного інтелекту