Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилей

13 января 2025   /  AI

В эпоху стремительного развития технологий искусственного интеллекта мы все чаще сталкиваемся с вопросами не только о его эффективности, но и о юридических проблемах и ответственности за ущерб, причиненный системами ИИ.
Громкое дело Майка Джонса, технологического предпринимателя из Лос-Анджелеса, который чуть не опоздал на самолет, потому что его «угнал автономный автомобиль» из-за сбоя в его автомобиле Waymo, — прекрасный пример проблем регулирования в области искусственного интеллекта и автономных технологий.
Как выразился сам Майк Джонс, «я стал собственным примером».

Pojazd autonomiczny

Инцидент и его последствия

Джонс оказался «заперт» в автомобиле Waymo, который несколько минут кружил по парковке, не реагируя на команды ни пользователя, поданные через приложение, ни представителя компании. Майк не знал, был ли этот представитель системой искусственного интеллекта или человеком, и не был поставлен в известность. Несмотря на то, что ситуация в итоге была взята под контроль и пользователь смог успеть на свой рейс благодаря задержке самолета, этот случай поднимает важные вопросы:

  • Кто несет ответственность за неисправности в автономных транспортных средствах?
  • Какими правами обладает пассажир в таких ситуациях?
  • Обязан ли пользователь автономного транспортного средства предпринимать определенные действия в чрезвычайных ситуациях?
  • Какие обязательства должен выполнять производитель в такой ситуации?

Обязанности производителя и оператора

В случае с Waymo проблема «зацикливания» была решена с помощью обновления программного обеспечения, что может свидетельствовать о том, что неисправность была вызвана алгоритмической ошибкой. Однако возникает вопрос, можно ли рассматривать такие ошибки как классические дефекты продукта, и если да, то кто должен нести ответственность: производитель программного обеспечения? Оператор автопарка Waymo?

Pojazd autonomiczny

Правовая база

  • В Европейском союзе вопросы, связанные с автономными транспортными средствами, регулируются, в частности, Законом об искусственном интеллекте, Директивой об ответственности за дефектные изделия или местными законами о дорожном движении и гражданской ответственности.

Закон обискусственном интеллекте в статье 43 требует от поставщиков систем искусственного интеллекта проводить оценку рисков и контролировать работу своих продуктов, кроме того, согласно статье 50 Закона об искусственном интеллекте, пользователь должен быть проинформирован каждый раз, когда он взаимодействует с системой искусственного интеллекта.

Кроме того, в разделе 3 Закона об искусственном интеллекте можно найти обязательства поставщиков и пользователей систем искусственного интеллекта с высоким уровнем риска и другие.

В США же аналогичные обязательства распространяются только на государственный сектор и федеральные агентства в соответствии с исполнительным указом 14091, подписанным президентом Джо Байденом в 2023 году, который касается ответственного развития искусственного интеллекта. В частном секторе ответственное использование ИИ, включая информирование пользователей о взаимодействии с системой ИИ, является скорее предметом надлежащей практики и этических норм, чем правового регулирования. Однако общественность и правовые органы вынуждают крупные технологические платформы, такие как Google или OpenAI, применять такие же стандарты прозрачности, как и государственные организации. Список организаций, подписавших открытое письмо с обязательством создать этичный искусственный интеллект в США, можно найти на сайте www.nist.gov/aisi. Waymo не входит в этот список.

AI

Права пассажиров — защита прав потребителей

Вышеупомянутый инцидент также демонстрирует необходимость создания стандартов коммуникации и поддержки пассажира в чрезвычайных ситуациях, особенно в связи с эмоциональным ущербом, который может возникнуть в такой ситуации.

Случай с Майком Джонсом — это не только технологический курьез, но и материал для более глубокого осмысления правового регулирования в области ИИ и автономных технологий.

Если вы заинтересованы в юридическом анализе автономных технологий или у вас есть вопросы о соответствии вашего продукта Закону об искусственном интеллекте, мы приглашаем вас связаться с нами. Вместе мы сможем подготовить правовые решения, учитывающие динамично меняющуюся технологическую реальность.

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишите нашему эксперту

Матеуш Боркевич

УПРАВЛЯЮЩИЙ ПАРТНЕР, АДВОКАТ

+48 663 683 888 Связаться с

Статьи в этой категории

ChatGPT в центре разногласий. Взрыв кибертрака в Лас-Вегасе

AI

подробнее
ChatGPT в центре разногласий. Взрыв кибертрака в Лас-Вегасе

Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать

AI

подробнее
Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать

Civilization VII — LLM-модели раскрывают секреты заглавного трека

AI

подробнее
Civilization VII — LLM-модели раскрывают секреты заглавного трека

Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?

AI

подробнее
Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?

В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».

AI

подробнее
В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».
подробнее

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten