ChatGPT в центре разногласий. Взрыв кибертрака в Лас-Вегасе

13 января 2025   /  AI

Взрыв кибертрака Tesla у отеля Trump International в Лас-Вегасе потряс общественность. По данным властей, виновником трагедии оказался 37-летний Мэтью Ливелсбергер, солдат спецназа, который использовал искусственный интеллект, в том числе ChatGPT, для планирования атаки во время отпуска в США. Инцидент, в результате которого солдат погиб, а семь человек получили ранения, поднимает серьезные вопросы об ответственности за использование технологий искусственного интеллекта.

Eksplozja samochodu cybertruck

ChatGPT и роль искусственного интеллекта в планировании атак

По данным городской полиции Лас-Вегаса, Ливелсбергер использовал ChatGPT для получения информации о конструкции взрывных устройств и организации атаки. Власти не раскрыли подробностей полученных ответов, но было отмечено, что ИИ смог предоставить информацию, основанную на общедоступных источниках в интернете.

В компании заявили, что ChatGPT предоставлял только общедоступную в интернете информацию и предупреждал о вредной или незаконной деятельности. OpenAI сотрудничает с правоохранительными органами в рамках расследования.

OpenAI, разработчик ChatGPT, выразил сожаление по поводу использования своего инструмента в этом инциденте. Компания подчеркнула, что модели искусственного интеллекта разработаны таким образом, чтобы отказывать во вредных инструкциях, сводя к минимуму потенциально опасный контент. OpenAI заявила CNN, что компания «опечалена этим инцидентом и желает, чтобы инструменты ИИ использовались ответственно».

Ход трагических событий

Взрыв произошел, когда Cybertruck был припаркован перед входом в отель. На камерах видеонаблюдения видно, как Ливельсбергер достает канистру с топливом и обливает им автомобиль. В автомобиле находилась бомба или самодельное взрывное устройство, которое было приведено в действие. За несколько минут до этого Ливельсбергер застрелился в машине, что подтвердило вскрытие, а его личность была установлена по ДНК и татуировкам.

Власти также обнаружили в телефоне солдата шестистраничный манифест, который проливает свет на мотивы его поступков. Агент ФБР Спенсер Эванс назвал произошедшее «трагическим случаем самоубийства награжденного ветерана, страдавшего посттравматическим стрессовым расстройством и другими проблемами».

Предположения о сопутствующих инцидентах

Взрыв в Лас-Вегасе был не единственным подобным инцидентом. Аналогичный инцидент произошел в Новом Орлеане с участием другого автомобиля, также арендованного с помощью приложения Turo. Хотя власти расследуют возможную связь между этими инцидентами, на данный момент четких доказательств связи нет.

ИИ и этические проблемы

Эти события вновь поднимают вопросы об ответственности разработчиков технологий ИИ и необходимости регулирования в этой области. Как подчеркнул шериф Кевин Макмахилл, «искусственный интеллект меняет правила игры», что и продемонстрировал этот трагический инцидент. С развитием искусственного интеллекта становится все более важным введение соответствующих мер предосторожности, чтобы предотвратить использование технологии в преступных целях.

Samochód cybertruck

Как это связано с чатботом GPT?

OpenAI в январе 2024 года изменила условия использования своих больших языковых моделей GPT, в том числе — знаменитого чатбота ChatGPT. С тех пор его можно использовать в военных и боевых целях.

Об изменении правил использования больших языковых моделей OpenAI первым узналIntercept. Как сообщает издание, до 10 января устав OpenAI запрещал использовать его языковые модели для «деятельности, связанной с высоким риском причинения физического вреда, включая разработку оружия, военные и боевые приложения».

Интересно, что изменение этого положения произошло в тот момент, когдаOpenAI начала сотрудничать с Министерством обороны США. Как сообщает CNBC, вице-президент OpenAI по глобальным вопросам Анна Маканжу и генеральный директор Сэм Альтман в интервью Bloomberg House на Всемирном экономическом форуме заявили, что сотрудничество с американским ведомством будет включать работу над инструментами искусственного интеллекта, используемыми для кибербезопасности с открытым исходным кодом.

Sztuczna inteligencja

Как ChatGPT поддерживает вооруженные силы

Кроме того, в декабре 2024 года Open AI ChatGPT подписал соглашение о сотрудничестве с компанией Anduril, специализирующейся на беспилотных системах и робототехнике для вооруженных сил США. Целью этого сотрудничества является разработка передовой системы искусственного интеллекта для вооруженных сил США.

В рамках сотрудничества OpenAI будет разрабатывать программное обеспечение для систем, предназначенных для борьбы с беспилотниками, а Anduril предоставит свою базу данных и опыт в создании беспилотников и военных систем. Ожидается, что планируемая система искусственного интеллекта будет способна распознавать, идентифицировать и оценивать воздушные угрозы и немедленно реагировать на них — без необходимости вмешательства человека.

Prawo aI

Право и использование искусственного интеллекта и ChatGPT в военных целях

Польша и Европейский союз

Являясь членом Европейского союза, Польша обязана соблюдать законодательство ЕС, такое как Закон об искусственном интеллекте (Закон об ИИ). Закон об ИИ подчеркивает запрет на использование систем ИИ в целях, нарушающих права человека, что может ограничить некоторые военные применения. Кроме того, «организация, использующая систему искусственного интеллекта в целях, не связанных с военными, оборонными или национальными целями безопасности, должна обеспечить, чтобы система искусственного интеллекта … соответствовала Закону обискусственном интеллекте , если только система уже не соответствует ему». Список запрещенных видов практики приведен в главе II Закона об ИИ.

Положения Закона об искусственном интеллекте

Вчитавшись в текст Закона об искусственном интеллекте, можно найти следующее положение:

(24) «Если и в той степени, в которой системы искусственного интеллекта продаются, вводятся в эксплуатацию или используются с модификациями или без них — в военных, оборонных целях или в целях национальной безопасности, эти системы должны быть исключены из сферы действия данного постановления независимо от того, какая организация осуществляет эту деятельность — не имеет значения, например, является ли она государственной или частной организацией».

Создатели Закона об искусственном интеллекте обосновывают этот факт следующим образом:

«В случае военных и оборонных целей такое исключение оправдано как статьей 4(2) TEU, так и спецификой оборонной политики государств-членов и общей оборонной политики Союза, охватываемой разделом V, главой 2 TEU, которые подпадают под действие международного публичного права, что, следовательно, обеспечивает более подходящую правовую основу для регулирования систем ИИ в контексте применения смертоносной силы и других систем ИИ в контексте военной и оборонной деятельности» (…).

Кроме того, в соответствии со статьей 2(3) Закона об искусственном интеллекте

(…) 3.

«Настоящие Правила не применяются к системам ИИ, если и в той мере, в какой они размещаются на рынке, вводятся в эксплуатацию или используются, с модификацией или без нее, исключительно в военных целях, целях обороны или национальной безопасности, независимо от типа субъекта, осуществляющего эту деятельность».

AI Law

Правовая основа военного использования ИИ в Европейском союзе

Таким образом, говоря о правовой основе военного использования ИИ в Европейском союзе, необходимо указать на вышеупомянутое:

Статья 4.(2) TEU

«Союз уважает равенство государств-членов перед Договорами, а также их национальную самобытность, присущую их фундаментальным структурам, политическим и конституционным, включая их региональное и местное самоуправление. Он уважает основные функции государства, в частности те, которые направлены на обеспечение его территориальной целостности, поддержание общественного порядка и защиту национальной безопасности. В частности, национальная безопасность является исключительной обязанностью каждого государства-члена».

Таким образом, согласно законодательству Европейского союза (AI Act), можно использовать системы искусственного интеллекта, но в данном контексте «в военных, оборонных целях или в целях национальной безопасности». А также «В случае целей национальной безопасности (…) это оправдано как тем, что национальная безопасность является исключительной ответственностью государств-членов в соответствии со статьей 4(2) TEU, так и тем, что деятельность в области национальной безопасности имеет специфический характер, связана с особыми оперативными потребностями и что к ней применяются особые национальные правила».

В Польше также разрабатываются первые стратегии, связанные с использованием искусственного интеллекта в обороне. Как указано в «Стратегии министерства обороны по искусственному интеллекту до 2039 года» от августа 2024 года.

«К 2039 году использование современных технологий, в том числе искусственного интеллекта, станет необходимым условием для того, чтобы польские вооруженные силы могли эффективно осуществлять сдерживание и оборону. Системы искусственного интеллекта будут играть значительную роль в военных операциях, что приведет к революции в управлении и проведении военных операций в будущей оцифрованной боевой среде. Его разностороннее применение не только повлияет на оперативный темп и эффективность использования сил и средств, но и создаст новые этические и правовые проблемы».

Использование ИИ в военных операциях в Польше будет включать в себя:

  • Автономные боевые системы: Проведение операций без непосредственного участия человека, выполнение разведывательных, наступательных и оборонительных задач с большей точностью, минимизация рисков для личного состава.
  • Анализ разведданных: Обработка больших объемов информации, выявление закономерностей, оценка действий противника, улучшение планирования и проведения операций.
  • Оптимизация логистики: Управление ресурсами, сокращение времени ремонта, планирование маршрутов и прогнозирование потребностей в снабжении для улучшения поддержки подразделений.
  • Системы киберзащиты: быстрое выявление и нейтрализация киберугроз, защита военной инфраструктуры и данных.
  • Моделирование и обучение: Реалистичная среда обучения и индивидуальные пути развития для поддержки подготовки солдат и тестирования стратегий.
  • Поддержка принятия решений: Анализ сценариев и рекомендации для повышения скорости и точности принятия решений командирами.
  • Электронное обучение и управление талантами: Разработка индивидуальных маршрутов обучения, адаптация материалов и выявление талантов.

Wojsko sztuczna inteligencja

Использование ИИ в военных целях в Соединенных Штатах Америки

США, в свою очередь, лидируют в разработке систем ИИ для военных целей. Многие агентства, включая DARPA (Defense Advanced Research Projects Agency), работают над созданием автономных военных систем.

Однако в США нет единого законодательства, регулирующего использование ИИ в оборонном секторе. Тем не менее, такие законодательные акты, как Закон о полномочиях в области национальной обороны, включают положения о финансировании и разработке автономных военных систем. Официальное резюме можно найти здесь.

Принципы DoD (Министерства обороны) — в последние годы Пентагон принял этические принципы для ИИ в армии, подчеркивающие подотчетность, прозрачность и надежность. Системы должны использоваться в соответствии с международным гуманитарным правом. Кроме того, был разработан документ о стратегии развертывания данных, аналитики и ИИ. Эта стратегия была разработана Министерством обороны США для определения стратегии интеграции данных, аналитики и искусственного интеллекта (ИИ) в военную и оперативную деятельность.

Резюме

Взрыв Cybertruck в Лас-Вегасе — это трагическое напоминание о потенциальных опасностях использования ИИ. Хотя эта технология обладает огромным потенциалом для улучшения многих сфер жизни, ее неправильное использование может привести к драматическим последствиям. Очень важно, чтобы ИИ разрабатывался и использовался ответственно, с соблюдением требований безопасности и этики.

Взрыв кибертрака, ИИ в СМИ, Мэтью Ливелсбергер, искусственный интеллект и преступность, ChatGPT под ударом, Tesla Cybertruck Las Vegas, этика ИИ, посттравматическое стрессовое расстройство у ветеранов.

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишите нашему эксперту

Матеуш Боркевич

УПРАВЛЯЮЩИЙ ПАРТНЕР, АДВОКАТ

+48 663 683 888 Связаться с

Статьи в этой категории

Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилей

AI

подробнее
Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилей

Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать

AI

подробнее
Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать

Civilization VII — LLM-модели раскрывают секреты заглавного трека

AI

подробнее
Civilization VII — LLM-модели раскрывают секреты заглавного трека

Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?

AI

подробнее
Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?

В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».

AI

подробнее
В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».
подробнее

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten