ChatGPT в центре разногласий. Взрыв кибертрака в Лас-Вегасе
13 января 2025 / AI
Взрыв кибертрака Tesla у отеля Trump International в Лас-Вегасе потряс общественность. По данным властей, виновником трагедии оказался 37-летний Мэтью Ливелсбергер, солдат спецназа, который использовал искусственный интеллект, в том числе ChatGPT, для планирования атаки во время отпуска в США. Инцидент, в результате которого солдат погиб, а семь человек получили ранения, поднимает серьезные вопросы об ответственности за использование технологий искусственного интеллекта.
ChatGPT и роль искусственного интеллекта в планировании атак
По данным городской полиции Лас-Вегаса, Ливелсбергер использовал ChatGPT для получения информации о конструкции взрывных устройств и организации атаки. Власти не раскрыли подробностей полученных ответов, но было отмечено, что ИИ смог предоставить информацию, основанную на общедоступных источниках в интернете.
В компании заявили, что ChatGPT предоставлял только общедоступную в интернете информацию и предупреждал о вредной или незаконной деятельности. OpenAI сотрудничает с правоохранительными органами в рамках расследования.
OpenAI, разработчик ChatGPT, выразил сожаление по поводу использования своего инструмента в этом инциденте. Компания подчеркнула, что модели искусственного интеллекта разработаны таким образом, чтобы отказывать во вредных инструкциях, сводя к минимуму потенциально опасный контент. OpenAI заявила CNN, что компания «опечалена этим инцидентом и желает, чтобы инструменты ИИ использовались ответственно».
Ход трагических событий
Взрыв произошел, когда Cybertruck был припаркован перед входом в отель. На камерах видеонаблюдения видно, как Ливельсбергер достает канистру с топливом и обливает им автомобиль. В автомобиле находилась бомба или самодельное взрывное устройство, которое было приведено в действие. За несколько минут до этого Ливельсбергер застрелился в машине, что подтвердило вскрытие, а его личность была установлена по ДНК и татуировкам.
Власти также обнаружили в телефоне солдата шестистраничный манифест, который проливает свет на мотивы его поступков. Агент ФБР Спенсер Эванс назвал произошедшее «трагическим случаем самоубийства награжденного ветерана, страдавшего посттравматическим стрессовым расстройством и другими проблемами».
Предположения о сопутствующих инцидентах
Взрыв в Лас-Вегасе был не единственным подобным инцидентом. Аналогичный инцидент произошел в Новом Орлеане с участием другого автомобиля, также арендованного с помощью приложения Turo. Хотя власти расследуют возможную связь между этими инцидентами, на данный момент четких доказательств связи нет.
ИИ и этические проблемы
Эти события вновь поднимают вопросы об ответственности разработчиков технологий ИИ и необходимости регулирования в этой области. Как подчеркнул шериф Кевин Макмахилл, «искусственный интеллект меняет правила игры», что и продемонстрировал этот трагический инцидент. С развитием искусственного интеллекта становится все более важным введение соответствующих мер предосторожности, чтобы предотвратить использование технологии в преступных целях.
Как это связано с чатботом GPT?
OpenAI в январе 2024 года изменила условия использования своих больших языковых моделей GPT, в том числе — знаменитого чатбота ChatGPT. С тех пор его можно использовать в военных и боевых целях.
Об изменении правил использования больших языковых моделей OpenAI первым узналIntercept. Как сообщает издание, до 10 января устав OpenAI запрещал использовать его языковые модели для «деятельности, связанной с высоким риском причинения физического вреда, включая разработку оружия, военные и боевые приложения».
Интересно, что изменение этого положения произошло в тот момент, когдаOpenAI начала сотрудничать с Министерством обороны США. Как сообщает CNBC, вице-президент OpenAI по глобальным вопросам Анна Маканжу и генеральный директор Сэм Альтман в интервью Bloomberg House на Всемирном экономическом форуме заявили, что сотрудничество с американским ведомством будет включать работу над инструментами искусственного интеллекта, используемыми для кибербезопасности с открытым исходным кодом.
Как ChatGPT поддерживает вооруженные силы
Кроме того, в декабре 2024 года Open AI ChatGPT подписал соглашение о сотрудничестве с компанией Anduril, специализирующейся на беспилотных системах и робототехнике для вооруженных сил США. Целью этого сотрудничества является разработка передовой системы искусственного интеллекта для вооруженных сил США.
В рамках сотрудничества OpenAI будет разрабатывать программное обеспечение для систем, предназначенных для борьбы с беспилотниками, а Anduril предоставит свою базу данных и опыт в создании беспилотников и военных систем. Ожидается, что планируемая система искусственного интеллекта будет способна распознавать, идентифицировать и оценивать воздушные угрозы и немедленно реагировать на них — без необходимости вмешательства человека.
Право и использование искусственного интеллекта и ChatGPT в военных целях
Польша и Европейский союз
Являясь членом Европейского союза, Польша обязана соблюдать законодательство ЕС, такое как Закон об искусственном интеллекте (Закон об ИИ). Закон об ИИ подчеркивает запрет на использование систем ИИ в целях, нарушающих права человека, что может ограничить некоторые военные применения. Кроме того, «организация, использующая систему искусственного интеллекта в целях, не связанных с военными, оборонными или национальными целями безопасности, должна обеспечить, чтобы система искусственного интеллекта … соответствовала Закону обискусственном интеллекте , если только система уже не соответствует ему». Список запрещенных видов практики приведен в главе II Закона об ИИ.
Положения Закона об искусственном интеллекте
Вчитавшись в текст Закона об искусственном интеллекте, можно найти следующее положение:
(24) «Если и в той степени, в которой системы искусственного интеллекта продаются, вводятся в эксплуатацию или используются с модификациями или без них — в военных, оборонных целях или в целях национальной безопасности, эти системы должны быть исключены из сферы действия данного постановления независимо от того, какая организация осуществляет эту деятельность — не имеет значения, например, является ли она государственной или частной организацией».
Создатели Закона об искусственном интеллекте обосновывают этот факт следующим образом:
«В случае военных и оборонных целей такое исключение оправдано как статьей 4(2) TEU, так и спецификой оборонной политики государств-членов и общей оборонной политики Союза, охватываемой разделом V, главой 2 TEU, которые подпадают под действие международного публичного права, что, следовательно, обеспечивает более подходящую правовую основу для регулирования систем ИИ в контексте применения смертоносной силы и других систем ИИ в контексте военной и оборонной деятельности» (…).
Кроме того, в соответствии со статьей 2(3) Закона об искусственном интеллекте
(…) 3.
«Настоящие Правила не применяются к системам ИИ, если и в той мере, в какой они размещаются на рынке, вводятся в эксплуатацию или используются, с модификацией или без нее, исключительно в военных целях, целях обороны или национальной безопасности, независимо от типа субъекта, осуществляющего эту деятельность».
Правовая основа военного использования ИИ в Европейском союзе
Таким образом, говоря о правовой основе военного использования ИИ в Европейском союзе, необходимо указать на вышеупомянутое:
«Союз уважает равенство государств-членов перед Договорами, а также их национальную самобытность, присущую их фундаментальным структурам, политическим и конституционным, включая их региональное и местное самоуправление. Он уважает основные функции государства, в частности те, которые направлены на обеспечение его территориальной целостности, поддержание общественного порядка и защиту национальной безопасности. В частности, национальная безопасность является исключительной обязанностью каждого государства-члена».
Таким образом, согласно законодательству Европейского союза (AI Act), можно использовать системы искусственного интеллекта, но в данном контексте «в военных, оборонных целях или в целях национальной безопасности». А также «В случае целей национальной безопасности (…) это оправдано как тем, что национальная безопасность является исключительной ответственностью государств-членов в соответствии со статьей 4(2) TEU, так и тем, что деятельность в области национальной безопасности имеет специфический характер, связана с особыми оперативными потребностями и что к ней применяются особые национальные правила».
В Польше также разрабатываются первые стратегии, связанные с использованием искусственного интеллекта в обороне. Как указано в «Стратегии министерства обороны по искусственному интеллекту до 2039 года» от августа 2024 года.
«К 2039 году использование современных технологий, в том числе искусственного интеллекта, станет необходимым условием для того, чтобы польские вооруженные силы могли эффективно осуществлять сдерживание и оборону. Системы искусственного интеллекта будут играть значительную роль в военных операциях, что приведет к революции в управлении и проведении военных операций в будущей оцифрованной боевой среде. Его разностороннее применение не только повлияет на оперативный темп и эффективность использования сил и средств, но и создаст новые этические и правовые проблемы».
Использование ИИ в военных операциях в Польше будет включать в себя:
- Автономные боевые системы: Проведение операций без непосредственного участия человека, выполнение разведывательных, наступательных и оборонительных задач с большей точностью, минимизация рисков для личного состава.
- Анализ разведданных: Обработка больших объемов информации, выявление закономерностей, оценка действий противника, улучшение планирования и проведения операций.
- Оптимизация логистики: Управление ресурсами, сокращение времени ремонта, планирование маршрутов и прогнозирование потребностей в снабжении для улучшения поддержки подразделений.
- Системы киберзащиты: быстрое выявление и нейтрализация киберугроз, защита военной инфраструктуры и данных.
- Моделирование и обучение: Реалистичная среда обучения и индивидуальные пути развития для поддержки подготовки солдат и тестирования стратегий.
- Поддержка принятия решений: Анализ сценариев и рекомендации для повышения скорости и точности принятия решений командирами.
- Электронное обучение и управление талантами: Разработка индивидуальных маршрутов обучения, адаптация материалов и выявление талантов.
Использование ИИ в военных целях в Соединенных Штатах Америки
США, в свою очередь, лидируют в разработке систем ИИ для военных целей. Многие агентства, включая DARPA (Defense Advanced Research Projects Agency), работают над созданием автономных военных систем.
Однако в США нет единого законодательства, регулирующего использование ИИ в оборонном секторе. Тем не менее, такие законодательные акты, как Закон о полномочиях в области национальной обороны, включают положения о финансировании и разработке автономных военных систем. Официальное резюме можно найти здесь.
Принципы DoD (Министерства обороны) — в последние годы Пентагон принял этические принципы для ИИ в армии, подчеркивающие подотчетность, прозрачность и надежность. Системы должны использоваться в соответствии с международным гуманитарным правом. Кроме того, был разработан документ о стратегии развертывания данных, аналитики и ИИ. Эта стратегия была разработана Министерством обороны США для определения стратегии интеграции данных, аналитики и искусственного интеллекта (ИИ) в военную и оперативную деятельность.
Резюме
Взрыв Cybertruck в Лас-Вегасе — это трагическое напоминание о потенциальных опасностях использования ИИ. Хотя эта технология обладает огромным потенциалом для улучшения многих сфер жизни, ее неправильное использование может привести к драматическим последствиям. Очень важно, чтобы ИИ разрабатывался и использовался ответственно, с соблюдением требований безопасности и этики.
Взрыв кибертрака, ИИ в СМИ, Мэтью Ливелсбергер, искусственный интеллект и преступность, ChatGPT под ударом, Tesla Cybertruck Las Vegas, этика ИИ, посттравматическое стрессовое расстройство у ветеранов.
Potrzebujesz pomocy w tym temacie?
Напишите нашему эксперту
Статьи в этой категории
Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилей
Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилейГороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать
Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использоватьCivilization VII — LLM-модели раскрывают секреты заглавного трека
Civilization VII — LLM-модели раскрывают секреты заглавного трекаМожем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?
Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».
В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».