ChatGPT im Mittelpunkt einer Kontroverse. Cybertruck-Explosion in Las Vegas
13 Januar 2025 / AI
Die Explosion des Tesla Cybertrucks vor dem Trump International Hotel in Las Vegas hat die Öffentlichkeit schockiert. Der Täter der Tragödie entpuppte sich als der 37-jährige Matthew Livelsberger, ein Soldat der Special Forces, der während seines Urlaubs in den USA künstliche Intelligenz, darunter ChatGPT, zur Planung eines Anschlags nutzte, wie die Behörden mitteilten. Der Vorfall, der mit dem Tod des Soldaten und sieben Verletzten endete, wirft ernste Fragen zur Verantwortlichkeit für den Einsatz von KI-Technologie auf.
ChatGPT und die Rolle der KI bei der Planung von Anschlägen
Nach Angaben der Las Vegas Metropolitan Police nutzte Livelsberger ChatGPT, um Informationen über den Bau von Sprengsätzen und die Organisation des Anschlags zu erhalten. Die Behörden gaben keine Einzelheiten zu den gegebenen Antworten bekannt, aber es wurde hervorgehoben, dass die KI in der Lage war, Informationen auf der Grundlage öffentlich zugänglicher Quellen im Internet zu liefern.
Das Unternehmen erklärte, dass ChatGPT nur Informationen liefert, die im Internet öffentlich zugänglich sind und vor schädlichen oder illegalen Aktivitäten warnt. OpenAI arbeitet im Rahmen der Ermittlungen mit den Strafverfolgungsbehörden zusammen.
OpenAI, der Entwickler von ChatGPT, drückte sein Bedauern über die Verwendung seines Tools in diesem Vorfall aus. Das Unternehmen betonte, dass die KI-Modelle darauf ausgelegt sind, schädliche Anweisungen zu verweigern und potenziell gefährliche Inhalte zu minimieren. OpenAI erklärte gegenüber CNN, dass das Unternehmen „betrübt über diesen Vorfall ist und sich einen verantwortungsvollen Umgang mit KI-Tools wünscht“.
Der Verlauf der tragischen Ereignisse
Die Explosion ereignete sich, als der Cybertruck vor dem Hoteleingang geparkt war. Videoaufnahmen zeigen, wie Livelsberger einen Benzinkanister herauszieht und das Fahrzeug damit betankt. Das Fahrzeug enthielt eine Bombe oder einen improvisierten Sprengsatz, der zur Explosion gebracht wurde. Wenige Augenblicke zuvor hatte sich Livelsberger im Auto erschossen, was durch eine Autopsie bestätigt wurde, und seine Identität wurde durch DNA und Tätowierungen festgestellt.
Die Behörden entdeckten außerdem ein sechsseitiges Manifest auf dem Telefon des Soldaten, das Aufschluss über die Motive seines Handelns gibt. FBI-Agent Spencer Evans beschrieb den Vorfall als „tragischen Fall von Selbstmord durch einen dekorierten Veteranen, der mit PTBS und anderen Problemen zu kämpfen hatte“.
Spekulationen über verwandte Vorfälle
Die Explosion in Las Vegas war nicht der einzige Vorfall dieser Art. In New Orleans gab es einen ähnlichen Vorfall mit einem anderen Fahrzeug, das ebenfalls über die Turo-App gemietet wurde. Obwohl die Behörden mögliche Verbindungen zwischen diesen Vorfällen untersuchen, gibt es derzeit keine eindeutigen Beweise für einen Zusammenhang.
KI und ethische Herausforderungen
Diese Ereignisse werfen erneut die Frage nach der Verantwortung der Entwickler von KI-Technologien und nach der Notwendigkeit einer Regulierung in diesem Bereich auf. Wie Sheriff Kevin McMahill betonte, ist künstliche Intelligenz ein „game changer“, wie dieser tragische Vorfall zeigt. Mit der Entwicklung der KI wird es immer wichtiger, geeignete Schutzmaßnahmen zu ergreifen, um zu verhindern, dass die Technologie für kriminelle Zwecke eingesetzt wird.
Was hat das mit dem GPT-Chatbot zu tun?
OpenAI änderte im Januar 2024 die Bedingungen für die Nutzung seiner großen GPT-Sprachmodelle, darunter der berühmte ChatGPT-Chatbot. Seitdem kann er für militärische und kriegerische Zwecke verwendet werden.
Die Änderung der Regeln und Vorschriften für die Nutzung der großen Sprachmodelle von OpenAI wurde zuerst vonIntercept aufgegriffen. Wie dort berichtet wird, verbot die Satzung von OpenAI bis zum 10. Januar die Verwendung ihrer Sprachmodelle für „Aktivitäten, die ein hohes Risiko körperlicher Schäden mit sich bringen, einschließlich Waffenentwicklung und militärischer und kriegerischer Anwendungen“.
Interessanterweise änderte sich dieser Standpunkt, alsOpenAI begann, mit dem US-Verteidigungsministerium zusammenzuarbeiten. Wie CNBC berichtet, sagten Anna Makanju, Vizepräsidentin für globale Angelegenheiten von OpenAI, und Sam Altman, CEO, in einem Interview mit Bloomberg House auf dem Weltwirtschaftsforum, dass die Zusammenarbeit mit dem US-Ministerium voraussichtlich auch die Arbeit an Tools für künstliche Intelligenz umfassen wird, die für Open-Source-Cybersicherheit verwendet werden.
Wie ChatGPT die Streitkräfte unterstützt
Darüber hinaus unterzeichnete Open AI ChatGPT im Dezember 2024 eine Kooperationsvereinbarung mit Anduril, einem Unternehmen, das auf unbemannte Systeme und Robotik für die US-Streitkräfte spezialisiert ist. Ziel dieser Partnerschaft ist die Entwicklung eines fortschrittlichen KI-Systems für die US-Streitkräfte.
Im Rahmen der Zusammenarbeit wird OpenAI Software für Systeme zur Bekämpfung von Drohnen entwickeln, während Anduril seine Datenbank und Erfahrung im Bau von Drohnen und militärischen Systemen zur Verfügung stellt. Das geplante KI-System soll in der Lage sein, Bedrohungen aus der Luft zu erkennen, zu identifizieren, zu bewerten und sofort darauf zu reagieren – ohne dass ein menschliches Eingreifen erforderlich ist.
Recht und der Einsatz von AI und ChatGPT für militärische Zwecke
Polen und die Europäische Union
Als Mitgliedstaat der Europäischen Union ist Polen verpflichtet, die EU-Gesetzgebung wie das Gesetz über künstliche Intelligenz (KI-Gesetz) einzuhalten. Das KI-Gesetz betont das Verbot der Nutzung von KI-Systemen für Zwecke, die die Menschenrechte verletzen, was bestimmte militärische Anwendungen einschränken kann. Darüber hinaussollte „eine Einrichtung, die ein KI-System für andere Zwecke als für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit einsetzt, sicherstellen, dass das KI-System … mit dem KI-Gesetz übereinstimmt , es sei denn, das System ist bereits konform. Eine Liste der verbotenen Praktiken findet sich in Kapitel II des KI-Gesetzes.
Regelungen im KI-Gesetz
Im Text des AI-Gesetzes findet sich folgende Bestimmung:
(24) „Wenn und soweit KI-Systeme – mit oder ohne Modifikationen – für militärische, verteidigungspolitische oder sicherheitspolitische Zwecke vermarktet, in Betrieb genommen oder genutzt werden, sind diese Systeme vom Anwendungsbereich dieser Verordnung auszunehmen, unabhängig davon, welche Stelle diese Tätigkeiten durchführt – es ist z.B. unerheblich, ob es sich um eine öffentliche oder private Stelle handelt“.
Die Schöpfer des Gesetzes über künstliche Intelligenz begründen dies folgendermaßen:
„Im Falle militärischer und verteidigungspolitischer Zwecke ist eine solche Ausnahme sowohl durch Artikel 4 Absatz 2 EUV als auch durch die Besonderheit der Verteidigungspolitik der Mitgliedstaaten und der gemeinsamen Verteidigungspolitik der Union gerechtfertigt, die unter Titel V Kapitel 2 EUV fallen, der dem Völkerrecht unterliegt und daher einen geeigneteren Rechtsrahmen für die Regulierung von KI-Systemen im Zusammenhang mit der Anwendung tödlicher Gewalt und anderen KI-Systemen im Rahmen militärischer und verteidigungspolitischer Tätigkeiten bietet“ (…).
Außerdem heißt es in Artikel 2 Absatz 3 des KI-Gesetzes
(…) 3.
„Diese Verordnung gilt nicht für KI-Systeme, wenn und soweit sie mit oder ohne Änderung ausschließlich für militärische, verteidigungspolitische oder die nationale Sicherheit betreffende Zwecke in Verkehr gebracht, in Betrieb genommen oder verwendet werden, unabhängig von der Art der Einrichtung, die diese Tätigkeiten ausübt“.
Rechtsgrundlage für den militärischen Einsatz von KI in der Europäischen Union
In Bezug auf die Rechtsgrundlage für den militärischen Einsatz von KI in der Europäischen Union ist also auf das oben Gesagte zu verweisen:
„Die Union achtet die Gleichheit der Mitgliedstaaten vor den Verträgen sowie die nationale Identität der Mitgliedstaaten, die in deren grundlegender politischer und verfassungsrechtlicher Struktur einschließlich ihrer regionalen und kommunalen Selbstverwaltung zum Ausdruck kommt. Sie achtet die wesentlichen Aufgaben des Staates, insbesondere die Wahrung seiner territorialen Unversehrtheit, die Aufrechterhaltung der öffentlichen Ordnung und den Schutz der nationalen Sicherheit. Insbesondere die nationale Sicherheit fällt in die ausschließliche Zuständigkeit der einzelnen Mitgliedstaaten“.
Daher ist es nach dem Recht der Europäischen Union (KI-Gesetz) möglich, Systeme der künstlichen Intelligenz zu nutzen, allerdings in diesem Zusammenhang „für militärische, verteidigungspolitische oder nationale Sicherheitszwecke“. Und weiter: „Im Falle von Zwecken der nationalen Sicherheit (…) ist dies sowohl durch die Tatsache gerechtfertigt, dass die nationale Sicherheit gemäß Artikel 4 Absatz 2 EUV in die ausschließliche Zuständigkeit der Mitgliedstaaten fällt, als auch durch die Tatsache, dass Tätigkeiten im Bereich der nationalen Sicherheit spezifischer Natur sind, spezifische operative Erfordernisse mit sich bringen und dass für sie spezifische nationale Vorschriften gelten“.
Auch in Polen werden derzeit erste Strategien für den Einsatz künstlicher Intelligenz in der Verteidigung entwickelt. So heißt es in der „Strategie des Verteidigungsministeriums für künstliche Intelligenz bis 2039“ vom August 2024
„Bis 2039 wird der Einsatz moderner Technologien, einschließlich künstlicher Intelligenz, eine Voraussetzung für die Fähigkeit der polnischen Streitkräfte sein, Abschreckung und Verteidigung effektiv umzusetzen. Systeme der künstlichen Intelligenz werden bei militärischen Operationen eine wichtige Rolle spielen, was die Art und Weise, wie militärische Operationen im künftigen digitalisierten Kampfumfeld gesteuert und durchgeführt werden, revolutionieren wird. Ihre vielseitigen Anwendungen werden sich nicht nur auf das Einsatztempo und die Effizienz des Einsatzes der Streitkräfte auswirken, sondern auch neue ethische und rechtliche Herausforderungen schaffen“.
Der Einsatz von KI bei militärischen Operationen in Polen wird Folgendes umfassen:
- Autonome Kampfsysteme: Durchführung von Operationen ohne direkte menschliche Beteiligung, Durchführung von Aufklärungs-, Offensiv- und Defensivmissionen mit größerer Präzision, Minimierung der Risiken für das Personal.
- Intelligente Analyse: Verarbeitung großer Informationsmengen, Erkennung von Mustern, Bewertung gegnerischer Aktionen, Verbesserung der Planung und Durchführung von Operationen.
- Optimierung der Logistik: Ressourcenmanagement, Verkürzung der Reparaturzeiten, Routenplanung und Vorwegnahme des Versorgungsbedarfs zur besseren Unterstützung der Einheiten.
- Cyber-Abwehrsysteme: Schnelle Identifizierung und Neutralisierung von Cyber-Bedrohungen, Schutz von militärischer Infrastruktur und Daten.
- Simulationen und Ausbildung: Realistische Trainingsumgebungen und personalisierte Entwicklungspfade zur Unterstützung der Ausbildung von Soldaten und der Erprobung von Strategien.
- Entscheidungshilfe: Szenarioanalyse und Empfehlungen, um die Geschwindigkeit und Genauigkeit der Entscheidungen von Kommandeuren zu erhöhen.
- E-Learning und Talentmanagement: Gestaltung individueller Ausbildungswege, Anpassung von Materialien und Identifizierung von Talenten.
Einsatz von KI für militärische Zwecke in den Vereinigten Staaten von Amerika
Die USA wiederum sind führend in der Entwicklung von KI-Systemen für militärische Zwecke. Viele Agenturen, darunter die DARPA (Defense Advanced Research Projects Agency), arbeiten an autonomen militärischen Systemen.
Allerdings gibt es in den USA keine einheitlichen Rechtsvorschriften für den Einsatz von KI im Verteidigungsbereich. Rechtsvorschriften wie der National Defence Authorisation Act enthalten jedoch Bestimmungen für die Finanzierung und Entwicklung autonomer militärischer Systeme. Eine offizielle Zusammenfassung ist hier zu finden.
Grundsätze des Verteidigungsministeriums (DoD) – in den letzten Jahren hat das Pentagon ethische Grundsätze für KI im Militär verabschiedet, die Rechenschaftspflicht, Transparenz und Zuverlässigkeit betonen. Die Systeme müssen in Übereinstimmung mit dem humanitären Völkerrecht eingesetzt werden. Darüber hinaus wurde ein Strategiepapier für den Einsatz von Daten, Analysen und KI erstellt. Diese Strategie wurde vom US-Verteidigungsministerium entwickelt, um eine Strategie für die Integration von Daten, Analysen und künstlicher Intelligenz (KI) in militärische und operative Aktivitäten festzulegen.
Zusammenfassung
Die Explosion des Cybertrucks in Las Vegas ist eine tragische Erinnerung an die potenziellen Gefahren des Einsatzes von KI. Die Technologie hat zwar ein großes Potenzial, viele Lebensbereiche zu verbessern, ihr Missbrauch kann jedoch dramatische Folgen haben. Es muss unbedingt sichergestellt werden, dass KI verantwortungsvoll und unter Berücksichtigung von Sicherheit und Ethik entwickelt und eingesetzt wird.
Cybertruck-Explosion, KI in den Medien, Matthew Livelsberger, künstliche Intelligenz und Kriminalität, ChatGPT unter Beschuss, Tesla Cybertruck Las Vegas, KI-Ethik, PTSD bei Veteranen.
Brauchen Sie Hilfe zu diesem Thema?
Schreiben Sie an unseren Experten
Artikel in dieser Kategorie
KI-Hijacking: Der Fall Mike Johns und die rechtlichen Risiken autonomer Fahrzeuge
KI-Hijacking: Der Fall Mike Johns und die rechtlichen Risiken autonomer FahrzeugeHoroskop 2025 – Erfahren Sie, welches Jahr die KI für die künstliche Intelligenz vorhersagt und wie Menschen mit unterschiedlichen Sternzeichen sie nutzen werden
Horoskop 2025 – Erfahren Sie, welches Jahr die KI für die künstliche Intelligenz vorhersagt und wie Menschen mit unterschiedlichen Sternzeichen sie nutzen werdenCivilization VII – LLM-Modelle lüften Geheimnisse des Titeltracks
Civilization VII – LLM-Modelle lüften Geheimnisse des TiteltracksKönnen wir unsere Daten in LLM-Modellen (KI) wie ChatGPT sicher aufbewahren?
Können wir unsere Daten in LLM-Modellen (KI) wie ChatGPT sicher aufbewahren?Suno AI – Ihr persönlicher Komponist und Sänger in der Welt der künstlichen Intelligenz
Suno AI – Ihr persönlicher Komponist und Sänger in der Welt der künstlichen Intelligenz