AGI – die vom Menschen geschaffene Maschine. Kann das Recht mit der Technologie mithalten?

27 Februar 2025   /  AI

Dieallgemeine künstliche Intelligenz (AGI) wird zu einer immer realeren Perspektive und stellt Gesetzgeber und Gesellschaft vor noch nie dagewesene Herausforderungen. Der jüngste KI-Aktionsgipfel in Paris und die Konferenz der International Association for Safe and Ethical AI (IASEAI ’25) haben die dringende Notwendigkeit eines umfassenden Rechtsrahmens für diese bahnbrechende Technologie verdeutlicht.

ai

Die Ursprünge der Idee der künstlichen Intelligenz

Das Konzept der künstlichen Intelligenz geht auf die 1950er Jahre zurück, als Pionier-Informatiker begannen, die Möglichkeit zu erforschen, Maschinen zu schaffen, die der menschlichen Intelligenz gleichkommen könnten. Alan Turing, einer der Vorreiter der künstlichen Intelligenz, schlug den Turing-Test vor – ein Experiment, mit dem festgestellt werden sollte, ob eine Maschine ein Gespräch führen kann, das von dem eines Menschen nicht zu unterscheiden ist.

Ein Wendepunkt in der Geschichte der KI war die Dartmouth-Konferenz 1956, auf der der Begriff „künstliche Intelligenz“ offiziell geprägt wurde. Damals wurde vorausgesagt, dass Intelligenz auf menschlichem Niveau schnell erreicht werden würde, aber die technologischen Fortschritte haben mit dem Optimismus der Forscher nicht Schritt gehalten

KI-Krise und Aufschwung

In den 1980er und 1990er Jahren änderte sich die Herangehensweise an die künstliche Intelligenz. Die Forschung konzentrierte sich auf engere Anwendungen der KI, wie z. B. Expertensysteme, und die Idee der AGI rückte in den Hintergrund. Erst die rasante Entwicklung von Rechentechnologien, Big Data und Deep Learning im 21. Jahrhundert hat die Aufmerksamkeit der Forscher wieder auf das Thema der allgemeinen künstlichen Intelligenz gelenkt.

AI

Was ist AGI?

Im Gegensatz zu den derzeitigen KI-Systemen verfügt die AGI über das Potenzial, ein breites Spektrum an intellektuellen Aufgaben auf einem mit dem Menschen vergleichbaren Niveau auszuführen. Diese Vielseitigkeit bringt sowohl große Chancen als auch ernsthafte Risiken mit sich, die angemessen geregelt werden müssen.

Derzeit gibt es keine rechtliche Definition für den Betrieb von AGI, aber angesichts der rasanten Entwicklung der KI-Technologie in naher Zukunft ist es wahrscheinlich, dass eine solche geschaffen werden muss.

Viele Unternehmen und Organisationen versuchen bereits, AGI zu definieren. OpenAI hat z. B. eine Definition von AGI und fünf Untersuchungsebenen für das Jahr 2024 erstellt.

Wie von OpenAI vereinbart:

Heutige Chatbots, wie ChatGPT, befinden sich auf der ersten Stufe der Entwicklung.

Laut OpenAI nähert man sich der zweiten Stufe, d. h. einem System, das in der Lage ist, grundlegende Probleme auf dem Niveau eines promovierten Menschen zu lösen.

Die dritte Stufe ist die künstliche Intelligenz, die als Agent agiert und im Namen des Benutzers Entscheidungen treffen und Aufgaben ausführen kann.

Auf der vierten Stufe erreicht die künstliche Intelligenz die Fähigkeit, neue Innovationen zu schaffen.

Die fünfte, höchste Stufe bezieht sich auf KI, die die Arbeit ganzer Organisationen von Menschen übernehmen kann.

OpenAI hat AGI bereits als „hochgradig autonomes System beschrieben, das den Menschen bei den meisten Aufgaben von hohem wirtschaftlichen Wert übertrifft“.

Stargate Project

Stargate-Projekt

Eines der ehrgeizigsten AGI-Vorhaben ist das Projekt Stargate, das eine Investition von 500 Milliarden Dollar in die Entwicklung der KI-Infrastruktur in den USA vorsieht. Das Hauptziel besteht darin, die Position der USA als führendes Land im Bereich der künstlichen Intelligenz zu stärken, Hunderttausende von Arbeitsplätzen zu schaffen und globale wirtschaftliche Vorteile zu generieren.

KI hat das Potenzial, eine Vielzahl von Aufgaben zu übernehmen, für die bisher menschliche Kreativität und Anpassungsfähigkeit erforderlich waren.

Lesen Sie mehr über Stargate:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Warum ist die Regulierung von AGI so wichtig? Expertenmeinungen

Während der IASEAI ’25 in Paris und des AI Action Summit betonten Experten die Notwendigkeit einer umfassenden Regulierung von AGI.

  • Dr. Szymon Łukasik (NASK) wies darauf hin, dass das Gesetz mit dem Innovationstempo Schritt halten und gleichzeitig die Sicherheit gewährleisten muss.
  • Prof. Stuart Russell sprach sich für die Einführung verbindlicher Schutzmaßnahmen aus, um zu verhindern, dass AGI auf schädliche Weise genutzt werden.
  • Joseph Stiglitz wies auf die Notwendigkeit hin, gesellschaftliche Interessen im Gesetzgebungsverfahren zu berücksichtigen.
  • Max Tegmark vom Future of Life Institute betonte unterdessen die Bedeutung der internationalen Zusammenarbeit, insbesondere zwischen den USA und China. Nur ein globaler Ansatz wird eine wirksame Regulierung der AGI-Entwicklung ermöglichen.

AGI

Mit AGI verbundene Risiken

Viele Experten äußerten in Paris ihre Besorgnis über die Entwicklung der KI, die ihrer Meinung nach sehr schnell voranschreitet; nach Ansicht einiger Experten werden AGI bereits in den nächsten 10 Jahren entstehen. Die wichtigsten Fragen in Bezug auf AGI waren:

  • Kann AGI selbständig Regeln ändern, um ihre Ziele zu erreichen?
  • Wie sollten die Ausweichmechanismen der AGI aussehen?
  • Wie kann sichergestellt werden, dass die Ziele der KI nicht von den Interessen der Menschheit abweichen?

Forscher haben bereits nachgewiesen, dass ein Modell, das ein bestimmtes Ziel hat, z. B. ein Spiel zu gewinnen, in der Lage ist, seine Regeln zu ändern, um zu gewinnen. In Anbetracht dieser Tatsache ist es notwendig, die Ziele eines KI-Systems so zu modellieren, dass sie nicht von den Interessen der Menschheit abweichen.

Diese Überlegungen und Vorschläge zielen darauf ab, einen rechtlichen Rahmen und Standards zu schaffen, die eine sichere und ethische Entwicklung von KI ermöglichen, ohne den technologischen Fortschritt zu behindern. Die Experten sind sich einig, dass die Regelungen umfassend sein und sowohl die technischen Aspekte als auch die sozialen Auswirkungen der AGI-Entwicklung berücksichtigen sollten. Daher ist die internationale Zusammenarbeit der Schlüssel zur Schaffung einheitlicher Sicherheits- und Ethikstandards.

Transparenz und Sicherheitsmechanismen

Transparenz und Sicherheitsmechanismen sind weitere wichtige Aspekte, die in künftige Vorschriften aufgenommen werden müssen. Professor Steward Russell sprach sich dafür aus, dass Unternehmen, die KI entwickeln, gesetzlich verpflichtet werden sollten, Schutzmaßnahmen gegen eine schädliche Nutzung ihrer Technologie zu ergreifen. Experten schlagen auch eine gesetzliche Verpflichtung zur Notabschaltung von KI-Modellen und die Schaffung von Standards für die Prüfung von Schutzmaßnahmen vor.

Im Zusammenhang mit Notabschaltungsmechanismen für KI-Modelle gibt es zwei wichtige ISO-Normen, die sich mit diesem Thema befassen:

  • ISO 13850 ist eine Norm für die Notabschaltfunktion von Maschinen. Obwohl sie sich nicht direkt mit KI-Modellen befasst, legt sie allgemeine Grundsätze für die Gestaltung von Not-Aus-Mechanismen fest, die potenziell auch auf KI-Systeme angewendet werden können. Die Norm betont, dass die Not-Aus-Funktion jederzeit verfügbar und betriebsbereit sein sollte und dass ihre Aktivierung Vorrang vor allen anderen Funktionen haben sollte;
  • ISO/IEC 42001 hingegen ist eine neuere, im Dezember 2023 veröffentlichte Norm, die sich direkt mit KI-Managementsystemen befasst. Sie deckt umfassendere Aspekte des KI-Risikomanagements ab, darunter die Bewertung von KI-Risiken und -Auswirkungen sowie das Lebenszyklusmanagement von KI-Systemen.

Nach ISO/IEC 42001 müssen Organisationen Prozesse zur Identifizierung, Analyse, Bewertung und Überwachung der mit KI-Systemen verbundenen Risiken während des gesamten Lebenszyklus des Managementsystems einführen. Diese Norm betont die kontinuierliche Verbesserung und die Aufrechterhaltung hoher Standards bei der Entwicklung von KI-Systemen.

Es ist erwähnenswert, dass diese Normen zwar eine Orientierungshilfe bieten, aber spezifische Ausweichmechanismen für fortgeschrittene KI-Systeme wie AGI international noch erforscht und diskutiert werden. Experten betonen, dass mit der Entwicklung immer fortschrittlicherer KI-Systeme die herkömmlichen Abschaltmethoden möglicherweise nicht mehr ausreichen, so dass andere Standards und Lösungen entwickelt werden müssen.

Sztuczna inteligencja

Lesen Sie mehr über KI:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

AGI-Regulierung und Cybersicherheit

AGI können Schwachstellen schneller erkennen und ausnutzen als menschliche oder aktuelle KI-Systeme. Daher sollte die Regulierung von AGI Folgendes umfassen:

  • Verhinderung der Nutzung von AGI für Cyberangriffe.
  • Standardisierung der Sicherheit von AGI-Systemen, um das Risiko der Übernahme durch böswillige Akteure zu verringern.
  • Festlegung der rechtlichen Haftung im Falle von AGI-bezogenen Vorfällen.

Interdisziplinärer Ansatz für die Rechtsetzung

Die Entwicklung von AGI erfordert einen interdisziplinären Ansatz, der Folgendes umfasst:

  • Zusammenarbeit von Juristen mit KI-Experten, Ethikern und Wirtschaftswissenschaftlern.
  • Globale Regelungen zum Schutz der Menschenrechte und der Privatsphäre.
  • Transparenz der AGI-Entwicklung und der Kontrollmechanismen.

Ein proaktiver rechtlicher Ansatz kann AGI sicher und vorteilhaft für die gesamte Menschheit machen, ohne den technologischen Fortschritt zu blockieren.

AGI ist eine Technologie mit enormem Potenzial, aber auch ernsthaften Risiken. Es ist von entscheidender Bedeutung, einen rechtlichen Rahmen und Standards zu schaffen, die eine sichere Entwicklung ermöglichen. Internationale Zusammenarbeit und ein interdisziplinärer Ansatz sind der Schlüssel, um sicherzustellen, dass AGI der Menschheit dient und keine Risiken birgt.

Podziel się

Podziel się

Brauchen Sie Hilfe zu diesem Thema?

Schreiben Sie an unseren Experten

Grzegorz Leśniewski

Managing Partner, Rechtsanwalt

+48 531 871 707 Kontakt

Artikel in dieser Kategorie

Ab dem 2. Februar 2025 gelten die Artikel 1-5 des AI-Gesetzes, deren Nichteinhaltung mit hohen Strafen geahndet werden kann

AI

Mehr
Ab dem 2. Februar 2025 gelten die Artikel 1-5 des AI-Gesetzes, deren Nichteinhaltung mit hohen Strafen geahndet werden kann

DeepSeek – Chinas Open-Source-KI. Hat Hongkong eine Chance, OpenAI zu schlagen?

AI

Mehr
DeepSeek – Chinas Open-Source-KI. Hat Hongkong eine Chance, OpenAI zu schlagen?

Und der Oscar geht an … AI Brody

AI

Mehr
Und der Oscar geht an … AI Brody

BREAKING Die neue Durchführungsverordnung von Präsident Trump

AI

Mehr
BREAKING Die neue Durchführungsverordnung von Präsident Trump

GPT-Chat funktioniert nicht. Tausende von Anfragen von Nutzern

AI

Mehr
GPT-Chat funktioniert nicht. Tausende von Anfragen von Nutzern
Mehr

Kontakt

Habe Fragen?siehe Telefon+48 663 683 888
siehe E-Mail

Büro in Breslau

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Büro in Warschau

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Hallo User,
bist du schon im Newsletter?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten