CUDA und die Dominanz von NVIDIA – unsichtbare KI-Infrastruktur außerhalb des Geltungsbereichs der Regulierung?

Im April 2025 überschritt NVIDIA eine Marktkapitalisierung von 2,79 Billionen US-Dollar, wobei seine Aktien innerhalb eines Jahres um über 170 % stiegen und das Unternehmen damit zum drittwertvollsten börsennotierten Unternehmen der Welt hinter Microsoft und Apple wurde und 2024 einen Anteil von 90 % am Markt für KI-Chips erreichte. Obwohl NVIDIA vor wenigen Jahren noch hauptsächlich mit Grafikkarten für Gamer in Verbindung gebracht wurde, ist das Unternehmen heute die Grundlage der globalen digitalen Wirtschaft, die auf künstlicher Intelligenz basiert. Seine GPUs – insbesondere die H100-Serie – sind nicht nur ein strategischer Vorteil für Rechenzentren, sondern auch der Haupttreiber für die Entwicklung von Grundlagenmodellen, darunter die fortschrittlichsten allgemeinen Sprachmodelle wie ChatGPT.

NVIDIA

CUDA – die KI-Engine, die die Spielregeln verändert

Das Herzstück der Transformation von NVIDIA zu einem weltweit führenden Unternehmen im Bereich der künstlichen Intelligenz ist CUDA (Compute Unified Device Architecture), eine proprietäre Programmierplattform, mit der die volle Leistung von GPUs für wissenschaftliche, industrielle und kommerzielle Anwendungen genutzt werden kann. CUDA ist nicht nur eine Technologieebene, sondern eine wichtige Infrastruktur für die Skalierbarkeit und Effizienz von KI-Modellen.

Nicht ohne Grund wird diese Plattform manchmal als „unsichtbares KI-Betriebssystem“ bezeichnet. Sie ist ein Schlüsselelement im Lebenszyklus KI-basierter Systeme: vom Training und der Validierung bis hin zum Einsatz von Modellen in realen Anwendungen. In der Praxis bestimmt CUDA, wie schnell und in welchem Umfang moderne KI-Systeme entwickelt werden können.

GPU vs. CPU – warum sind Grafikprozessoren für künstliche Intelligenz so wichtig?

Im Zusammenhang mit dem Training großer Sprachmodelle und der Verarbeitung riesiger Datenmengen reichen klassische Prozessoren (CPUs) nicht mehr aus. Die wichtigsten Merkmale von GPUs – insbesondere denen von NVIDIA – verschaffen ihnen einen Vorteil in KI-Umgebungen:

  • Parallele Architektur – GPUs wie die NVIDIA H100 enthalten Tausende von Kernen, die die gleichzeitige Verarbeitung großer Datensätze ermöglichen – ideal für die in neuronalen Netzen verwendeten Matrixoperationen.
  • Energieeffizienz – Grafikchips der nächsten Generation bieten eine bis zu 25-mal höhere Energieeffizienz als bisherige Lösungen, was zu niedrigeren Betriebskosten und einer höheren Skalierbarkeit führt.
  • High-Bandwidth-Memory – Technologien wie HBM2 (High Bandwidth Memory) ermöglichen die blitzschnelle Verarbeitung von Terabytes an Daten – unerlässlich für Echtzeit- und kritische Anwendungen.

NVIDIA

Das geschlossene CUDA-Ökosystem – Stärke und Schwäche zugleich

Als geschlossene Lösung bietet CUDA enorme Leistungssteigerungen – bis zu 1.000-mal schneller als noch vor zehn Jahren. Die Tatsache, dass diese Technologie jedoch von einem einzigen Unternehmen kontrolliert wird, gibt Anlass zur Sorge:

  • Technologische Dominanz – Über 80 % der KI-Modelle – darunter alle wichtigen Foundation-Modelle – werden in der CUDA-Umgebung trainiert.
  • Mangel an Alternativen – offene Lösungen wie AMD ROCm und Intel oneAPI haben einen Marktanteil von weniger als 10 %, was hauptsächlich auf eine schwächere Optimierung und die mangelnde vollständige Kompatibilität mit gängigen KI-Bibliotheken zurückzuführen ist.
  • Netzwerkeffekt – je mehr Entwickler CUDA verwenden, desto schwieriger ist es, zu konkurrierenden Lösungen zu wechseln – dies schafft ein geschlossenes Ökosystem, das vom Markt nur schwer ausgeglichen werden kann.

KI-Infrastruktur und europäisches Recht: eine Lücke im KI-Gesetz?

Das KI-Gesetz (EU 2024/1689) ist das erste umfassende Gesetz zur Regulierung des Einsatzes künstlicher Intelligenz in Europa. Es konzentriert sich jedoch hauptsächlich auf die algorithmische Ebene – auf Trainingsdaten, Modelltransparenz und die Risiken ihrer Verwendung.

Die Rechenebene – die Infrastruktur, ohne die diese Systeme nicht existieren können – bleibt hingegen außerhalb seines direkten Geltungsbereichs.

CUDA wird nicht als eigenständiges KI-System klassifiziert, aber sein Einfluss auf die Konformität, Überprüfbarkeit und Sicherheit von KI-Systemen ist unbestreitbar. Ohne die Möglichkeit, den Betrieb der Infrastruktur zu überprüfen – sowohl in Bezug auf die Hardware (Black-Box-GPUs) als auch auf geschlossene Software – ist es schwierig, von einer vollständigen Umsetzung der Grundsätze der Transparenz und Rechenschaftspflicht zu sprechen.

Rechtliche Folgen – Monopol, Abhängigkeit, mangelnde Überprüfbarkeit

Die mangelnde Regulierung im Bereich der Recheninfrastruktur wirft spezifische rechtliche und systemische Fragen auf:

  • Eingeschränkte Überprüfbarkeit – Die Geschlossenheit von CUDA erschwert die Erfüllung der Anforderungen von Artikel 13 des KI-Gesetzes in Bezug auf Transparenz und Überprüfbarkeit.
  • Monopolrisiko – ein Preisanstieg von über 300 % für GPUs zwischen 2020 und 2024 könnte auf einen Missbrauch einer marktbeherrschenden Stellung hindeuten (Artikel 102 AEUV).
  • Mangelnde technologische Souveränität der EU – 98 % der europäischen KI-Rechenzentren verwenden NVIDIA-Technologie, was ernsthafte Fragen hinsichtlich der Unabhängigkeit der Infrastruktur und ihrer Widerstandsfähigkeit gegenüber externen Störungen aufwirft.

NVIDIA

Ist Rechenschaftspflicht ohne Transparenz möglich?

Das KI-Gesetz führt eine Kettenhaftung ein – die Verantwortlichkeiten gelten nicht nur für Systementwickler, sondern auch für Nutzer und Vertreiber. Die Marktrealität zeigt jedoch, dass Endnutzer keine Möglichkeit haben, die von ihnen indirekt genutzte CUDA-Infrastruktur zu bewerten. Es gibt keine technischen Standards oder Anforderungen, die Aufschluss über die Funktionsweise geschlossener Plattformen geben.

Empfehlungen für Regulierungsbehörden und die KI-Branche

Obwohl CUDA nicht offiziell als KI-System klassifiziert ist, sollte es als Komponente anerkannt werden, die die Konformität, Überprüfbarkeit und Sicherheit beeinflusst. Empfehlungen:

  • EC-Leitlinien und KI-Büro Es müssen rechtliche Auslegungen entwickelt werden, die die Auswirkungen von Computing-Plattformen auf KI-Systeme berücksichtigen, wie dies bei Cloud Computing und der DSGVO der Fall ist.
  • Förderung der Technologieneutralität – EU-Technologieunterstützungsprogramme (z. B. Digital Europe) sollten offene, interoperable Technologien bevorzugen.
  • Überarbeitung des Geltungsbereichs des KI-Gesetzes – langfristig sollte eine Aktualisierung des KI-Gesetzes in Betracht gezogen werden, um auch die technologische Infrastruktur als Faktor für die Sicherheit und Konformität von KI-Systemen zu berücksichtigen.

CUDA – technologisches Wunderwerk oder rechtliches Risiko?

CUDA ist zweifellos eine Technologie, die beispiellose Fortschritte im Bereich der KI ermöglicht hat. Ihre geschlossene Struktur, ihre Marktbeherrschung und die fehlende regulatorische Aufsicht können jedoch dazu führen, dass die Verantwortung für KI-Systeme illusorisch wird. Für die EU, die sich zu Transparenz, Ethik und digitaler Souveränität verpflichtet hat, ist dies eine Herausforderung, die nicht länger ignoriert werden kann.

* * *

ART. 13 KI-Gesetz

Transparenz und Informationsaustausch mit den Nutzern

  1. Hochriskante KI-Systeme sind so zu konzipieren und zu entwickeln, dass ihre Leistung ausreichend transparent ist, sodass die Nutzer die Ergebnisse des Systems interpretieren und angemessen nutzen können. Es ist für eine angemessene Art und ein angemessenes Maß an Transparenz zu sorgen, damit der Anbieter und der Nutzer ihren jeweiligen Verpflichtungen gemäß Abschnitt 3 nachkommen können.
  2. Hochriskante KI-Systeme müssen mit einer Bedienungsanleitung in einem geeigneten digitalen oder anderen Format versehen sein, die prägnante, vollständige, genaue und klare Informationen enthält, die für die Nutzer relevant, zugänglich und verständlich sind.
  3. Die Bedienungsanleitung muss mindestens folgende Angaben enthalten:
  4. (a) die Identität und Kontaktdaten des Lieferanten und gegebenenfalls seines Bevollmächtigten;
  5. (b) die Merkmale, Fähigkeiten und Grenzen der Leistung des hochriskanten KI-Systems, einschließlich:

i) den Verwendungszweck;

ii) das Genauigkeitsniveau, einschließlich der Indikatoren, das Robustheitsniveau und das Cybersicherheitsniveau gemäß Artikel 15, anhand dessen das KI-System mit hohem Risiko geprüft und validiert wurde und das erwartet werden kann, sowie alle bekannten und vorhersehbaren Umstände, die diese erwarteten Genauigkeits-, Robustheits- und Cybersicherheitsniveaus beeinträchtigen können;

iii) alle bekannten oder vorhersehbaren Umstände im Zusammenhang mit der Verwendung des KI-System mit hohem Risiko gemäß seinem Verwendungszweck oder unter vernünftigerweise vorhersehbaren Missbrauchsbedingungen, die zu einem Risiko für die Gesundheit und Sicherheit oder die Grundrechte gemäß Artikel 9 Absatz 2 führen könnten;

iv) gegebenenfalls die technischen Fähigkeiten und Merkmale des KI-System mit hohem Risiko zur Bereitstellung von Informationen, die für die Erläuterung seiner Leistung relevant sind;

v) gegebenenfalls die Leistung des Systems in Bezug auf bestimmte Personen oder Personengruppen, für die es bestimmt ist; vi) gegebenenfalls Spezifikationen zu den Eingabedaten oder andere relevante Informationen zu den verwendeten Trainings-, Validierungs- und Testdatensätzen unter Berücksichtigung des Verwendungszwecks des KI-System mit hohem Risiko; vii) gegebenenfalls Informationen, die es den Nutzern ermöglichen, die Ergebnisse des KI-Systems mit hohem Risiko zu interpretieren und diese Ergebnisse angemessen zu verwenden;

  1. c) Änderungen des KI-Systems mit hohem Risiko und seiner Leistung, die vom Lieferanten zum Zeitpunkt der ersten Konformitätsbewertung im Voraus geplant waren;
  2. d) die in Artikel 14 genannten Maßnahmen zur menschlichen Überwachung, einschließlich technischer Maßnahmen, die eingeführt wurden, um die Interpretation der Ergebnisse von KI-Systemen mit hohem Risiko durch die Nutzer zu erleichtern;
  3. e) die erforderlichen Rechen- und Hardware-Ressourcen, die erwartete Lebensdauer des KI-Systems mit hohem Risiko und alle erforderlichen Wartungs- und Instandhaltungsmaßnahmen, einschließlich ihrer Häufigkeit, um das ordnungsgemäße Funktionieren dieses KI-Systems, einschließlich Software-Updates, zu gewährleisten;
  4. f) gegebenenfalls eine Beschreibung der in das KI-System mit hohem Risiko integrierten Mechanismen, die es den ihn nutzenden Stellen ermöglichen, Ereignisprotokolle gemäß Artikel 12 korrekt zu erfassen, zu speichern und zu interpretieren.

ART. 12 AEUV

Verbot des Missbrauchs einer marktbeherrschenden Stellung

Der Missbrauch einer marktbeherrschenden Stellung im Binnenmarkt oder in einem wesentlichen Teil desselben durch ein oder mehrere Unternehmen ist als mit dem Binnenmarkt unvereinbar verboten, soweit er den Handel zwischen Mitgliedstaaten beeinträchtigen kann.

Ein solcher Missbrauch kann insbesondere darin bestehen, dass

  1. a) direkt oder indirekt unangemessene Einkaufs- oder Verkaufspreise oder sonstige unangemessene Geschäftsbedingungen auferlegt werden;
  2. b) die Einschränkung der Erzeugung oder des Absatzes oder die Beeinträchtigung der technischen Entwicklung zum Nachteil der Verbraucher;
  3. c) die Anwendung unterschiedlicher Bedingungen bei gleichwertigen Leistungen gegenüber Handelspartnern, wodurch diese im Wettbewerb benachteiligt werden;
  4. d) die knüpfen des Vertragsabschlusses von Nebenabreden, die nach ihrer Natur oder nach den Handelsbräuchen nicht zum Vertragsgegenstand gehören.

Von MiCA regulierte Arten von Krypto-Assets

Die MiCA-Verordnung (Markets in Crypto-Assets) ist der erste Rechtsakt der Europäischen Union, der die Rechte und Pflichten von Emittenten und Dienstleistern im Zusammenhang mit Krypto-Assets umfassend regelt. Ziel der MiCA ist es, ein hohes Maß an Anlegerschutz, insbesondere für Kleinanleger, zu gewährleisten, die Transparenz des Marktes für Krypto-Assets zu erhöhen und die Vorschriften für diesen Markt in der gesamten Europäischen Union zu harmonisieren. Dank MiCA erhält der Markt für Krypto-Assets klare Regeln, was die Investitionssicherheit und die Entwicklung der Branche fördert.

kryptowaluty kryptoaktywa

Von MiCA regulierte Arten von Krypto-Assets

Zu den von MiCA regulierten Arten von Krypto-Assets gehören digitale Darstellungen von Werten oder Rechten, die elektronisch mithilfe der Distributed-Ledger-Technologie (DLT) oder ähnlicher Technologien gespeichert werden.

Die MiCA-Verordnung unterscheidet zwischen drei Hauptarten von Krypto-Assets, die sich hinsichtlich ihrer Merkmale und ihres Risikos unterscheiden. Diese Unterscheidung ist von entscheidender Bedeutung, da sie die regulatorischen Verpflichtungen von Unternehmen festlegt, die Krypto-Assets emittieren oder Anlegern anbieten. Dank der klaren Definitionen in MiCA können Unternehmen ihre Aktivitäten an die gesetzlichen Anforderungen anpassen und Anleger sind auf dem Krypto-Asset-Markt besser geschützt.

Kategorien von Krypto-Assets:

Asset-Referenced Tokens (ART)

Asset-Referenced Tokens (ART) sind Krypto-Assets, deren Zweck darin besteht, einen stabilen Wert zu erhalten, indem sie an einen anderen Wert, ein Recht oder eine Kombination davon, einschließlich mindestens einer Fiat-Währung, gebunden sind.

ARTs gelten nicht als E-Geld-Token (EMTs). Der wesentliche Unterschied besteht darin, dass der Wert eines ART nicht allein durch eine einzige Fiat-Währung bestimmt werden kann. Wenn ein Krypto-Asset seinen Wert auf mehr als einem Maßstab oder einer Kombination von Vermögenswerten, darunter mindestens einer offiziellen Währung, basiert, wird es als ART klassifiziert.

Der Emittent eines ART-Tokens ist verpflichtet, dessen Rücknahme zu ermöglichen, entweder durch Zahlung von Bargeld, das kein elektronisches Geld ist und dem Marktwert der mit dem Token verbundenen Vermögenswerte entspricht, oder durch Lieferung dieser Vermögenswerte.

  • MiCA lässt eine gewisse Flexibilität bei der Bestimmung des Wertmaßstabs für ARTs, aber die Rücknahme muss in bar oder durch Lieferung des zugrunde liegenden Vermögenswerts möglich sein.
  • Insbesondere sollte der Emittent stets sicherstellen, dass die Rücknahme in Bargeld (mit Ausnahme von E-Geld) in derselben offiziellen Währung möglich ist, die zum Zeitpunkt des Verkaufs des Tokens akzeptiert wurde.

E-Geld-Token (EMT)

EMT-Token sind an eine einzige offizielle Währung (z. B. den Euro) gebunden und dienen als digitales Äquivalent zu traditionellem Geld. Ihr Hauptmerkmal ist eine garantierte Rücknahme zum Nennwert.

E-Geld-Token dürfen nur von Kreditinstituten oder E-Geld-Instituten ausgegeben werden. Diese Unternehmen müssen sicherstellen, dass die Token-Inhaber ihr Rückkaufrecht jederzeit zum Nennwert und in der Währung, an die der Token gekoppelt ist, ausüben können.

Ein Beispiel für einen solchen Token sind an den Euro gekoppelte Stablecoins, die eine 1:1-Parität zum Euro anstreben. Nach MiCA müssen Emittenten solcher Token strenge regulatorische Anforderungen erfüllen, darunter einen angemessenen Rechtsstatus und die Gewährleistung einer realen Möglichkeit der Rücknahme der Token zu ihrem Nennwert.

Andere Krypto-Vermögenswerte

Diese Kategorie umfasst Kryptowährungen, die nicht als asset-backed Token klassifiziert sind, wie beispielsweise Bitcoin (BTC) und Ethereum (ETH), die über keinen Mechanismus zur Wertstabilisierung verfügen. Zu dieser Gruppe gehören auch Utility-Token, die Zugang zu Dienstleistungen oder Gütern des Emittenten gewähren.

Diese Kategorie umfasst auch Utility-Token, die den Inhabern Zugang zu bestimmten Dienstleistungen oder Gütern des Emittenten verschaffen. Ein solcher Token kann mit einem digitalen Gutschein oder Ticket verglichen werden, der den Inhaber zur Nutzung einer bestimmten Dienstleistung oder zum Kauf einer bestimmten Ware berechtigt.

kryptowaluty kryptoaktywa MICA

Von der MiCA-Regulierung ausgenommene Krypto-Assets

Die MiCA gilt nicht für alle digitalen Vermögenswerte. Die Verordnung schließt bestimmte Kategorien digitaler Vermögenswerte aus ihrem Anwendungsbereich aus, die entweder bereits durch andere EU-Rechtsakte reguliert sind oder nicht der Definition von Krypto-Assets im Sinne der MiCA entsprechen. Insbesondere sind Finanzinstrumente und Finanzprodukte, die der MiFID II unterliegen, von den Bestimmungen ausgenommen.

Gemäß Artikel 2 Absatz 4 der Verordnung sind außerdem folgende Vermögenswerte vom Anwendungsbereich der MiCA ausgenommen:

  • Einlagen, einschließlich strukturierter Einlagen,
  • Bargeld (sofern es nicht der Definition von E-Geld-Token entspricht),
  • Versicherungen, Altersvorsorgeprodukte und -systeme.

Nicht fungible Token (NFTs)

Die MiCA-Verordnung regelt auch nicht nicht fungible Token (NFTs), sofern diese wirklich einzigartig und nicht fungibel sind. Dies gilt beispielsweise für digitale Kunstwerke oder einzigartige Sammlerstücke in Computerspielen.

Es ist jedoch wichtig, einen wesentlichen Unterschied zu beachten: Wenn Krypto-Assets als nicht fungible Token als Teil einer großen Serie oder Sammlung ausgegeben werden, kann dies als Indikator für ihre tatsächliche Fungibilität angesehen werden, was dazu führen würde, dass sie den MiCA-Vorschriften unterliegen. Darüber hinaus gelten Bruchteile eines einzigartigen und nicht fungiblen Krypto-Assets nicht als einzigartig und nicht fungibel, sodass sie ebenfalls den MiCA-Vorschriften unterliegen.

Krypto-Assets, die auf interne Netzwerke beschränkt sind

Die MiCA-Verordnung gilt auch nicht für Krypto-Assets, die in geschlossenen Netzwerken verwendet werden, wie z. B. Treuepunkte oder Gutscheine, die nur vom Emittenten akzeptiert werden. Diese Ausnahme gilt für digitale Assets, die innerhalb eines begrenzten Ökosystems betrieben werden und nicht für einen breiteren Handel auf dem Markt bestimmt sind.

kryptowaluty kryptoaktywa MICA

Schlussfolgerungen und Empfehlungen

Wir empfehlen Ihnen, sich an einen Rechtsanwalt zu wenden, um umfassende rechtliche Unterstützung bei der Einstufung von Krypto-Vermögenswerten und der Einhaltung der Vorschriften für Krypto-Vermögenswerte und Finanzinstrumente zu erhalten.

Sójka AI – digitaler Wächter für Ethik und Sicherheit

In einem Zeitalter, in dem sich die Technologie ständig weiterentwickelt, spielt künstliche Intelligenz (KI) eine immer wichtigere Rolle in unserem Alltag. Von Apps, die uns bei der Organisation unserer Zeit helfen, bis hin zu Bilderkennungsalgorithmen – KI gewinnt immer mehr an Popularität, stellt aber gleichzeitig auch große Herausforderungen dar. Diese Herausforderungen zeigen sich besonders deutlich in den Bereichen Ethik, Verbreitung von Fake News, Recht und Cybersicherheit. Als Antwort auf diese Herausforderungen wurde das Projekt Sójka AI ins Leben gerufen, das die ethischen Grenzen der Technologie mit einem Fokus auf die Sicherheit der Nutzer verbindet.

AI

Ethische künstliche Intelligenz – eine Notwendigkeit im digitalen Zeitalter

Das Internet ist ein Raum, der unbegrenzte Möglichkeiten bietet, aber gleichzeitig voller Gefahren steckt. An jeder Ecke kann man auf toxische Inhalte, Hassreden oder Manipulation stoßen. Wir nutzen auch zunehmend Tools der künstlichen Intelligenz, die uns im Alltag unterstützen sollen. Leider kann KI auch eine Gefahr darstellen, wenn sie nicht richtig konzipiert und kontrolliert wird. Aus diesem Grund wurde das Projekt Sójka AI ins Leben gerufen, das als digitaler Ethikwächter fungiert und Nutzer vor schädlichen Inhalten schützt.

Warum brauchen wir ethische künstliche Intelligenz?

Der Vorteil künstlicher Intelligenz liegt in ihrer Fähigkeit, große Datenmengen in kurzer Zeit zu analysieren. Dadurch kann KI Probleme erkennen und darauf reagieren, die der menschlichen Aufmerksamkeit oft entgehen.

Ohne angemessene ethische Grenzen können solche Algorithmen jedoch gefährliche Inhalte generieren oder unangemessenes Verhalten fördern. Sójka AI ist die Antwort auf diese Bedrohungen und bietet Tools zur Moderation von Inhalten und zur Beseitigung toxischer und potenziell gefährlicher Interaktionen.

AI

Bielik AI – ein Vorgeschmack auf verantwortungsbewusste künstliche Intelligenz

Bielik AI ist der erste Schritt hin zu einer verantwortungsbewussteren KI-Technologie in Polen. Das Projekt hat Anerkennung für seine Fähigkeit gewonnen, Daten zu analysieren, Bedrohungen zu erkennen und die ethische Entwicklung von KI zu unterstützen. Bielik AI hat seine Mission durch den Einsatz fortschrittlicher Algorithmen erfüllt, die Daten in einem ethischen Kontext analysieren und so eine sichere und positive Online-Erfahrung für die Nutzer gewährleisten.

Zusammenarbeit mit der Community

Ein wichtiger Aspekt von Bielik AI war die Zusammenarbeit mit den Nutzern, die mit ihren Erfahrungen und Vorschlägen zur Entwicklung des Projekts beigetragen haben. Der gleiche Ansatz wurde von den Entwicklern von Sójka AI verfolgt, die ebenfalls auf die Zusammenarbeit mit Internetnutzern setzen, um einen Algorithmus zu entwickeln, der die Nutzer wirksam vor Online-Bedrohungen schützt. Link zur Umfrage.

Wie beeinflusst Bielik AI die Entwicklung von Sójka AI?

Bielik AI diente als Inspiration für die Entwicklung von Sójka AI. Dank der bei der Entwicklung von Bielik gesammelten Erfahrungen konnten sich die Entwickler von Sójka auf die Entwicklung neuer Technologien konzentrieren, die eine noch effektivere Moderation von Inhalten, die Erkennung schädlicher Aktivitäten und den Schutz der Nutzer vor Manipulation und unangemessenen Inhalten ermöglichen.

LLM security

Was kann Sójka AI – ein digitaler Ethikwächter – leisten?

Sójka AI ist ein Algorithmus, der als digitaler Wächter fungiert, toxische Inhalte eliminiert und Nutzer vor schädlichen Informationen schützt. Dank seines fortschrittlichen Designs kann Sójka:

  • Chats analysieren und toxische Absichten erkennen – der Algorithmus ist in der Lage zu erkennen, wenn eine Online-Konversation eine negative Wendung nimmt und Nutzer beleidigende Wörter oder Ausdrücke verwenden;
  • KI-Antworten überprüfen und gefährliche Inhalte entfernen – Sójka AI kann die von anderen KI-Modellen generierten Antworten analysieren und sicherstellen, dass sie ethischen Grundsätzen entsprechen und keine schädlichen Inhalte enthalten;.
  • Inhalte moderieren und vor Hass und Manipulation schützen – Sójka AI kann Inhalte in verschiedenen Bereichen effektiv moderieren und Inhalte entfernen, die Hass, Hassreden oder Manipulation enthalten.
  • Das psychische Wohlbefinden der jüngsten Nutzer gewährleisten – Sójka AI ist auch ein Tool, das besonders auf jüngere Internetnutzer achtet und sie vor Inhalten schützt, die sich negativ auf ihre psychische Gesundheit auswirken können.

Praktische Anwendungen von Sójka AI

Sójka AI kann in vielen Bereichen eingesetzt werden, sowohl in der Wirtschaft als auch im Alltag der Nutzer. Dank seiner Fähigkeit, große Datenmengen zu analysieren und schnell auf Bedrohungen zu reagieren, kann es beispielsweise für folgende Zwecke eingesetzt werden:

  • Moderation von Online-Diskussionen – Unternehmen und Online-Plattformen können Sójka potenziell nutzen, um Diskussionen zu verwalten und negative Inhalte in Echtzeit zu entfernen.
  • Unterstützung von Bildungsplattformen – Sójka AI kann auf Bildungsplattformen eingesetzt werden, um die Interaktionen der Schüler zu überwachen und sicherzustellen, dass sie keinen schädlichen oder unangemessenen Inhalten ausgesetzt sind.
  • Verbesserung von Social-Media-Plattformen – Mit Sójka AI können Social-Media-Plattformen zu einem freundlicheren und sichereren Ort für alle Nutzer werden, insbesondere für die jüngsten.
  • Und vieles mehr.

ai law

Rechtlicher Kontext und Zukunft ethischer KI-Modelle

Projekte wie Sójka AI sind nur der Anfang auf dem Weg zu einem sicheren, ethischen und verantwortungsvollen Internet. Mit jedem Jahr wird die KI-Technologie komplexer und ihre Rolle in unserem Leben bedeutender.

Ethische KI-Modelle in der Europäischen Union – Recht, Praxis und Entwicklungsrichtungen

Mit der rasanten Entwicklung der künstlichen Intelligenz hat sich die Europäische Union zu einem weltweit führenden Akteur bei der Gestaltung des rechtlichen und ethischen Rahmens für diese Technologie entwickelt. Projekte wie Sójka AI und Bielik AI in Polen veranschaulichen den Wandel von reiner Innovation hin zur verantwortungsvollen Umsetzung von Systemen, die Grundrechte, Transparenz und Nutzersicherheit respektieren. Im Mittelpunkt dieser Transformation steht das KI-Gesetz – die weltweit erste umfassende Regulierung für KI, die zusammen mit anderen Initiativen ein kohärentes Ökosystem für ethische künstliche Intelligenz schafft.

Rechtsgrundlage für ethische KI in der EU

KI-Gesetz – Risikoklassifizierung und Verpflichtungen

Das KI-Gesetz, das am 1. August 2024 in Kraft getreten ist, führt ein vierstufiges Risikomodell ein:

  • inakzeptables Risiko (z. B. soziale Bewertungssysteme, manipulative KI, die die Schwachstellen schutzbedürftiger Gruppen ausnutzt) – vollständiges Verbot der Nutzung;.
  • hohes Risiko (z. B. Rekrutierungssysteme, Bonitätsbewertungen, medizinische Diagnostik) – Zertifizierung, Audits und kontinuierliche Überwachung erforderlich;.
  • begrenztes Risiko (z. B. Chatbots) – Verpflichtung zur Information der Nutzer über die Interaktion mit KI;.
  • minimales Risiko (z. B. Spamfilter) – keine zusätzlichen Vorschriften über allgemeine ethische Grundsätze hinaus.

Beispiel: Content-Moderationssysteme wie Sójka AI können aufgrund ihrer Auswirkungen auf die Meinungsfreiheit und den Datenschutz als risikoreiche Systeme eingestuft werden. Wenn ein KI-System in diese Kategorie fällt, muss es die Anforderungen des KI-Gesetzes in Bezug auf Datenqualität, Algorithmus-Transparenz und Beschwerdemechanismen erfüllen.

Ethische Leitlinien der EU

Im Jahr 2019 hat die Europäische Kommission sieben Säulen für vertrauenswürdige KI definiert:

  1. Achtung der menschlichen Autonomie;
  2. technische und gesellschaftliche Sicherheit;
  3. Schutz der Privatsphäre,
  4. Transparenz,
  5. Vielfalt und Nichtdiskriminierung,
  6. soziale Verantwortung
  7. und nachhaltige Entwicklung.

Diese Grundsätze sind zur Grundlage des KI-Gesetzes geworden, insbesondere im Zusammenhang mit der Forderung nach einer „menschenzentrierten“ Systemgestaltung.

Initiativen in der EU

  • GenAI4EU – ein Programm zur Unterstützung der Einführung generativer KI in Schlüsselbereichen der Wirtschaft.

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

 

Schritte für Unternehmen – Wie lässt sich eine ethische KI im Einklang mit dem KI-Gesetz entwickeln?

1. Risikokartierung und Systemaudits

– Stellen Sie sicher, dass Funktionen und Ziele rechtmäßig und ethisch sind und keinen Raum für Missbrauch bieten. Überlegen Sie, wie die Ergebnisse der KI-Systeme von Dritten genutzt werden könnten.

– Ermitteln Sie alle Compliance-Anforderungen (diese können je nach Standort und Zielmärkten Ihres Unternehmens variieren) und bestätigen Sie, dass Sie diese erfüllen können.

– Erstellen Sie eine Liste aller potenziellen Risiken und Maßnahmen zur Risikominderung in Bezug auf Funktionalität und gesetzliche Anforderungen.

– Führen Sie Risikoanalysen im Kontext der für Sie geltenden Compliance-Anforderungen durch. Wenn das System beispielsweise personenbezogene Daten als Teil einer Trainingsdatenbank verwendet, führen Sie eine DPIA (Datenschutz-Folgenabschätzung) durch. Dies hilft Ihnen, den Umfang des Projekts und die damit verbundenen Herausforderungen zu verstehen.

Weitere Informationen finden Sie hier: Wie entwickelt man KI-Tools auf legale Weise?

2. Implementieren Sie Governance

  • Richten Sie je nach Situation und Möglichkeiten ein KI-Ethikteam ein, das sich aus Juristen, Ingenieuren und Compliance-Spezialisten zusammensetzt.
  • Entwickeln Sie eine KI-Nutzungsrichtlinie, die die EU-Richtlinien und branchenspezifische Besonderheiten berücksichtigt. Weitere Informationen hierzu finden Sie hier:

Co powinna zawierać Polityka wykorzystywania systemów AI?

3. Transparenz und Kontrolle

  • Für risikoreiche Systeme:
  • Stellen Sie technische Zusammenfassungen bereit, die die Logik hinter der KI beschreiben (z. B. über Dashboards wie Explainable AI Booster). Beispiel: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview
  • Führen Sie eine obligatorische menschliche Genehmigung der Ergebnisse in wichtigen Prozessen ein.

4. Datenmanagement

  • Verwenden Sie Debiasing-Algorithmen, um Verzerrungen in Trainingsdaten zu beseitigen.

Debiasing-Algorithmen sind Techniken, die in der künstlichen Intelligenz (KI) und im maschinellen Lernen eingesetzt werden, um Verzerrungen in Daten zu beseitigen oder zu reduzieren, die zu unfairen, diskriminierenden oder ungenauen Ergebnissen führen können. Verzerrungen im Zusammenhang mit KI beziehen sich auf unbeabsichtigte Tendenzen in einem System, die durch Fehler in den Eingabedaten oder in der Art und Weise, wie das KI-Modell trainiert wurde, entstehen können.

  • Führen Sie regelmäßige Datenqualitätsprüfungen durch, insbesondere für Systeme, die sensible Daten (Rasse, Religion, Gesundheit) verwenden.

5. Zertifizierung und Compliance

  • Nutzen Sie die im Rahmen des CERTAIN-Projekts entwickelten Zertifizierungsplattformen, die die Überprüfung der Einhaltung des KI-Gesetzes automatisieren.
  • Registrieren Sie risikoreiche Systeme in der europäischen KI-Datenbank.

6. Schulung und Organisationskultur

  • Führen Sie Schulungsprogramme für Mitarbeiter durch.

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Herausforderungen und Zukunft der ethischen KI in der EU

Wichtige Trends für die kommenden Jahre:

  1. Entwicklung von KI für ESG
  2. Regulierung von Basismodellen – Pläne zur Ausweitung der Regulierung auf Anforderungen für Allzweckmodelle (z. B. Meta Llama 3).
  3. Grenzüberschreitende Zusammenarbeit

Zusammenfassung

Der Ansatz der EU für ethische KI ist zwar anspruchsvoll, bietet Unternehmen jedoch eine einzigartige Chance, Kundenvertrauen und Wettbewerbsvorteile aufzubauen. Projekte wie Sójka AI zeigen, dass die Verbindung von Innovation und Verantwortung möglich ist – allerdings erfordert dies strategische Planung, Investitionen in Governance und eine enge Zusammenarbeit mit den Regulierungsbehörden.

In den kommenden zehn Jahren wird Ethik zum wichtigsten Motor des technologischen Fortschritts in Europa werden.

 

Kontakt

Habe Fragen?siehe Telefon+48 663 683 888
siehe E-Mail

Büro in Breslau

53-659 Wrocław

(Quorum D)

Gen. Władysława Sikorskiego 26

google maps

Büro in Warschau

03-737 Warszawa

(Centrum Praskie Koneser – Spaces)

pl. Konesera 12 lok. 119

google maps

Hallo User,
bist du schon im Newsletter?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten