CUDA i dominacja NVIDIA – niewidzialna infrastruktura AI poza zakresem regulacji?
9 maja 2025 / AI
W kwietniu 2025 r. NVIDIA przekroczyła kapitalizację rynkową 2,79 biliona dolarów, a jej akcje wzrosły o ponad 170% w rok stając się trzecią najcenniejszą spółką giełdową na świecie – tuż za Microsoftem i Apple, osiągając aż 90% udziału w rynku układów AI w 2024 roku. Choć jeszcze kilka lat temu NVIDIA była utożsamiana głównie z kartami graficznymi dla graczy, dziś stanowi fundament globalnej gospodarki cyfrowej opartej na sztucznej inteligencji. Jej jednostki GPU – szczególnie seria H100 – stanowią nie tylko strategiczny zasób dla centrów danych, lecz są także głównym motorem napędowym rozwoju foundation models, w tym najbardziej zaawansowanych modeli językowych o ogólnym przeznaczeniu, takich jak ChatGPT.
CUDA – silnik AI, który zmienia reguły gry
Centralnym elementem transformacji NVIDIA w globalnego lidera sztucznej inteligencji jest CUDA (Compute Unified Device Architecture) – autorska platforma programistyczna umożliwiająca pełne wykorzystanie mocy obliczeniowej GPU w zastosowaniach naukowych, przemysłowych i komercyjnych. CUDA to nie tylko warstwa technologiczna – to infrastruktura krytyczna dla skalowalności i efektywności modeli AI.
Nie bez powodu platforma ta bywa określana jako „niewidzialny system operacyjny AI”. Jest kluczowym elementem w cyklu życia systemów opartych na sztucznej inteligencji: od etapu trenowania i walidacji, po wdrażanie modeli w rzeczywistych aplikacjach. W praktyce, to właśnie CUDA definiuje, jak szybko i na jaką skalę można rozwijać nowoczesne systemy AI.
GPU vs CPU – dlaczego układy graficzne są kluczowe dla sztucznej inteligencji?
W kontekście trenowania dużych modeli językowych i przetwarzania danych na skalę masową, klasyczne procesory (CPU) stają się niewystarczające. Kluczowe cechy GPU – szczególnie tych od NVIDIA – decydują o ich przewadze w środowiskach AI:
- Architektura równoległa – GPU, jak NVIDIA H100, zawierają tysiące rdzeni, które umożliwiają jednoczesne przetwarzanie dużych zbiorów danych – idealne dla operacji macierzowych wykorzystywanych w sieciach neuronowych.
- Efektywność energetyczna – układy graficzne nowej generacji oferują nawet 25-krotnie wyższą efektywność energetyczną w porównaniu z wcześniejszymi rozwiązaniami, co przekłada się na niższe koszty eksploatacji i większą skalowalność.
- Pamięć wysokiej przepustowości – technologie takie jak HBM2 (High Bandwidth Memory) pozwalają na błyskawiczne przetwarzanie terabajtów danych – niezbędne w czasie rzeczywistym i aplikacjach krytycznych.
Zamknięty ekosystem CUDA – siła i słabość jednocześnie
CUDA, będąc rozwiązaniem zamkniętym, zapewnia gigantyczne zyski wydajności – nawet 1000-krotny wzrost w ciągu ostatniej dekady. Jednak kontrola tej technologii przez jedną firmę budzi obawy:
- Dominacja technologiczna – ponad 80% modeli AI – w tym wszystkie główne foundation models – jest trenowanych w środowisku CUDA.
- Brak alternatyw – rozwiązania otwarte, takie jak AMD ROCm czy Intel oneAPI, mają poniżej 10% udziału w rynku, głównie z powodu słabszej optymalizacji i braku pełnej kompatybilności z popularnymi bibliotekami AI.
- Efekt sieciowy – im więcej deweloperów korzysta z CUDA, tym trudniej przejść na konkurencyjne rozwiązania – tworzy to zamknięty ekosystem trudny do zrównoważenia przez rynek.
Infrastruktura AI a europejskie prawo: luka w AI Act?
Rozporządzenie AI Act (UE 2024/1689) stanowi pierwszy kompleksowy akt prawny regulujący zastosowania sztucznej inteligencji w Europie. Skupia się jednak głównie na poziomie algorytmicznym – na danych treningowych, przejrzystości modeli i ryzykach ich zastosowania. Tymczasem warstwa obliczeniowa – czyli infrastruktura, bez której te systemy nie istnieją – pozostaje poza jego bezpośrednim zakresem.
CUDA nie jest klasyfikowane jako samodzielny system AI, ale jego wpływ na zgodność, audytowalność i bezpieczeństwo systemów AI jest niepodważalny. Bez możliwości weryfikacji działania infrastruktury – zarówno pod kątem sprzętu (black-box GPU), jak i zamkniętego oprogramowania – trudno mówić o pełnej realizacji zasad przejrzystości czy odpowiedzialności.
Konsekwencje prawne – monopol, zależność, brak audytu
Brak regulacji w zakresie infrastruktury obliczeniowej rodzi konkretne problemy prawne i systemowe:
- Ograniczona audytowalność – zamknięty charakter CUDA utrudnia spełnienie wymogów z art. 13 AI Act dotyczących przejrzystości i możliwości weryfikacji.
- Ryzyko monopolistyczne – wzrost cen układów GPU o ponad 300% w latach 2020–2024 może wskazywać na nadużywanie pozycji dominującej (art. 102 TFUE).
- Brak suwerenności technologicznej UE – aż 98% europejskich centrów danych AI korzysta z technologii NVIDIA, co budzi poważne pytania o niezależność infrastrukturalną i odporność na zewnętrzne zakłócenia.
Czy odpowiedzialność bez przejrzystości jest możliwa?
AI Act zakłada odpowiedzialność łańcuchową – obowiązki dotyczą nie tylko twórców systemów, ale też ich użytkowników i dystrybutorów. Jednak rzeczywistość rynkowa pokazuje, że użytkownicy końcowi nie mają realnej możliwości oceny infrastruktury CUDA, z której korzystają pośrednio. Brakuje standardów technicznych i wymagań ujawniających szczegóły działania zamkniętych platform.
Rekomendacje dla regulatorów i przemysłu AI
CUDA, choć formalnie nieklasyfikowane jako system AI, powinno być uznawane za komponent wpływający na zgodność, audytowalność i bezpieczeństwo. Rekomendacje:
- Wytyczne KE i AI Office – konieczne jest opracowanie interpretacji prawnych uwzględniających wpływ platform obliczeniowych na systemy AI – analogicznie jak w przypadku przetwarzania w chmurze czy RODO.
- Promowanie neutralności technologicznej – programy wsparcia technologicznego UE (np. Digital Europe) powinny faworyzować otwarte, interoperacyjne technologie.
- Rewizja zakresu AI Act – długofalowo warto rozważyć aktualizację AI Act, która obejmie również infrastrukturę technologiczną jako element determinujący bezpieczeństwo i zgodność systemów AI.
CUDA – cud techniczny czy ryzyko prawne?
CUDA to bez wątpienia technologia, która umożliwiła bezprecedensowy skok rozwojowy w dziedzinie AI. Ale jej zamknięta struktura, dominacja rynkowa i brak regulacyjnego nadzoru mogą oznaczać, że odpowiedzialność za systemy AI stanie się iluzoryczna. Dla UE, która stawia na transparentność, etykę i suwerenność cyfrową, to wyzwanie, którego nie można dłużej ignorować.
* * *
ART. 13 AI Act
Przejrzystość i udostępnianie informacji podmiotom stosującym
- Systemy AI wysokiego ryzyka projektuje się i rozwija w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą podmiotom stosującym interpretację wyników systemu i ich właściwe wykorzystanie. Zapewnia się odpowiedni rodzaj i stopień przejrzystości w celu osiągnięcia spełnienia przez dostawcę i podmiot stosujący odpowiednich obowiązków określonych w sekcji 3.
- Do systemów AI wysokiego ryzyka dołącza się instrukcję obsługi w odpowiednim formacie cyfrowym lub innym formacie zawierającą zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów stosujących.
- Instrukcja obsługi zawiera co najmniej następujące informacje:
- a) tożsamość i dane kontaktowe dostawcy oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;
- b) cechy, możliwości i ograniczenia skuteczności działania systemu AI wysokiego ryzyka, w tym:
(i) jego przeznaczenie;
(ii) poziom dokładności, wraz z jego wskaźnikami, poziom solidności i cyberbezpieczeństwa, o których mowa w art. 15, względem których przetestowano system AI wysokiego ryzyka i dokonano jego walidacji oraz których to poziomów można oczekiwać, a także wszelkie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na te oczekiwane poziomy dokładności, solidności i cyberbezpieczeństwa;
(iii) wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu AI wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, mogące powodować ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych, o którym to ryzyku mowa w art. 9 ust. 2;
(iv) w stosownych przypadkach, możliwości techniczne i właściwości systemu AI wysokiego ryzyka w zakresie udostępniania informacji istotnych dla wyjaśnienia jego wyników;
(v) w stosownych przypadkach, działanie systemu w odniesieniu do określonych osób lub grup osób, wobec których ma on być wykorzystywany; (vi) w stosownych przypadkach, specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walidacyjnych i testowych, uwzględniając przeznaczenie systemu AI wysokiego ryzyka; (vii) w stosownych przypadkach, informacje umożliwiające podmiotom stosującym interpretację wyników systemu AI wysokiego ryzyka i odpowiednie wykorzystanie tych wyników;
- c) zmiany w systemie AI wysokiego ryzyka i jego skuteczności działania, które zostały z góry zaplanowane przez dostawcę w momencie przeprowadzania początkowej oceny zgodności;
- d) środki nadzoru ze strony człowieka, o których mowa w art. 14, w tym środki techniczne wprowadzone w celu ułatwienia podmiotom stosującym interpretacji wyników systemów AI wysokiego ryzyka;
- e) potrzebne zasoby obliczeniowe i sprzętowe, przewidywany cykl życia systemu AI wysokiego ryzyka oraz wszelkie niezbędne środki w zakresie konserwacji i utrzymania, w tym częstotliwość ich stosowania, mające na celu zapewnienie właściwego funkcjonowania tego systemu AI, w tym dotyczące aktualizacji oprogramowania;
- f) w stosownych przypadkach – opis mechanizmów zawartych w systemie AI wysokiego ryzyka, które umożliwiają podmiotom stosującym prawidłowe zbieranie, przechowywanie i interpretowanie rejestrów zdarzeń, zgodnie z art. 12.
ART. 12 TFUE
Zakaz nadużywania pozycji dominującej
Niezgodne z rynkiem wewnętrznym i zakazane jest nadużywanie przez jedno lub większą liczbę przedsiębiorstw pozycji dominującej na rynku wewnętrznym lub na znacznej jego części, w zakresie, w jakim może wpływać na handel między Państwami Członkowskimi.
Nadużywanie takie może polegać w szczególności na:
- a) narzucaniu w sposób bezpośredni lub pośredni niesłusznych cen zakupu lub sprzedaży albo innych niesłusznych warunków transakcji;
- b) ograniczaniu produkcji, rynków lub rozwoju technicznego ze szkodą dla konsumentów;
- c) stosowaniu wobec partnerów handlowych nierównych warunków do świadczeń równoważnych i stwarzaniu im przez to niekorzystnych warunków konkurencji;
- d) uzależnianiu zawarcia kontraktów od przyjęcia przez partnerów zobowiązań dodatkowych, które ze względu na swój charakter lub zwyczaje handlowe nie mają związku z przedmiotem tych kontraktów.
Potrzebujesz pomocy w tym temacie?
Napisz do naszego eksperta
Artykuły z tej kategorii
Sójka AI – cyfrowy strażnik etyki i bezpieczeństwa
Sójka AI – cyfrowy strażnik etyki i bezpieczeństwaSztuczna inteligencja, prawa autorskie i artystyczne kontrowersje dotyczące Studia Ghibli
Sztuczna inteligencja, prawa autorskie i artystyczne kontrowersje dotyczące Studia GhibliPlatforma STEP – nowa era dla AI w Unii Europejskiej
Platforma STEP – nowa era dla AI w Unii EuropejskiejOdtajnienie dokumentów w sprawie zamachu na Kennedy’ego – nowe światło na historyczne wydarzenia i wpływ technologii na badania historyczne
Odtajnienie dokumentów w sprawie zamachu na Kennedy’ego – nowe światło na historyczne wydarzenia i wpływ technologii na badania historyczneMuzyka przyszłości – Suno AI i Sora AI – czy sztuczna inteligencja będzie nową generacją twórców muzyki?
Muzyka przyszłości – Suno AI i Sora AI – czy sztuczna inteligencja będzie nową generacją twórców muzyki?