AGI – maszyna na miarę człowieka. Czy prawo nadąża za technologią?
27 lutego 2025 / AI
Ogólna sztuczna inteligencja (AGI) staje się coraz bardziej realną perspektywą, stawiając przed prawodawcami i społeczeństwem bezprecedensowe wyzwania. Niedawny szczyt AI Action w Paryżu oraz konferencja International Association for Safe and Ethical AI (IASEAI ’25) rzuciły światło na pilną potrzebę stworzenia kompleksowych ram prawnych dla tej przełomowej technologii.
Początki idei sztucznej inteligencji
Koncepcja AGI sięga lat 50. XX wieku, kiedy pionierzy informatyki zaczęli analizować możliwość stworzenia maszyn dorównujących ludzkiej inteligencji. Alan Turing, jeden z prekursorów AI, zaproponował test Turinga – eksperyment mający ocenić, czy maszyna potrafi prowadzić konwersację nieodróżnialną od ludzkiej.
Przełomowym momentem w historii AI była konferencja w Dartmouth w 1956 roku, podczas której oficjalnie ukuto termin „sztuczna inteligencja”. Ówczesne prognozy zakładały szybkie osiągnięcie inteligencji na poziomie człowieka, jednak postęp technologiczny nie nadążył za optymizmem badaczy
Kryzys i odrodzenie AI
Lata 80. i 90. przyniosły zmiany w podejściu do sztucznej inteligencji. Badania skupiły się na węższych zastosowaniach AI, takich jak systemy eksperckie, a idea AGI zeszła na dalszy plan. Dopiero dynamiczny rozwój technologii obliczeniowych, big data oraz głębokiego uczenia w XXI wieku ponownie skierował uwagę naukowców na temat sztucznej inteligencji ogólnej.
Czym jest AGI?
AGI w przeciwieństwie do obecnych systemów AI ma potencjał do wykonywania szerokiego spektrum zadań intelektualnych na poziomie porównywalnym z człowiekiem. Ta uniwersalność niesie ze sobą zarówno ogromne możliwości, jak i poważne zagrożenia, które muszą zostać odpowiednio uregulowane.
Na ten moment nie ma prawnej definicji obejmującej funkcjonowanie AGI, ale w związku z szybko rozwijającą się technologią AI w najbliższej przyszłości prawdopodobnie konieczne będzie jej stworzenie.
Wiele firm oraz orgnizacji już teraz podejmuje prób definiowania AGI. Np. W 2024 r. OpenAI stworzyło definicję AGI oraz pięć poziomów dochodzenia do niej.
Zgodnie z ustaleniami OpenAI:
Dzisiejsze chatboty, takie jak ChatGPT, znajdują się na pierwszym poziomie rozwoju.
OpenAI twierdzi, że zbliża się do drugiego poziomu, który oznacza system zdolny do rozwiązywania podstawowych problemów na poziomie osoby z doktoratem.
Trzeci poziom to AI działające jako agent, który może podejmować decyzje i wykonywać zadania w imieniu użytkownika.
Na czwartym poziomie sztuczna inteligencja osiąga zdolność do tworzenia nowych innowacji.
Piąty, najwyższy poziom, oznacza AI, która potrafi wykonywać pracę całych organizacji ludzi.
OpenAI wcześniej określiło AGI jako „wysoce autonomiczny system, który przewyższa ludzi w większości zadań o wysokiej wartości ekonomicznej”.
Projekt Stargate
Jednym z najbardziej ambitnych przedsięwzięć w zakresie AGI jest Projekt Stargate, który zakłada inwestycje o wartości 500 miliardów dolarów w rozwój infrastruktury AI w USA. Głównym celem jest wzmocnienie pozycji Stanów Zjednoczonych jako lidera w dziedzinie AGI, a także stworzenie setek tysięcy miejsc pracy i generowanie globalnych korzyści ekonomicznych.
AGI ma potencjał do przejęcia różnorodnych zadań, które dotychczas wymagały ludzkiej kreatywności i zdolności adaptacyjnych
Przeczytaj więcej o Stargate:
https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/
Dlaczego regulacja AGI jest kluczowa? Opinie ekspertów
Podczas IASEAI ’25 w Paryżu oraz szczytu AI Action, eksperci podkreślali konieczność stworzenia kompleksowych regulacji AGI.
- Dr hab. inż. Szymon Łukasik (NASK) wskazywał, że prawo musi nadążać za tempem innowacji, zapewniając jednocześnie ich bezpieczeństwo.
- Prof. Stuart Russell postulował wprowadzenie obowiązkowych zabezpieczeń, aby AGI nie była wykorzystywana w szkodliwy sposób.
- Joseph Stiglitz zaznaczał konieczność uwzględnienia interesów społecznych w procesie legislacyjnym.
- Max Tegmark z Future of Life Institute podkreślał natomiast znaczenie międzynarodowej współpracy, zwłaszcza między USA a Chinami. Tylko globalne podejście pozwoli na skuteczne uregulowanie rozwoju AGI.
Zagrożenia związane z AGI
Wielu ekspertów wyrażało w Paryżu niepokój w związku z rozwojem AI, który ich zdaniem odbywa się bardzo szybko, według niektórych AGI powstanie już w ciągu najbliższych 10 lat. Kluczowe pytania dotyczące AGI dotyczyły zagadnień:
- Czy AGI może samo modyfikować reguły, by osiągnąć postawione cele?
- Jakie powinny być mechanizmy awaryjnego wyłączania AGI?
- Jak zapewnić, że cele AI nie będą rozbieżne z interesami ludzkości?
Badacze już teraz weryfikują, czy jeśli model ma postawiony cel, np. wygraną w grze, to jest w stanie modyfikować jej reguły, żeby wygrać. W związku z tym faktem konieczne jest takie modelowanie celów systemu AI, żeby nie były one rozbieżne z interesami ludzkości.
Te rozważania oraz propozycje mają na celu stworzenie ram prawnych oraz standardów, które pozwolą na bezpieczny i etyczny rozwój AGI, jednocześnie nie hamując postępu technologicznego. Eksperci zgadzają się, że regulacje powinny być kompleksowe i uwzględniać zarówno aspekty techniczne, jak i społeczne implikacje rozwoju AGI. W związku z czym międzynarodowa kooperacja jest kluczowa dla stworzenia jednolitych standardów bezpieczeństwa i etyki.
Transparentność i mechanizmy bezpieczeństwa
Transparentność i mechanizmy bezpieczeństwa to kolejne kluczowe aspekty, które muszą zostać uwzględnione w przyszłych regulacjach. Prof. Steward Russell postulował, aby firmy rozwijające AI były prawnie zobowiązane do implementacji zabezpieczeń chroniących przed szkodliwym użyciem ich technologii. Eksperci proponują również wprowadzenie prawnego wymogu mechanizmu awaryjnego wyłączania modeli AI oraz stworzenie standardów testowania zabezpieczeń.
W kontekście mechanizmów awaryjnego wyłączania modeli AI, istnieją dwa kluczowe standardy ISO, które odnoszą się do tej kwestii:
- ISO 13850 to standard dotyczący funkcji zatrzymania awaryjnego w maszynach. Choć nie odnosi się bezpośrednio do modeli AI, ustanawia ogólne zasady projektowania mechanizmów awaryjnego zatrzymania, które mogą być zastosowane potencjalnie również w systemach AI. Standard ten podkreśla, że funkcja zatrzymania awaryjnego powinna być dostępna i operacyjna w każdym momencie, a jej aktywacja powinna mieć pierwszeństwo nad wszystkimi innymi funkcjami;
- ISO/IEC 42001 z kolei to nowszy standard, opublikowany w grudniu 2023 roku, który bezpośrednio dotyczy systemów zarządzania sztuczną inteligencją. Obejmuje on szersze aspekty zarządzania ryzykiem związanym z AI, w tym ocenę ryzyka i wpływu AI oraz zarządzanie cyklem życia systemu AI.
W ramach ISO/IEC 42001 organizacje są zobowiązane do wdrożenia procesów identyfikacji, analizy, oceny i monitorowania ryzyk związanych z systemami AI przez cały cykl życia systemu zarządzania. Standard ten kładzie nacisk na ciągłe doskonalenie i utrzymanie wysokich standardów w rozwoju systemów AI.
Warto zauważyć, że choć standardy te dostarczają wytycznych, konkretne mechanizmy awaryjnego wyłączania dla zaawansowanych systemów AI, takich jak AGI są wciąż przedmiotem badań i dyskusji na arenie międzynarodowej. Eksperci podkreślają, że wraz z rozwojem coraz bardziej zaawansowanych systemów AI, tradycyjne metody “wyłączenia” mogą okazać się niewystarczające, dlatego konieczne będzie stworzenie innych standardów oraz rozwiązan.
Przeczytaj więcej o AI:
Regulacje AGI a cyberbezpieczeństwo
AGI może identyfikować i wykorzystywać luki w zabezpieczeniach szybciej niż jakikolwiek człowiek czy obecne systemy AI. Dlatego regulacje prawne AGI powinny obejmować:
- Zapobieganie wykorzystaniu AGI do cyberataków.
- Standaryzowanie bezpieczeństwa systemów AGI, by ograniczyć ryzyko przejęcia przez złośliwe podmioty.
- Określenie odpowiedzialności prawnej w przypadku incydentów związanych z AGI.
Interdyscyplinarne podejście do tworzenia prawa
Rozwój AGI wymaga interdyscyplinarnego podejścia, które uwzględnia:
- Współpracę prawników z ekspertami AI, etykami i ekonomistami.
- Globalne regulacje chroniące prawa człowieka i prywatność.
- Transparentność rozwoju AGI i mechanizmy kontroli.
Proaktywne podejście prawne może sprawić, że AGI będzie bezpieczna i korzystna dla całej ludzkości, bez blokowania postępu technologicznego.
AGI to technologia o ogromnym potencjale, ale także poważnych ryzykach. Kluczowe jest stworzenie ram prawnych i standardów, które pozwolą na jej bezpieczny rozwój. Międzynarodowa współpraca i interdyscyplinarne podejście są kluczowe, aby zapewnić, że AGI służy ludzkości, a nie stanowi zagrożenia.
Potrzebujesz pomocy w tym temacie?
Napisz do naszego eksperta
Artykuły z tej kategorii
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karami
Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karamiDeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?
DeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa
BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa