Grok-3 – rewolucja w AI czy źródło kontrowersji?
20 lutego 2025 / AI
Grok-3, najnowszy model sztucznej inteligencji opracowany przez xAI pod przewodnictwem Elona Muska wzbudza w ostatnich dniach ogromne zainteresowanie. Jego zaawansowane możliwości analizy danych i przetwarzania informacji sprawiają, że wyróżnia się na tle konkurencji. Jednak pojawiają się również pytania dotyczące dezinformacji wyborczej, etyki AI oraz zgodności z regulacjami Unii Europejskiej.
Czym jest Grok-3?
Grok-3 to zaawansowany model językowy AI, który według Elona Muska ma „maksymalnie poszukiwać prawdy”, nawet jeśli oznacza to publikowanie informacji „sprzecznych z narracjami przedstawianymi przez media”. Do jego głównych cech należy:
✅ Maksymalna prawda – dąży do obiektywnej analizy, unikając cenzury politycznej.
✅ Zaawansowane rozumowanie (DeepSearch) – według Elona Muska przewyższa modele takie jak ChatGPT, Claude 3.5 czy DeepSeek w benchmarkach dotyczących nauk ścisłych, programowania i matematyki.
✅ Transparentność działania – technologia #DeepSearch pozwala użytkownikom śledzić proces analizy danych. Podobny sposób funkcjonowania systemu AI można również zaobserwować w Perplexity.
✅ Wyższa wydajność – dziesięciokrotnie większa moc obliczeniowa w porównaniu do Grok-2 zapewnia szybkie i precyzyjne odpowiedzi.
Z jednej strony jest to podejście rewolucyjne, które jeszcze bardziej przyspiesza pracę na systemach AI, z drugiej jednak strony przynosi wraz ze sobą liczne zagrożenia. Szczególnie w zakresie braku weryfikacji treści). Takie tendencje mogą prowadzić do szerzenia deepfaków, błędnych interpretacji wydarzeń oraz zmanipulowanych informacji.
Grok-3 a dezinformacja wyborcza
Regulacje Unii Europejskiej dotyczące informacji politycznej są jednymi z najbardziej rozwiniętych na świecie. Ogólne rozporządzenie o ochronie danych (RODO) oraz Dyrektywa w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym określają surowe zasady oraz sankcje dotyczące funkcjonowania technologii cyfrowych. Do tego w kontekście ochrony praw użytkowników systemów AI oraz bardzo dużych platform internetowych (do których należy platforma X) warte wskazania są również AI Act, czyli Akt ws. sztucznej inteligencji, który dotyczy systemu Grok-3 oraz Digital Services Act, czyli Akt o usługach cyfrowych. DSA z kolei to rozporządzenie unijne zawierające przepisy w zakresie moderacji nielegalnych treści, przejrzystej reklamy i dezinformacji zwłaszcza w zakresie bardzo dużych platform internetowych.
Według licznych źródeł istnieją obawy, że Grok-3 może być używany do manipulowania opinią publiczną, co narusza regulacje dotyczące wyborów obowiązujące na terenie Unii Europejskiej. W związku z tym, jeżeli dojdzie do dodania usług łączących platformę X z systemem AI należącym do Elona Muska z czasem może pojawić się duże ryzyko wysypu licznych zmanipulowanych oraz populistycznych treści również w kontekście wyborów państw członkowskich w UE.
Wykorzystanie danych użytkowników X do trenowania Grok AI – naruszenie prywatności czy standard w erze AI?
Kontrowersje z 2024 r. wokół wykorzystania danych użytkowników X (dawniej Twitter) do trenowania systemów AI, do których prawdopodobnie należał też Grok AI wywołały szeroką debatę na temat granic prywatności w erze sztucznej inteligencji. W lipcu 2024 roku X wprowadziło zmiany w swojej polityce prywatności, które domyślnie zezwalały na wykorzystanie publicznych postów użytkowników do trenowania algorytmów AI. Decyzja ta wywołała natychmiastową reakcję w Unii Europejskiej, zwłaszcza w kontekście przepisów RODO, które nakładają ścisłe ograniczenia na przetwarzanie danych osobowych.
Zgodnie z nowymi zasadami platformy X, wszelkie publicznie dostępne treści publikowane przez użytkowników mogły być wykorzystywane jako dane treningowe dla Grok-3. Choć firma argumentowała, że obejmuje to jedynie treści dostępne publicznie i nie dotyczy wiadomości prywatnych, eksperci ds. ochrony danych osobowych wyrazili obawy, że nawet publiczne posty mogą zawierać informacje osobowe, a użytkownicy nie byli świadomi tego, jak ich dane są wykorzystywane. RODO wymaga, aby każda forma przetwarzania danych osobowych odbywała się za wyraźną zgodą użytkownika, a ta zasada zdaniem Irlandzkiej Komisji Ochrony Danych (DPC) została naruszona.
Artykuł 6 RODO określa warunki zgodności przetwarzania z prawem. Zgodnie z tym artykułem, przetwarzanie jest zgodne z prawem, wyłącznie w przypadkach, gdy – i w takim zakresie, w jakim – spełniony jest co najmniej jeden z poniższych warunków:
- osoba, której dane dotyczą wyraziła zgodę na przetwarzanie swoich danych osobowych w jednym lub większej liczbie określonych celów;
- przetwarzanie jest niezbędne do wykonania umowy, której stroną jest osoba, której dane dotyczą, lub do podjęcia działań na żądanie osoby, której dane dotyczą, przed zawarciem umowy;
- przetwarzanie jest niezbędne do wypełnienia obowiązku prawnego ciążącego na administratorze;
- przetwarzanie jest niezbędne do ochrony żywotnych interesów osoby, której dane dotyczą, lub innej osoby fizycznej;
- przetwarzanie jest niezbędne do wykonania zadania realizowanego w interesie publicznym lub w ramach sprawowania władzy publicznej powierzonej administratorowi;
- przetwarzanie jest niezbędne do celów wynikających z prawnie uzasadnionych interesów realizowanych przez administratora lub przez stronę trzecią, z wyjątkiem sytuacji, w których nadrzędny charakter wobec tych interesów mają interesy lub podstawowe prawa i wolności osoby, której dane dotyczą, wymagające ochrony danych osobowych, w szczególności gdy osoba, której dane dotyczą, jest dzieckiem.
W reakcji na tę sytuację w 2024 r. DPC wszczęło postępowanie przeciwko X, twierdząc, że platforma nie dostarczyła użytkownikom wystarczających informacji na temat nowej polityki i nie uzyskała ich wyraźnej zgody na przetwarzanie danych w celach związanych z AI. W sierpniu 2024 roku, pod naciskiem organów regulacyjnych, firma zgodziła się tymczasowo zawiesić przetwarzanie danych użytkowników z UE. Miesiąc później, we wrześniu 2024 roku X zobowiązało się do całkowitego zaprzestania wykorzystywania danych użytkowników z Unii Europejskiej do trenowania Grok AI oraz do usunięcia wszystkich zgromadzonych wcześniej informacji w okresie od 7 maja do 1 sierpnia 2024 roku.
Jednak największa kontrowersja dotyczyła faktu, że modele AI już wytrenowane na tych danych nie zostały usunięte. Oznaczało to, że choć X zgodziło się wycofać dane z bazy treningowej, sama sztuczna inteligencja nadal posiadała wiedzę opartą na tych informacjach. To wzbudziło dalsze pytania o konsekwencje regulacyjne i przyszłość ochrony danych osobowych w kontekście dynamicznego rozwoju AI.
Generowanie kontrowersyjnych treści
Potencjalne naruszenia europejskich regulacji dotyczące mowy nienawiści przez Grok-3 stanowią poważne wyzwanie prawne dla xAI w kontekście Unii Europejskiej. Kwestia ta jest szczególnie istotna w świetle niedawnych działań UE mających na celu zwalczanie mowy nienawiści online.
Regulacje UE dotyczące mowy nienawiści
Unia Europejska aktywnie dąży do rozszerzenia definicji przestępstw związanych z mową nienawiści. W styczniu 2024 roku Parlament Europejski wezwał do uznania mowy nienawiści i przestępstw z nienawiści za przestępstwa na poziomie Ue. Celem tej decyzji jest ustanowienie ogólnounijnych minimalnych standardów definiowania przestępstw i sankcji w celu zwalczania nietolerancji, stygmatyzacji i dyskryminacji.
Tak zwane przestępstwa na poziomie UE to przestępstwa o szczególnie poważnym charakterze i wymiarze transgranicznym, zgodnie z art. 83 ust. 1 Traktatu o funkcjonowaniu UE. Obecnie przepisy państw członkowskich w różny sposób radzą sobie z mową nienawiści i przestępstwami z nienawiści, natomiast przepisy obowiązujące w całej UE ograniczają się do rasy, koloru skóry, religii, pochodzenia lub pochodzenia narodowego lub etnicznego.
Potencjalne konsekwencje prawne dla Grok-3
Jeśli Grok-3 rzeczywiście generuje treści, które można uznać za mowę nienawiści, xAI może stanąć w obliczu poważnych konsekwencji prawnych:
- Sankcje finansowe – zgodnie z unijnym AI Act, firmy naruszające przepisy mogą zostać ukarane karami w wysokości do 35 milionów euro lub 7% globalnego rocznego obrotu.
- Ograniczenia w działaniu – w skrajnych przypadkach UE może nakazać ograniczenie lub zawieszenie działania Grok-3 na terenie Unii, jeśli model będzie uznany za naruszający przepisy dotyczące mowy nienawiści.
Więcej artykułów o AI Act możesz przeczytać tutaj:
Potrzebujesz pomocy w tym temacie?
Napisz do naszego eksperta
Artykuły z tej kategorii
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?
AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karami
Od 2 lutego 2025 obowiązują artykuły 1-5 AI Act, brak ich stosowania może skutkować wysokimi karamiDeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?
DeepSeek – chińska AI w trybie open source. Czy Hongkong ma szansę pokonać OpenAI?BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa
BREAKING nowe rozporządzenie wykonawcze prezydenta Trumpa