Redakcja Polska

Grok pod lupą. Jak narzędzie Elona Muska stało się symbolem zagrożeń sztucznej inteligencji

25.01.2026 16:11
Sztuczna inteligencja coraz śmielej wkracza do codziennego życia. Pomaga planować, analizować dokumenty i przyspieszać pracę. Jednak wraz z rozwojem technologii rośnie także skala zagrożeń. Szczególne kontrowersje budzi dziś Grok – narzędzie powiązane z platformą X, należącą do Elona Muska. Zdaniem ekspertów to jeden z najbardziej problematycznych przykładów niekontrolowanego wykorzystania AI. O zagrożeniach związanych z Grokiem mówi Piotr Mieczkowski, dyrektor zarządzający Fundacji Digital Poland.
Audio
  • "Grok pokazał, że dziś do tworzenia fałszu, manipulacji i naruszania prywatności nie potrzeba już wiedzy technicznej. Wystarczy kilka kliknięć.” mówi Piotr Mieczkowski, dyrektor zarządzający Fundacji Digital Poland, w rozmowie z Piotrem Żułnowskim [POSŁUCHAJ]
zdjęcie ilustracyjne
zdjęcie ilustracyjneReuters

Jednym z największych problemów związanych z Grokiem jest łatwość generowania fałszywych treści. System pozwala tworzyć realistyczne teksty, obrazy i grafiki, które mogą być wykorzystywane do manipulowania opinią publiczną.

– Nigdy wcześniej tak zaawansowane narzędzie nie było dostępne na taką skalę – podkreśla Piotr Mieczkowski.

Grok umożliwia szybkie tworzenie botów, spreparowanych informacji czy zmanipulowanych zdjęć. W efekcie dezinformacja może rozprzestrzeniać się szybciej niż kiedykolwiek wcześniej, a odbiorcy często nie są w stanie odróżnić prawdy od fałszu.

Największe kontrowersje wzbudziły funkcje pozwalające na ingerencję w zdjęcia użytkowników. Grok umożliwia generowanie obrazów przedstawiających realne osoby w kompromitujących lub erotycznych sytuacjach, bez ich wiedzy i zgody.

W przeciwieństwie do wielu innych narzędzi AI, Grok przez długi czas działał bez skutecznych zabezpieczeń. Oznaczało to, że każdy użytkownik mógł tworzyć takie materiały bez większych ograniczeń.

Problem stał się szczególnie poważny, gdy zaczęły pojawiać się przypadki dotyczące dzieci i młodzieży. Tworzenie seksualizowanych wizerunków nieletnich jest niezgodne z prawem, zarówno w Europie, jak i w Stanach Zjednoczonych.

Grok funkcjonuje w ramach platformy X, która – podobnie jak inne amerykańskie serwisy – korzysta z ochrony wynikającej z tzw. sekcji 230. Przepis ten ogranicza odpowiedzialność platform za treści publikowane przez użytkowników.

W praktyce oznacza to, że:

  • platforma udostępnia narzędzie,

  • użytkownicy tworzą treści,

  • odpowiedzialność spada głównie na nich.

Reakcja serwisu najczęściej następuje dopiero po zgłoszeniu naruszenia. Jeśli nikt nie zareaguje, szkodliwe materiały mogą przez długi czas pozostawać dostępne.

Osoby, których wizerunek został wykorzystany przez Groka, mają ograniczone możliwości obrony. W teorii mogą zgłosić sprawę do platformy lub wystąpić na drogę sądową. W praktyce jest to bardzo trudne.

Twórcy takich treści często działają anonimowo. Brakuje danych umożliwiających ich identyfikację, a postępowania sądowe bywają długotrwałe i kosztowne.

– W internecie nie mamy do czynienia z realnym przeciwnikiem, tylko z anonimowym profilem – zauważa Mieczkowski.

Choć w Europie obowiązuje Akt o usługach cyfrowych (DSA), który nakłada na platformy nowe obowiązki, jego skuteczność w Polsce jest na razie ograniczona. Brakuje pełnego systemu nadzoru i jasnych procedur odwoławczych.

W Stanach Zjednoczonych wprowadzono przepisy zakazujące wykorzystywania deepfake’ów w pornografii bez zgody osoby zainteresowanej. Jednak wiele przypadków związanych z Grokiem balansuje na granicy prawa i tzw. dobrego smaku.

Zdjęcia w bikini, sugestywne grafiki czy półerotyczne wizualizacje często nie spełniają formalnej definicji pornografii, mimo że naruszają prywatność.

Szczególnie niepokojący jest wpływ Groka na najmłodszych użytkowników internetu. Oficjalny wiek korzystania z platform to 13 lat, jednak w praktyce wiele młodszych dzieci bez przeszkód używa takich narzędzi.

Brak skutecznej weryfikacji wieku sprawia, że nieletni mają dostęp do treści, które mogą być dla nich szkodliwe. Co więcej, sami mogą stać się ofiarami manipulacji lub cyberprzemocy z wykorzystaniem AI.

Zwolennicy minimalnych regulacji argumentują, że ingerencja w działanie platform ogranicza wolność słowa. Krytycy odpowiadają, że w przypadku Groka mamy do czynienia raczej z brakiem odpowiedzialności niż z obroną swobody wypowiedzi.

– Jeśli narzędzie umożliwia masowe naruszanie prywatności, to nie jest już kwestia wolności, tylko bezpieczeństwa – podkreśla Mieczkowski.

Przypadek Groka pokazuje, jak szybko innowacja może wymknąć się spod kontroli. Narzędzie, które miało służyć analizie i wyszukiwaniu informacji, stało się dla wielu użytkowników sposobem na tworzenie treści szkodliwych i krzywdzących.

Eksperci podkreślają, że bez realnego nadzoru, skutecznych kar i edukacji cyfrowej podobne problemy będą się powtarzać.

Rozwój sztucznej inteligencji jest nieunikniony. Pytanie brzmi, czy prawo i społeczeństwo nadążą za technologią, zanim kolejne narzędzia pójdą drogą Groka.

Wystawa „AI władza sztuki” w Zamku Ujazdowskim

29.07.2025 08:30
Eksperyment, prowokacja i instalacja artystyczne – najnowsza ekspozycja  w Centrum Sztuki Współczesnej w Warszawie to głos w globalnej dyskusji na temat roli sztucznej inteligencji w społeczeństwie i widocznego kryzysu mechanizmów demokracji.  

Włosi proszą AI o prezenty. Co trzeci wybór „podpowiedział” algorytm

26.12.2025 19:30
We Włoszech sztuczna inteligencja coraz częściej staje się „doradcą zakupowym” przed świętami.

Ekspertka: sztuczna inteligencja nie może zastąpić konsultacji lekarskich

15.01.2026 10:00
Firma OpenAI zaprezentowała nowy moduł ChatGPT, który ma m.in. analizować wyniki badań krwi na podstawie dokumentacji medycznej. Użytkownicy nie powinni mieć jednak przekonania, że uzyskają diagnozę od ChatGPT – powiedziała liderka AI w Zdrowiu Ligia Kornowska.