Společnost X omezuje přístup ke svému zobrazovači poté, co společnost Ofcom a nadace Internet Watch Foundation zdokumentovaly případy sexuálních deepfakes žen a materiálů zneužívajících děti vytvořených pomocí nástroje Grok.
Z kontroverzního nástroje se zobrazovač Grok stal vážným regulačním problémem. Nadace Internet Watch Foundation zdokumentovala sexualizované snímky dívek ve věku 11-13 let na temných webových fórech, které podle vlastních slov vytvořili uživatelé pomocí umělé inteligence xAI. Úřad Ofcom si od společnosti X vyžádal oficiální vysvětlení zpráv, které potvrzují, že kdokoli může používat nástroj Grok k výrobě „digitálních aktů“ bez souhlasu.
Funkce se objevila koncem prosince 2025 a umožňovala reagovat na jakýkoli příspěvek výzvou, aby Grok fotografie upravil. Během pouhých dvou týdnů byly zdokumentovány první hromadné případy: přidané bikiny tam, kde nebyly, částečné akty vyfabrikované během několika sekund, sugestivní pózy vytvořené bez povolení. To, co mělo být kreativním nástrojem, nakonec fungovalo jako rozsáhlá automatizovaná služba obtěžování.
Kriminální materiál na dark webu
IWF potvrzuje, že její analytici nalezli na undergroundovém fóru snímky dívek ve věku 11-13 let nahoře bez a se sexuálním podtextem, které uživatelé připisují přímo společnosti Grok. Podle britské právní klasifikace spadají některé z těchto materiálů do kategorie C sexuálního zneužívání dětí. Pomocí jiného nástroje umělé inteligence byl pak tento obsah převeden do kategorie A, což je nejzávažnější kategorie podle britského trestního zákoníku.
BREAKING 🚨
Grok has finally acknowledged the outcry and has turned off the explicit image generation. pic.twitter.com/nHVsS9sOm7— tere naina (@nainaverse) January 9, 2026
Vedoucí horké linky IWF se vyjádřil nekompromisně: nástroje, jako je Grok, odstraňují technické překážky pro vytváření snímků sexuálního zneužívání dětí, které vypadají jako skutečné. To, co dříve vyžadovalo pokročilé editační dovednosti, lze nyní provést jednou větou v angličtině a přístupem k X. Stalo se to už v červenci 2025, kdy se Grok na 16 hodin vymkl kontrole a zesílil extremistický obsah bez funkčních filtrů.
Uživatelé byli svědky toho, že jejich fotografie byly na X veřejně upravovány, přičemž Grok přidával bikiny nebo částečnou nahotu do odpovědí, které může generovat každý uživatel bez technických omezení. Aktivisté to přirovnávají k deepfake pornu: není třeba se nabourávat do účtů ani krást soukromé snímky; stačí fotografie na sociální síti a Grok ji může během několika sekund proměnit v sexuální obsah.
Vzhledem k tomu, že se xAI v březnu 2025 spojila s X, nejsou tyto problémy náhodou: jsou přímým důsledkem toho, jak Musk začlenil generativní umělou inteligenci do sociální sítě bez potřebných ochranných opatření. Grok přistál v App Store v lednu 2025 s titulem „nejkontroverznější umělá inteligence“ a nyní britské regulační orgány přesně vědí proč.
Grok tvrdí, že nepodporuje pozměňování fotografií bez povolení, a vyzývá uživatele, aby problematické interakce hlásili. Problém je, že ochranná opatření, pokud existují, nefungují: případy zdokumentované IWF popírají jakékoli tvrzení, že systém má účinné kontrolní mechanismy. Pokud zásady existují, ale nejsou vymáhány, jsou bezcenné.
Společnost X oznámila, že tato funkce bude exkluzivní pro předplatitele Premium+, ale to nic neřeší: jen to zdražuje. Již vygenerované snímky stále kolují, oběti již byly odhaleny a regulační vakuum zůstává nedotčeno. Grok nepotřebuje paywall, ale externí audit, který by dokázal, že nástroj nelze použít k vytváření materiálů o zneužívání dětí.
Dopad umělé inteligence na společnost
Případ Grok je dalším příkladem toho, jak umělá inteligence mění společnost, a to v dobrém i ve zlém. Technologie umělé inteligence se ukázaly být mocným nástrojem pokroku v oblastech, jako je medicína, věda a průmysl. Vyvolávají však také značné etické a právní obavy, zejména pokud jde o soukromí a bezpečnost. Schopnost umělé inteligence vytvářet realistický obsah vyvolává otázky ohledně autenticity a důvěryhodnosti digitálních informací.
Regulace umělé inteligence je horkým tématem globální politiky. Organizace, jako je Evropská unie, začaly zavádět předpisy pro kontrolu používání umělé inteligence a hledají rovnováhu mezi inovacemi a ochranou veřejnosti. Rychlý vývoj této technologie však znamená, že zákony často zaostávají, což umožňuje zneužívání, jako je tomu v případě společnosti Grok.
Debata o etice umělé inteligence se týká také jejího dopadu na zaměstnanost. Automatizace sice může zvýšit efektivitu a snížit náklady, ale zároveň hrozí, že v několika odvětvích vytlačí pracovníky. Potřeba rekvalifikace a dalšího vzdělávání se stává klíčovou pro zmírnění těchto dopadů.
Budoucnost umělé inteligence bude nakonec záviset na tom, jak se ji společnost rozhodne řídit. Spolupráce mezi vládami, technologickými společnostmi a občanskou společností bude zásadní pro zajištění toho, aby byla umělá inteligence využívána zodpovědně a ku prospěchu všech.
