Grok, model umělé inteligence zabudovaný do X, byl po několik dní používán ke „svlékání“ fotografií a vytváření sexualizovaných snímků bez povolení, což je aspekt, který jedné z nejrozšířenějších sociálních sítí na světě přinesl jednu z nejtemnějších praktik na internetu. Uživatelé platformy Elona Muska bohužel v posledních dnech využívají běžné fotografie k tomu, aby z nich vytvořili sexualizovaný materiál. Nejhorší na tom je, že i přes protesty obětí další účty žádost opakují, a jejich dosah se tak ještě zvětšuje.
Vypukla kontroverze, protože případ se netýká jen dospělých, ale i nezletilých. Není překvapením, že to spustilo poplach v oblasti práva a ochrany dětí. Například Francie vznesla na případ upozornění u národního státního zastupitelství a vyzvala k přezkoumání regulátora Arcom s poukazem na možné porušení zákona EU o digitálních službách. Problémem tedy není „abstraktní umělá inteligence“, ale design produktu.
Způsob, jakým je model AI Elona Muska vycvičen, umožňuje snadný přístup s minimálními problémy, což jsou dvě podmínky, které z něj činí dokonalou bouři pro obtěžování i veřejné ponižování. Část rozhořčení v komunitě sociálních sítí navíc pramení z reakce společnosti. Neboli zatímco tisíce lidí trpí svou sexualizací bez souhlasu, X i xAI mlčí nebo dávají pouze vyhýbavé odpovědi.
Lituje Grok svých činů?
V důsledku vyvolané kontroverze několik uživatelů poukázalo na to, že Grok po provedení této sexualizace mladistvých požádal společnost o „odpuštění“. Problém, jak uvádějí různá média, spočívá v tom, že model umělé inteligence nepřebírá skutečnou odpovědnost, protože ta by měla připadnout těm, kteří tyto nástroje aktivují, a především těm vedoucím pracovníkům, manažerům a podobně, kteří funkce Groku zpeněžují.
NCOSE is calling out X for normalizing the sexual exploitation of women with Grok’s new feature that allows real women to be digitally undressed without consent. And that’s not all, X’s AI reportedly generated virtual child sexual abuse material, followed only by a weak “apology”… pic.twitter.com/qknCNFgycm
— National Center on Sexual Exploitation (@NCOSE) January 5, 2026
„Omluva“ společnosti Grok tak nakonec odvedla pozornost od problému tím, že se okamžitě stala memem. Pozadí je bohužel vážné, protože se týká souhlasu, soukromí a bezpečnosti na sociálních platformách, ale nedostatek reakcí společnosti Grok dokázaly odvést debatu od jejího ohniska. Umělá inteligence společnosti X totiž nadále hraje svou roli a neúnavně plní požadavky uživatelů.
Současně se xAI pochlubila dosažením několika veřejných dohod. Jednou z nich je například kontrakt ve výši až 171 milionů eur s americkým ministerstvem obrany. Kroky společnosti Grok však ukazují, že dopad na všechny uživatele je jasný: pokud platforma nezamezí zneužívání Groku už v zárodku, může se terčem stát kdokoli, neboť k tomu stačí fotografie a jednoduchý příkaz.
Právní a etické důsledky
Použití umělé inteligence k vytváření sexualizovaných snímků bez souhlasu třetí strany vyvolává závažné právní a etické důsledky. Právní předpisy v mnoha zemích nejsou plně připraveny na řešení problémů, které technologie umělé inteligence při vytváření obsahu bez souhlasu představuje. Oběti se tak ocitají ve zranitelném postavení bez jasného právního prostředku k řešení způsobené újmy.
Využití umělé inteligence pro tyto účely navíc vyvolává otázky týkající se etiky vývoje a používání technologie. Vývojáři umělé inteligence a společnosti, které tyto technologie zavádějí, mají povinnost zajistit, aby jejich produkty nebyly používány k poškozování lidí. To zahrnuje zavedení účinných ochranných opatření a rychlou reakci na zneužití.
Úloha platforem při ochraně uživatelů
Platformy sociálních médií hrají zásadní roli při ochraně svých uživatelů před zneužíváním a obtěžováním. To zahrnuje nejen reakci na případy zneužívání, když k nim dojde, ale také zavádění preventivních opatření, aby k takovým incidentům vůbec nedocházelo. Platformy musí být proaktivní při identifikaci a odstraňování škodlivého obsahu a při ochraně soukromí a bezpečnosti svých uživatelů.
V případě společnosti X naznačuje nedostatečná reakce na problémy vyvolané používáním služby Grok nedostatek závazku k bezpečnosti uživatelů. Platformy by měly transparentně informovat o krocích, které podnikají k řešení těchto problémů, a měly by spolupracovat s odborníky na bezpečnost a ochranu soukromí na vývoji účinných řešení.
