Skandál kolem Groku: Elonova AI vytváří sexualizované snímky bez souhlasu

Skandál kolem Groku: Elonova AI vytváří sexualizované snímky bez souhlasu

Zdroj obrázku: DIA TV / Shutterstock.com

Umělá inteligence Grok, integrovaná do sociální sítě X, se stala nástrojem k vytváření sexualizovaných snímků bez souhlasu, a to i u nezletilých. Skandál odhaluje selhání platformy v ochraně uživatelů a vyvolává zásadní otázky o odpovědnosti vývojářů i provozovatelů AI systémů.


Grok, model umělé inteligence zabudovaný do X, byl po několik dní používán ke „svlékání“ fotografií a vytváření sexualizovaných snímků bez povolení, což je aspekt, který jedné z nejrozšířenějších sociálních sítí na světě přinesl jednu z nejtemnějších praktik na internetu. Uživatelé platformy Elona Muska bohužel v posledních dnech využívají běžné fotografie k tomu, aby z nich vytvořili sexualizovaný materiál. Nejhorší na tom je, že i přes protesty obětí další účty žádost opakují, a jejich dosah se tak ještě zvětšuje.

Vypukla kontroverze, protože případ se netýká jen dospělých, ale i nezletilých. Není překvapením, že to spustilo poplach v oblasti práva a ochrany dětí. Například Francie vznesla na případ upozornění u národního státního zastupitelství a vyzvala k přezkoumání regulátora Arcom s poukazem na možné porušení zákona EU o digitálních službách. Problémem tedy není „abstraktní umělá inteligence“, ale design produktu.

Způsob, jakým je model AI Elona Muska vycvičen, umožňuje snadný přístup s minimálními problémy, což jsou dvě podmínky, které z něj činí dokonalou bouři pro obtěžování i veřejné ponižování. Část rozhořčení v komunitě sociálních sítí navíc pramení z reakce společnosti. Neboli zatímco tisíce lidí trpí svou sexualizací bez souhlasu, X i xAI mlčí nebo dávají pouze vyhýbavé odpovědi.

Související článek

Google dává robotům mozek. Gemini míří do továren spolu s Boston Dynamics
Google dává robotům mozek. Gemini míří do továren spolu s Boston Dynamics

Společnosti Google DeepMind a Boston Dynamics spojily síly, aby přenesly inteligenci modelu Gemini do reálného světa. Cílem je vytvořit roboty, kteří nejen vykonávají pohyby, ale skutečně rozumí tomu, co dělají – počínaje továrnami Hyundai a mířícími do budoucnosti robotiky, kde se AI stává fyzickou silou.

Lituje Grok svých činů?

V důsledku vyvolané kontroverze několik uživatelů poukázalo na to, že Grok po provedení této sexualizace mladistvých požádal společnost o „odpuštění“. Problém, jak uvádějí různá média, spočívá v tom, že model umělé inteligence nepřebírá skutečnou odpovědnost, protože ta by měla připadnout těm, kteří tyto nástroje aktivují, a především těm vedoucím pracovníkům, manažerům a podobně, kteří funkce Groku zpeněžují.

„Omluva“ společnosti Grok tak nakonec odvedla pozornost od problému tím, že se okamžitě stala memem. Pozadí je bohužel vážné, protože se týká souhlasu, soukromí a bezpečnosti na sociálních platformách, ale nedostatek reakcí společnosti Grok dokázaly odvést debatu od jejího ohniska. Umělá inteligence společnosti X totiž nadále hraje svou roli a neúnavně plní požadavky uživatelů.

Současně se xAI pochlubila dosažením několika veřejných dohod. Jednou z nich je například kontrakt ve výši až 171 milionů eur s americkým ministerstvem obrany. Kroky společnosti Grok však ukazují, že dopad na všechny uživatele je jasný: pokud platforma nezamezí zneužívání Groku už v zárodku, může se terčem stát kdokoli, neboť k tomu stačí fotografie a jednoduchý příkaz.

Právní a etické důsledky

Použití umělé inteligence k vytváření sexualizovaných snímků bez souhlasu třetí strany vyvolává závažné právní a etické důsledky. Právní předpisy v mnoha zemích nejsou plně připraveny na řešení problémů, které technologie umělé inteligence při vytváření obsahu bez souhlasu představuje. Oběti se tak ocitají ve zranitelném postavení bez jasného právního prostředku k řešení způsobené újmy.

Využití umělé inteligence pro tyto účely navíc vyvolává otázky týkající se etiky vývoje a používání technologie. Vývojáři umělé inteligence a společnosti, které tyto technologie zavádějí, mají povinnost zajistit, aby jejich produkty nebyly používány k poškozování lidí. To zahrnuje zavedení účinných ochranných opatření a rychlou reakci na zneužití.

Úloha platforem při ochraně uživatelů

Platformy sociálních médií hrají zásadní roli při ochraně svých uživatelů před zneužíváním a obtěžováním. To zahrnuje nejen reakci na případy zneužívání, když k nim dojde, ale také zavádění preventivních opatření, aby k takovým incidentům vůbec nedocházelo. Platformy musí být proaktivní při identifikaci a odstraňování škodlivého obsahu a při ochraně soukromí a bezpečnosti svých uživatelů.

V případě společnosti X naznačuje nedostatečná reakce na problémy vyvolané používáním služby Grok nedostatek závazku k bezpečnosti uživatelů. Platformy by měly transparentně informovat o krocích, které podnikají k řešení těchto problémů, a měly by spolupracovat s odborníky na bezpečnost a ochranu soukromí na vývoji účinných řešení.

#