Studie odhaluje, jak tři hračky s umělou inteligencí dávají dětem nebezpečné pokyny, od aportování nožů až po explicitní sexuální obsah.
Americká organizace Public Interest Research Group zveřejnila alarmující zprávu o dětských hračkách vybavených umělou inteligencí. Tři populární modely určené pro děti ve věku od 3 do 12 let poskytovaly během delší konverzace nebezpečné pokyny – od hledání nožů v kuchyni přes zapalování sirek až po sexuálně explicitní obsah. To vše se dělo při zcela běžném používání, bez nutnosti hackování nebo manipulace.
Výzkumníci pod vedením RJ Crosse testovali hračky Kumma od společnosti FoloToy, Miko 3 a Grok od společnosti Curio. Tyto hračky podle časopisu Futurism vykazovaly významné nedostatky ve svých bezpečnostních systémech. Model Kumma, vybavený systémem GPT-4o společnosti OpenAI, dokonce po aktivaci určitých klíčových slov naváděl nezletilé na seznamovací aplikace a nabízel explicitní rady ohledně sexuálních praktik. Poskytoval také návody na bondážní uzly a zaváděl fyzické tresty v kontextu školních rolových her.
Tři hračky, jeden strukturální problém
Grok od společnosti Curio předává data do systémů OpenAI a Perplexity, zatímco Miko 3 pracuje s blíže nespecifikovaným systémem umělé inteligence. Všechny tři mají společnou chybu: jejich ochranné systémy nefungují správně. Během testů, které simulovaly běžné konverzace, byly bezpečnostní filtry snadno obejity. Zpráva uvádí, že tato selhání se objevují během delších konverzací, což je právě nejpravděpodobnější scénář, kdy si dítě s jedním z těchto zařízení hraje.
“Researchers found that the AI toys can verge into risky territory for kids, including telling them where to find knives and how to start a fire.
— Gisele Navarro (@ichbinGisele) November 13, 2025
One of the AI toys even engaged in explicit discussions, offering advice on sex positions and fetishes.”
🔗 https://t.co/eDiXHPNMLV pic.twitter.com/Z0t5Bz3lIY
Situace je znepokojující, zejména když uvážíme, že společnost Mattel v červnu oznámila spolupráci s OpenAI na integraci této technologie do svých připravovaných hraček. Společnost slíbila, že bude upřednostňovat bezpečnost, ale neupřesnila, jaká konkrétní opatření zavede. Důvod k optimismu nedává ani precedens Hello Barbie z roku 2015, která se zapletla do kontroverze kvůli bezpečnostním nedostatkům a shromažďování údajů. Odborníci varují před schopností těchto hraček vytvářet emocionální závislost, což je jev, který může mít pro děti dlouhodobé psychické následky.
Zvláště znepokojivý je případ Adama Raina, kde chatbot působil jako katalyzátor tragického vyústění. Tato událost podtrhuje význam zavedení přísnějších a účinnějších bezpečnostních opatření pro hračky využívající umělou inteligenci.
Závěr RJ Crosse a jeho týmu je jasný: nedoporučují kupovat hračky se zabudovanými chatboty nezletilým osobám. Nedostatek účinné regulace umožňuje, aby se tyto výrobky prodávaly bez dozoru, a problém není jednorázovou chybou, kterou lze opravit aktualizací softwaru. Jedná se o strukturální zranitelnost zařízení, která simulují lidské rozhovory bez skutečných mechanismů ochrany dětí.
Výzkumníci dokumentují, že společnosti uvádějí na trh výrobky, aniž by se zabývaly základními otázkami bezpečnosti a ochrany soukromí dětí, a shromážděné případy ukazují, že důsledky přesahují rámec pouhé technické chyby.
Cesta k přísnější regulaci
Rostoucí obliba uměle inteligentních hraček vyvolává naléhavou potřebu přísnější regulace. Zákonodárci a organizace na ochranu spotřebitelů musí spolupracovat na stanovení jasných pravidel pro zajištění bezpečnosti dětí. To zahrnuje zavedení robustnějších filtrů obsahu, monitorování interakce dětí s těmito zařízeními a transparentnost při shromažďování a využívání údajů.
Kromě toho by si rodiče měli být vědomi rizik spojených s těmito hračkami a měli by pečlivě sledovat, jak je jejich děti používají. Vzdělávání v oblasti bezpečného používání technologií je nezbytné pro ochranu dětí před možnými nebezpečími.
V konečném důsledku je na výrobcích, aby zajistili, že jejich výrobky jsou pro děti bezpečné. To zahrnuje nejen dodržování stávajících předpisů, ale také další kroky k ochraně nejzranitelnějších uživatelů. Pouze společným úsilím bude možné zajistit, aby umělá inteligence byla v dětských hračkách používána bezpečně a prospěšně.
