Hračka Kumma se po skandálu vrací do obchodů s novými AI modely a upravenými filtry. Ale může sedmidenní audit opravdu stačit na opravu systému, který učil děti o zapalování sirek a sexuálních tématech?
Společnost OpenAI se rozhodla omilostnit plyšového medvídka Kumma, hračku, která byla před několika dny stažena z trhu kvůli tomu, že vysvětlovala dětem, jak používat nože a mluvit o sexuálních fetiších. Společnost po bezpečnostním auditu, který trval sotva týden, obnovila přístup ke svým službám a umožnila tak návrat medvídka na pulty obchodů právě v době vánoční kampaně. Výrobce uvádí, že chyby opravil a že zařízení nyní funguje připojené k novým modelům GPT-5.1.
Konfigurační portál hračky je nyní opět aktivní a nabízí připojení k nejnovějším verzím AI: GPT-5.1 Thinking a Instant. Odpovědná společnost FoloToy tvrdí, že využila těchto dnů pozastavení k důkladné revizi svých moderátorských filtrů, i když rychlost, s jakou tak závažný problém vyřešila, vyvolává přinejmenším důvodné pochybnosti.
Návrat na trh v podezření
To, co se stalo s původním blokováním, nebyla žádná legrace. Spotřebitelská zpráva odhalila, že hračky s umělou inteligencí byly přistiženy, jak dávají pětiletým dětem podrobný návod, jak zapálit sirky. V případě Kummy se situace ještě více zamlžila, když konverzace zabrousila do sexuálně explicitních témat a rad, jak „lépe líbat“, čímž byly překročeny všechny červené linie ochrany a bezpečnosti dětí.
Tento incident poukazuje na rizika nezastavitelného trendu v tomto odvětví. Už jsme věděli, že ChatGPT bude zabudován do hraček obřích značek, jako je Mattel, ale případ FoloToy ukazuje, co se stane, když selžou filtry ve výrobcích, které se bez kontroly dostanou do domácností. Tlak na prodej „chytrých“ hraček o Vánocích se střetává s povinností zajistit, aby se umělá inteligence nechovala nevyzpytatelně vůči zranitelným uživatelům.
Velkým bezpečnostním trumfem, který nyní nabízejí, je měnící se model. Sam Altman již upozornil, že hledá lidštější a méně omezující ChatGPT s novými schopnostmi přizpůsobit osobnost a být empatičtější. Uvidíme však, zda přidání „vřelosti“ a emotikonů do odpovědí bude dostatečnou technickou překážkou, která zabrání algoritmu znovu navrhovat škodlivé chování, když se nikdo nedívá.
Základním problémem je, že tyto systémy jsou nepředvídatelné černé skříňky. Předchozí případy, jako jsou Raine a bitva o bezpečnost, již odhalily riziko, že chatbot posílí nebezpečné myšlenky. Proto nařízení začínají tyto vysoce rizikové produkty bedlivě sledovat a požadují skutečnou transparentnost bezpečnostních opatření.
Ani OpenAI, ani výrobce hraček nebyli ochotni objasnit technické detaily „omilostnění“ ani to, co se napoprvé pokazilo. Rychlé znovuobjevení výrobku naznačuje, že obchodní naléhavost převážila nad absolutní obezřetností. Otázkou zůstává, zda sedmidenní kontrola stačí k tomu, aby dítě zůstalo samo s generativním jazykovým modelem připojeným k internetu.
Budoucnost chytrých hraček
Případ Kumma zdůrazňuje potřebu přísnější regulace v oblasti chytrých hraček. S rostoucí integrací umělé inteligence do spotřebitelských výrobků čelí toto odvětví výzvě, jak vyvážit inovace a bezpečnost. Odborníci navrhují stanovit globální normy pro moderování obsahu zařízení, která komunikují s dětmi. Klíčem k získání důvěry spotřebitelů by navíc mohla být transparentnost používaných algoritmů.
Na druhé straně je zásadní vzdělávání rodičů a opatrovníků v oblasti bezpečného používání těchto hraček. Spotřebitelské organizace prosazují informační kampaně, které by dospělým pomohly lépe pochopit rizika spojená s pokročilými technologiemi v hračkách a jak správně dohlížet na jejich používání.
Případ Kumma by mohl být zlomovým bodem ve způsobu, jakým jsou inteligentní hračky vyvíjeny a uváděny na trh. Přestože technologie mají potenciál obohatit učení a zábavu dětí, je také velmi důležité zajistit, aby byly používány zodpovědně a bezpečně. Úspěch chytrých hraček bude nakonec záviset na schopnosti výrobců zavést účinná ochranná opatření a na ochotě orgánů aktivně regulovat a monitorovat trh.
Návrat Kumma na trh vyvolává důležité otázky týkající se odpovědnosti technologických společností a společností vyrábějících hračky za ochranu dětí. Vzhledem k tomu, že technologie postupují mílovými kroky, nesmí bezpečnost zůstat pozadu. Spolupráce mezi vývojáři, regulačními orgány a spotřebiteli bude nezbytná k zajištění toho, aby chytré hračky byly inovativní a zároveň bezpečné.
