Startup Figure AI budí pozornost svými humanoidními roboty, které mají zvládat domácí úkoly i těžkou práci. Nyní však čelí žalobě od vlastního bezpečnostního inženýra, podle něhož jsou jejich stroje schopny způsobit smrtelná zranění. Případ otevírá zásadní otázku: jak bezpečné jsou roboty, které mají pracovat bok po boku s lidmi?
Robotický startup Figure AI, jedna z nejsledovanějších společností v závodě o vytvoření humanoidních robotů pro všeobecné použití, má ambiciózní plány: chce vyrábět 12 000 robotů ročně a během prvních čtyř let své komerční činnosti dosáhnout hranice 100 000 vyrobených kusů. Její stroje jsou poháněny vlastní umělou inteligencí Helix, systémem, který kombinuje počítačové vidění, modelování jazyka a řízení motoru, aby robot mohl interpretovat mluvené příkazy a jednat v reálném prostředí.
Model Figure 02, humanoid pro všeobecné použití zaměřený na fyzickou práci a se silou odpovídající lidské síle – nebo dokonce větší než lidská síla – nebude mít komerční verzi přímo pro spotřebitele, ale sloužil jako testovací platforma v průmyslovém prostředí. Dalším krokem společnosti je Figure 03, robot o něco kratší (1,68 m) a lehčí (61 kg) než jeho předchůdce, navržený speciálně pro domácí práce, jako je vyklízení pokojů, nakládání a vykládání myčky, skládání prádla nebo stěhování krabic a malých spotřebičů.
Sama společnost jej prezentuje jako „domácího asistenta“, který se dokáže učit pozorováním lidí a vykonávat složité hlasové pokyny díky integraci modelů umělé inteligence od společností, jako jsou OpenAI a Microsoft. Společnost Figure na videích ukázala, jak robot rozpoznává objekty, plánuje sekvence činností a odpovídá na otázky týkající se toho, co vidí nebo dělá.
Za touto představou domácího asistenta se však skrývají značná rizika, jak uvádí žaloba podaná bývalým zaměstnancem, který byl propuštěn poté, co upozornil představitele společnosti, že roboti jsou „dostatečně výkonní, aby rozbili lidskou lebku“, jak informovala specializované médium Futurism.
Žaloba: Bezpečnostní inženýr proti společnosti
Žalobcem je Robert Gruendel, který byl vedoucím inženýrem pro bezpečnost robotů. Žalobu podal minulý pátek u federálního soudu v severním okrese Kalifornie. Jeho právníci tvrdí, že k jeho „neoprávněnému propuštění“ došlo v září, jen několik dní poté, co vedení společnosti předložil své „nejpřímější a zdokumentované stížnosti týkající se bezpečnosti“ a rizik humanoidních robotů společnosti.
Whistleblower Says He Was Fired for Warning Execs That New Robot Could Crush Human Skull
We will be using g robots in the future and the robots should safe just like cars, planes and toasters …. ALL MACHINES https://t.co/5FJLcrodz4
— David Friedfeld (@OpticalBuddy) November 25, 2025
Podle žaloby byl Gruendel najat právě proto, aby navrhl a dohlížel na bezpečnostní opatření pro roboty, včetně limitů síly, protokolů nouzového vypnutí, systémů detekce lidské přítomnosti a testovacích postupů. Konflikt údajně vznikl, když po několika interních testech dospěl k závěru, že robot může způsobit vážnou újmu lidem a že společnost nezavádí všechna bezpečnostní opatření, která považoval za nezbytná.
Žaloba přichází jen dva měsíce poté, co společnost Figure dosáhla v rámci kola financování vedeného Parkway Venture Capital ocenění na 39 miliard dolarů (819 miliard korun). Tato částka je patnáctinásobkem hodnoty z počátku roku 2024, kdy společnost uzavřela další kolo s prvotřídními investory, mezi něž patří mimo jiné Jeff Bezos, Nvidia a Microsoft. Rychlý nárůst ocenění učinil ze společnosti Figure jednoho z nejatraktivnějších jednorožců v odvětví humanoidní robotiky.
V této souvislosti má obvinění bezpečnostního pracovníka, který společnost obvinil z podceňování rizik, zvláštní dopad: nejenže ovlivňuje pověst společnosti, ale může také znepokojovat investory, průmyslové partnery a potenciální domácí zákazníky.
Potenciálně smrtící schopnosti
V žalobě Gruendelovi právníci tvrdí, že inženýr upozornil generálního ředitele společnosti Figure Bretta Adcocka a hlavního inženýra Kylea Edelberga na potenciálně smrtící schopnosti robota. Mimo jiné popisuje, jak Figure 02 po poruše málem srazil zaměstnance a že ve stejné epizodě robotické rameno narazilo do ocelových dveří kancelářské lednice a zanechalo „asi šestimilimetrový otisk“.
Takové nárazy nejsou zanedbatelné. V průmyslové robotice se běžně používají fyzické zábrany, klece a senzory, které zabraňují robotům sdílet prostor s lidmi, právě proto, že kombinace hmotnosti, rychlosti a tuhosti jejich paží může způsobit vážná zranění. V případě humanoidů je cílem, aby pracovali vedle lidí v otevřeném prostředí, což vyžaduje extrémní bezpečnostní opatření.
Ačkoli Figure 02 nebude uveden na trh jako spotřebitelský produkt, má za sebou 11měsíční nasazení v továrně BMW ve Spojených státech, kde pracoval na montážní lince a podle automobilky přispěl k výrobě více než 30 000 vozidel. BMW tento pilotní projekt prezentovalo jako příklad spolupráce člověka a robota při opakujících se úkolech, jako je přesouvání dílů nebo provádění vizuálních kontrol.
Po představení modelu 03 společnost oznámila, že vyřazuje model Figure 02 a získané poznatky využije v novém modelu. Podle Figure byly zkušenosti z továrny BMW využity ke zlepšení stability robota, jeho manipulačních schopností a také jeho bezpečnostních systémů. Gruendelova žaloba však naznačuje, že některé z těchto poznatků nebyly promítnuty do dostatečných bezpečnostních opatření.
Crash testy a nadlidská rychlost
Gruendel provedl s robotem 02 nárazovou zkoušku, na jejímž základě dospěl k závěru, že by robot mohl způsobit vážné zranění člověka. Během těchto testů se robot pohyboval „nadlidskou rychlostí“ a vytvářel nárazy, které podle měření v žalobě dvacetkrát převyšovaly lidský práh bolesti.
Inženýr také odhadl, že síla generovaná robotem Figure 02 byla „přibližně dvakrát větší, než je potřeba k proražení lebky dospělého člověka“. Pro širokou veřejnost mohou tato čísla znít abstraktně, ale myšlenka je jednoduchá: pokud se tuhá robotická ruka s desítkami kilogramů hmotnosti a výkonnými motory pohybuje bez omezení rychlosti nebo síly, může být výsledek přímého nárazu do hlavy nebo trupu člověka podobný úderu kovovou pálkou nebo ještě horší.
V průmyslu existují technické normy, které se snaží tato rizika omezit. Například mezinárodní norma ISO 10218 a technická specifikace ISO/TS 15066 stanoví limity síly a tlaku pro kolaborativní roboty (tzv. koboty) při práci v těsné blízkosti člověka. Jde o to, aby v případě náhodného kontaktu náraz nepřekročil určité prahové hodnoty považované za bezpečné pro různé části těla. Podle žaloby by testy Figure 02 tyto teoretické limity značně překročily.
V případě spotřební robotiky, kde se robot může dostat do kontaktu s dětmi, staršími lidmi nebo domácími zvířaty, je situace ještě citlivější. Odborníci na bezpečnost doporučují začlenit několik vrstev ochrany: od senzorů, které detekují kontakt a okamžitě sníží sílu, přes „měkké“ zóny na robotu, omezení rychlosti v přítomnosti lidí až po dostupné a spolehlivé systémy nouzového zastavení.
„Bezpečnostní plán“ a obvinění z podvodu
Podle soudního podání společnost vypracovala „bezpečnostní plán“, který byl ukázán dvěma potenciálním investorům, kteří nakonec společnost financovali. Dokument údajně podrobně popisoval bezpečnostní opatření pro roboty, plány certifikace a mechanismy zmírnění rizik.
Gruendel tvrdí, že varoval vrcholové vedení společnosti Figure AI, aby „nerozmělňovalo“ plán nebo neomezovalo bezpečnostní zdroje, protože se obával, že „plán bezpečnosti produktu, který přispěl k jejich rozhodnutí investovat“, by byl po uzavření kola financování „zrušen“. Podle jeho názoru by předložení ambiciózního plánu investorům a jeho následné nesplnění mohlo být „vykládáno jako podvod“, protože by mohlo ovlivnit rozhodnutí o poskytnutí kapitálu.
Inženýr tvrdí, že namísto posílení bezpečnostních týmů dala společnost přednost rychlosti vývoje a předvedení velkolepých schopností ve videích a veřejných testech. S jeho obavami se podle žaloby „zacházelo jako s překážkami, nikoliv s povinnostmi“, a společnost údajně použila „nejasnou změnu obchodního směru“ jako záminku k odůvodnění jeho propuštění.
Gruendel požaduje peněžité, kompenzační a sankční odškodnění a žádá soudní proces s porotou. V případě úspěchu by případ mohl vytvořit důležitý precedens v odvětví, kde se stále více společností předhání v rychlém pokroku humanoidních robotů schopných vykonávat úkoly v továrnách, skladech a domácnostech.
Reakce Figure AI
Strana společnosti je radikálně odlišná. Mluvčí společnosti Figure prohlásil, že Gruendel byl „propuštěn pro špatný výkon“ a že jeho „tvrzení jsou nepravdivá a společnost Figure je u soudu důkladně zdiskredituje“. Společnost trvá na tom, že bezpečnost je prioritou a že její roboti jsou navrženi v souladu s nejlepšími postupy v oboru.
Ve vyjádřeních pro technologická média vedení společnosti Figure zdůraznilo, že její roboti obsahují systémy nouzového zastavení, omezení síly a redundantní senzory, které mají zabránit nebezpečnému chování. Připomněli také, že nasazení u BMW proběhlo za přísných bezpečnostních protokolů a pod dohledem a že během pilotního projektu nebylo hlášeno žádné zranění pracovníků.
Společnost prozatím nezveřejnila konkrétní technické podrobnosti o tom, jak omezuje sílu nebo rychlost svých robotů v domácím prostředí, ani o jaké konkrétní bezpečnostní certifikace usiluje pro Figure 03. Tyto informace budou klíčové pro posouzení, do jaké míry jsou Gruendelova obvinění pravdivá, nebo zda se jedná, jak tvrdí společnost, o pracovněprávní spor bez pevného technického základu.
Humanoidní roboti v domácnosti: jaká jsou skutečná rizika?
Kromě tohoto konkrétního případu vyvolává žaloba proti společnosti Figure AI zásadní otázku: co znamená přivést do domácnosti výkonného humanoidního robota? Na rozdíl od robotického vysavače nebo chytrého reproduktoru má humanoid paže, ruce a v mnoha případech i schopnost zvedat a přemisťovat těžké předměty.
Odborníci na robotiku a etiku umělé inteligence upozorňují na několik typů rizik:
- Fyzická rizika: Nárazy, zachycení nebo pády způsobené robotem, zejména pokud ztratí rovnováhu, dojde k softwarové chybě nebo špatně interpretuje příkaz. Chybný výpočet při přemisťování židle nebo těžké krabice může vést k domácí nehodě.
- Rizika kybernetické bezpečnosti: Vzhledem k tomu, že jsou tito roboti připojeni k internetu a řízeni systémy umělé inteligence v cloudu, mohou být zranitelní vůči kybernetickým útokům. Útočník, který převezme kontrolu nad robotem s lidskou nebo vyšší silou, by mohl způsobit úmyslné škody.
- Rizika pro ochranu soukromí: Humanoidi často obsahují kamery, mikrofony a senzory, které neustále zachycují informace z okolí. Pokud se s těmito daty nezachází bezpečně, mohou být použita ke sledování uživatelů nebo k úniku citlivých informací.
- Psychologická rizika a rizika důvěry: Život se strojem ve tvaru člověka, který mluví a pohybuje se jako člověk, může vyvolat falešný pocit bezpečí nebo „úmyslnosti“. Uživatelé mohou přeceňovat jeho schopnosti nebo se domnívat, že „ví, co dělá“, i když ve skutečnosti jde stále o statistický systém, který může dělat chyby.
Orgány, jako je Agentura Evropské unie pro kybernetickou bezpečnost (ENISA) a Evropská komise, upozornily na potřebu zvláštních regulačních rámců pro systémy umělé inteligence a pokročilé roboty, zejména pokud komunikují přímo s lidmi. Nový zákon EU o umělé inteligenci klasifikuje některá využití umělé inteligence jako „vysoce riziková“ a vyžaduje posouzení bezpečnosti, transparentnost a zvýšený lidský dohled.
Závod o humanoidního robota a tlak trhu
Společnost Figure AI není v tomto závodě osamocena. Společnosti jako Boston Dynamics (se svým robotem Atlas), Agility Robotics (Digit), Apptronik (Apollo) a samotná Tesla (Optimus) soutěží ve vývoji humanoidů schopných pracovat v továrnách, skladech a ve střednědobém horizontu i v domácnostech. Všechny čelí stejnému dilematu: prokázat rychlý pokrok, aby přilákali investice a zákazníky, aniž by byla ohrožena bezpečnost.
V posledních letech několik odborníků varovalo, že tlak na předvádění efektních videí v sociálních médiích a na prezentacích může vést k tomu, že některé společnosti upřednostní okázalé demonstrace před důkladným testováním bezpečnosti. V mnoha případech se videa natáčejí v přísně kontrolovaném prostředí s odborným personálem a nouzovými systémy připravenými jednat, což je na hony vzdálené realitě domácnosti nebo malé firmy.
Na pozadí těchto skutečností se odehrává soudní spor proti společnosti Figure AI: průmysl v plném proudu, obrovské množství kapitálu v sázce a technologie, která je sice slibná, ale stále ještě zdaleka ne tak spolehlivá a předvídatelná jako tradiční domácí spotřebiče.
Co by měl uživatel od domácího robota požadovat?
Pro širokou veřejnost, která se s těmito roboty začíná setkávat na technologických veletrzích a ve virálních videích, je praktickou otázkou, jaké záruky by měla požadovat, než začne uvažovat o bydlení s humanoidem v domácnosti. Odborníci na bezpečnost upozorňují na některé klíčové body:
- Jasné certifikace: Že robot splňuje mezinárodně uznávané bezpečnostní normy (např. normy ISO pro kolaborativní roboty a zařízení pro domácnost) a že tyto certifikace jsou ověřitelné.
- Bezpečné provozní režimy: Možnost omezit rychlost, sílu a typ úkolů, které může robot vykonávat v přítomnosti lidí, zejména dětí a starších osob.
- Přístupná nouzová zastavení: Jasně viditelná fyzická tlačítka a funkce rychlého vypnutí, které může aktivovat každý uživatel bez technických znalostí.
- Transparentnost dat: Jasné informace o tom, jaká data robot shromažďuje (video, audio, mapy domu atd.), kde jsou uložena, jak dlouho a s kým jsou sdílena.
- Aktualizace a podpora: závazek společnosti poskytovat bezpečnostní aktualizace po několik let a také kanály podpory pro hlášení chyb nebo nebezpečného chování.
Nakonec příchod humanoidních robotů do domácností otevírá podobnou debatu, jaká se již objevila v případě autonomních automobilů: kdo je zodpovědný, pokud se něco pokazí: výrobce, poskytovatel umělé inteligence, uživatel, který dává příkaz? Případy jako Figure AI mohou urychlit vytvoření jasnějších právních rámců.
Případ, který bude formovat debatu o bezpečnosti robotiky.
Soudní řízení proti Figure AI teprve začíná a dosud nebyly předloženy všechny technické důkazy. Bude záležet na soudu, zda Gruendelova obvinění obstojí, nebo zda se jedná, jak tvrdí společnost, o nepodložený pracovněprávní spor. Bez ohledu na výsledek však případ již nyní slouží k tomu, aby upozornil na klíčovou otázku: nestačí, aby byl humanoidní robot působivý, musí být také bezpečný.
V příštích letech, kdy se tyto stroje přesunou z laboratoří a továren do prostor sdílených s lidmi, bude stejně důležité jako jejich technické schopnosti to, jak společnosti řídí bezpečnost – a jak transparentně o svých rizicích hovoří. Žaloba proti společnosti Figure AI je v tomto smyslu včasným varováním před budoucími výzvami.
