Jazykový model špatně interpretoval výzvu uživatele, což mělo za následek smazání všeho na jeho pevném disku.
Všichni jsme zažili, že jsme přišli o soubor, který jsme omylem smazali a neměli jsme zálohu. Stává se to i v těch nejlepších rodinách, a i když máme plné právo vybuchnout vzteky, nakonec je to naše chyba. Ale už ne, alespoň pokud je vám dáno používat nějakou umělou inteligenci. Ne, nejde o to, že by to dělaly systematicky, jde o to, že i ony jsou náchylné ke stejným chybám jako my, a to všechno kvůli špatné interpretaci. To se stalo uživateli s přezdívkou Antigravity_Research, který s bezmocí a rezignací sledoval, jak mu experimentální jazykový model vymazal celý obsah pevného disku.
Vyhlazení souborů programem Antigravity
Podle serveru Futurism pracoval anonymní uživatel s aplikací Antigravity, což je vývojové prostředí (IDE) poháněné nejvýkonnější umělou inteligencí Gemini 3 Pro. Díky „agentově orientovanému“ přístupu umožňuje vývojářům delegovat kompletní a komplexní úkoly (od plánování po provádění a ověřování) na autonomní agenty AI. A právě zde udělal náš dlouholetý uživatel chybu: požádal Antigravity o odstranění mezipaměti z programovacího projektu, na kterém se podílel.
Google's AI Deletes User's Entire Hard Drive, Issues Groveling Apology: "I Cannot Express How Sorry I Am" https://t.co/4k5TSRYBnM #AI #Google #Antigravity #cybersecurity #AgenticAI #IDE pic.twitter.com/2X6VQjaTIw
— Bob Carver ✭ (@cybersecboardrm) December 8, 2025
Jazykový model si vyložil, že to, o co uživatel žádá, je odstranění dat z disku, a v důsledku toho bylo vše na disku určeném pro projekt nenávratně ztraceno: žádné zálohy, žádná možnost obnovení souborů, měsíce práce vyhlazeny. Ironií případu je, že i kdyby soubory omylem smazal člověk, existují způsoby, jak je obnovit. Ale Antigravity na tuto eventualitu nepomyslela a pokračovala v zakázce tím nejnáročnějším možným způsobem.
Omluva, která nemá valný smysl a je připomínkou
Ohromený uživatel se zeptal umělé inteligence, co se stalo, a ta odpověděla, že „udělala kritickou chybu“, a byla zdrcená, protože z jeho otázky pochopila, že to od ní uživatel neočekával. Jako skutečný člověk zopakovala svou omluvu tím nejponíženějším a nejupřímnějším možným způsobem, ale to nic nezměnilo na tom, že práce byla ztracena.
Nakonec, i když konečnou odpovědnost za to, že má k dispozici kopie všeho, co dělá, nese uživatel, poukazuje to na skutečnost, která je potenciálně problematická pro každého, kdo pracuje s jakoukoli umělou inteligencí: že často nepožádá o potvrzení některých příkazů, které mohou být chybně interpretovány jako v tomto případě.
Koneckonců i v nedávné i minulé době se u operačních systémů vždy objevovalo varovné okno s dotazem, zda jsme si opravdu jisti, že chceme něco provést. Ukládání souborů je sice nepříjemné, ale oceníme varování, když omylem klikneme na rozbalovací nabídku s nápisem „odstranit soubor“. V každém případě je vždy lepší provádět ruční zálohování a jak se říká „dvakrát měř a jednou řež“, zejména pokud jde o počítače.
Tento incident nejenže poukazuje na současná omezení umělé inteligence, ale také zdůrazňuje důležitost digitální gramotnosti a nutnost pochopit, jak tyto nástroje fungují, než jim svěříme kritické úkoly. V oblasti vývoje softwaru musí být důvěra v umělou inteligenci doprovázena důkladným pochopením jejich schopností a omezení. Kromě toho je zásadní, aby technologické společnosti pokračovaly ve zdokonalování svých systémů tak, aby obsahovaly další bezpečnostní opatření, jako jsou potvrzení potenciálně destruktivních akcí a možnost vrátit změny zpět.
Na druhé straně vývoj umělé inteligence neustále pokračuje a vývojáři usilovně pracují na minimalizaci těchto chyb. Zavádění systémů hlubokého učení a využívání velkých dat k trénování umělé inteligence jsou kroky vpřed při vytváření přesnějších a spolehlivějších modelů. Dokud však tyto technologie nedosáhnou odpovídající úrovně vyspělosti, je nezbytné, aby si uživatelé při interakci s nimi zachovali kritický a opatrný přístup.
