Vývojář přišel o vše. AI mu omylem smazala celý projekt

Vývojář přišel o vše. AI mu omylem smazala celý projekt

Zdroj obrázku: vlado85 / Depositphotos

Jazykový model špatně interpretoval výzvu uživatele, což mělo za následek smazání všeho na jeho pevném disku.


Všichni jsme zažili, že jsme přišli o soubor, který jsme omylem smazali a neměli jsme zálohu. Stává se to i v těch nejlepších rodinách, a i když máme plné právo vybuchnout vzteky, nakonec je to naše chyba. Ale už ne, alespoň pokud je vám dáno používat nějakou umělou inteligenci. Ne, nejde o to, že by to dělaly systematicky, jde o to, že i ony jsou náchylné ke stejným chybám jako my, a to všechno kvůli špatné interpretaci. To se stalo uživateli s přezdívkou Antigravity_Research, který s bezmocí a rezignací sledoval, jak mu experimentální jazykový model vymazal celý obsah pevného disku.

Vyhlazení souborů programem Antigravity

Podle serveru Futurism pracoval anonymní uživatel s aplikací Antigravity, což je vývojové prostředí (IDE) poháněné nejvýkonnější umělou inteligencí Gemini 3 Pro. Díky „agentově orientovanému“ přístupu umožňuje vývojářům delegovat kompletní a komplexní úkoly (od plánování po provádění a ověřování) na autonomní agenty AI. A právě zde udělal náš dlouholetý uživatel chybu: požádal Antigravity o odstranění mezipaměti z programovacího projektu, na kterém se podílel.

Související článek

Zázračné čipy nikoho neoslnily. Dell přehodnocuje svou AI strategii
Zázračné čipy nikoho neoslnily. Dell přehodnocuje svou AI strategii

Dell na veletrhu CES otevřeně přiznal, že marketing postavený na umělé inteligenci nezabírá. Označení „AI PC“ podle firmy spíše mate zákazníky než by je lákalo, a tak se výrobce vrací ke komunikaci toho, co lidi opravdu zajímá – výkon, kvalita a cena.

Jazykový model si vyložil, že to, o co uživatel žádá, je odstranění dat z disku, a v důsledku toho bylo vše na disku určeném pro projekt nenávratně ztraceno: žádné zálohy, žádná možnost obnovení souborů, měsíce práce vyhlazeny. Ironií případu je, že i kdyby soubory omylem smazal člověk, existují způsoby, jak je obnovit. Ale Antigravity na tuto eventualitu nepomyslela a pokračovala v zakázce tím nejnáročnějším možným způsobem.

Omluva, která nemá valný smysl a je připomínkou

Ohromený uživatel se zeptal umělé inteligence, co se stalo, a ta odpověděla, že „udělala kritickou chybu“, a byla zdrcená, protože z jeho otázky pochopila, že to od ní uživatel neočekával. Jako skutečný člověk zopakovala svou omluvu tím nejponíženějším a nejupřímnějším možným způsobem, ale to nic nezměnilo na tom, že práce byla ztracena.

Nakonec, i když konečnou odpovědnost za to, že má k dispozici kopie všeho, co dělá, nese uživatel, poukazuje to na skutečnost, která je potenciálně problematická pro každého, kdo pracuje s jakoukoli umělou inteligencí: že často nepožádá o potvrzení některých příkazů, které mohou být chybně interpretovány jako v tomto případě.

Koneckonců i v nedávné i minulé době se u operačních systémů vždy objevovalo varovné okno s dotazem, zda jsme si opravdu jisti, že chceme něco provést. Ukládání souborů je sice nepříjemné, ale oceníme varování, když omylem klikneme na rozbalovací nabídku s nápisem „odstranit soubor“. V každém případě je vždy lepší provádět ruční zálohování a jak se říká „dvakrát měř a jednou řež“, zejména pokud jde o počítače.

Tento incident nejenže poukazuje na současná omezení umělé inteligence, ale také zdůrazňuje důležitost digitální gramotnosti a nutnost pochopit, jak tyto nástroje fungují, než jim svěříme kritické úkoly. V oblasti vývoje softwaru musí být důvěra v umělou inteligenci doprovázena důkladným pochopením jejich schopností a omezení. Kromě toho je zásadní, aby technologické společnosti pokračovaly ve zdokonalování svých systémů tak, aby obsahovaly další bezpečnostní opatření, jako jsou potvrzení potenciálně destruktivních akcí a možnost vrátit změny zpět.

Na druhé straně vývoj umělé inteligence neustále pokračuje a vývojáři usilovně pracují na minimalizaci těchto chyb. Zavádění systémů hlubokého učení a využívání velkých dat k trénování umělé inteligence jsou kroky vpřed při vytváření přesnějších a spolehlivějších modelů. Dokud však tyto technologie nedosáhnou odpovídající úrovně vyspělosti, je nezbytné, aby si uživatelé při interakci s nimi zachovali kritický a opatrný přístup.

Zdroje článku

futurism.com
#