Nepotřebujete viry. Stačí špatně zadaný příkaz AI a přijdete o všechno

Nepotřebujete viry. Stačí špatně zadaný příkaz AI a přijdete o všechno

Zdroj obrázku: vlado85 / Depositphotos

Jazykový model špatně interpretoval výzvu uživatele, což mělo za následek smazání všeho na jeho pevném disku.


Všichni jsme zažili, že jsme přišli o soubor, který jsme omylem smazali a neměli jsme zálohu. Stává se to i v těch nejlepších rodinách, a i když máme plné právo vybuchnout vzteky, nakonec je to naše chyba. Ale už ne, alespoň pokud je vám dáno používat nějakou umělou inteligenci. Ne, nejde o to, že by to dělaly systematicky, jde o to, že i ony jsou náchylné ke stejným chybám jako my, a to všechno kvůli špatné interpretaci. To se stalo uživateli s přezdívkou Antigravity_Research, který s bezmocí a rezignací sledoval, jak mu experimentální jazykový model vymazal celý obsah pevného disku.

Vyhlazení souborů programem Antigravity

Podle serveru Futurism pracoval anonymní uživatel s aplikací Antigravity, což je vývojové prostředí (IDE) poháněné nejvýkonnější umělou inteligencí Gemini 3 Pro. Díky „agentově orientovanému“ přístupu umožňuje vývojářům delegovat kompletní a komplexní úkoly (od plánování po provádění a ověřování) na autonomní agenty AI. A právě zde udělal náš dlouholetý uživatel chybu: požádal Antigravity o odstranění mezipaměti z programovacího projektu, na kterém se podílel.

Související článek

Zatímco Amerika slibuje, Japonsko už testuje. Tady je důkaz
Zatímco Amerika slibuje, Japonsko už testuje. Tady je důkaz

Společnost Integral AI představila v Tokiu model, který slibuje autonomní učení robotů a vyzývá tak americké a čínské giganty v závodě o AGI.

Jazykový model si vyložil, že to, o co uživatel žádá, je odstranění dat z disku, a v důsledku toho bylo vše na disku určeném pro projekt nenávratně ztraceno: žádné zálohy, žádná možnost obnovení souborů, měsíce práce vyhlazeny. Ironií případu je, že i kdyby soubory omylem smazal člověk, existují způsoby, jak je obnovit. Ale Antigravity na tuto eventualitu nepomyslela a pokračovala v zakázce tím nejnáročnějším možným způsobem.

Omluva, která nemá valný smysl a je připomínkou

Ohromený uživatel se zeptal umělé inteligence, co se stalo, a ta odpověděla, že „udělala kritickou chybu“, a byla zdrcená, protože z jeho otázky pochopila, že to od ní uživatel neočekával. Jako skutečný člověk zopakovala svou omluvu tím nejponíženějším a nejupřímnějším možným způsobem, ale to nic nezměnilo na tom, že práce byla ztracena.

Nakonec, i když konečnou odpovědnost za to, že má k dispozici kopie všeho, co dělá, nese uživatel, poukazuje to na skutečnost, která je potenciálně problematická pro každého, kdo pracuje s jakoukoli umělou inteligencí: že často nepožádá o potvrzení některých příkazů, které mohou být chybně interpretovány jako v tomto případě.

Koneckonců i v nedávné i minulé době se u operačních systémů vždy objevovalo varovné okno s dotazem, zda jsme si opravdu jisti, že chceme něco provést. Ukládání souborů je sice nepříjemné, ale oceníme varování, když omylem klikneme na rozbalovací nabídku s nápisem „odstranit soubor“. V každém případě je vždy lepší provádět ruční zálohování a jak se říká „dvakrát měř a jednou řež“, zejména pokud jde o počítače.

Tento incident nejenže poukazuje na současná omezení umělé inteligence, ale také zdůrazňuje důležitost digitální gramotnosti a nutnost pochopit, jak tyto nástroje fungují, než jim svěříme kritické úkoly. V oblasti vývoje softwaru musí být důvěra v umělou inteligenci doprovázena důkladným pochopením jejich schopností a omezení. Kromě toho je zásadní, aby technologické společnosti pokračovaly ve zdokonalování svých systémů tak, aby obsahovaly další bezpečnostní opatření, jako jsou potvrzení potenciálně destruktivních akcí a možnost vrátit změny zpět.

Na druhé straně vývoj umělé inteligence neustále pokračuje a vývojáři usilovně pracují na minimalizaci těchto chyb. Zavádění systémů hlubokého učení a využívání velkých dat k trénování umělé inteligence jsou kroky vpřed při vytváření přesnějších a spolehlivějších modelů. Dokud však tyto technologie nedosáhnou odpovídající úrovně vyspělosti, je nezbytné, aby si uživatelé při interakci s nimi zachovali kritický a opatrný přístup.

Zdroje článku

futurism.com
#