OpenAI varuje: Naše další AI může být elitní hacker. A nikdo ji nezastaví

OpenAI varuje: Naše další AI může být elitní hacker. A nikdo ji nezastaví

Zdroj obrázku: Temitiman / Shutterstock

Společnost OpenAI varuje, že její další generace AI modelů může samostatně provádět pokročilé kybernetické útoky. Firma proto posiluje bezpečnostní opatření a přiznává: vyvíjíme nástroje, které mohou být stejně nebezpečné jako revoluční.


Jsme zvyklí, že nám technologické společnosti prodávají své pokroky se sliby utopie a pokroku. Když však společnost OpenAI, která stojí v čele revoluce umělé inteligence, zvedne ruku a řekne: „Pozor, to, co vytváříme, je nebezpečné“, měli bychom raději zpozornět. V neobvyklém (a možná preventivním) kroku transparentnosti tvůrci ChatGPT přiznali, že jejich příští modely umělé inteligence budou nejen chytřejší, ale budou mít i potenciál stát se autonomními hackery světové úrovně.

Zpráva se objevila teprve včera. V příspěvku na svém firemním blogu společnost OpenAI varovala, že její budoucí modely AI mohou představovat „vysoké“ riziko kybernetické bezpečnosti. A nemluvíme o teoretických rizicích vzdálených desítky let. Mluvíme o schopnostech, které se vyvíjejí závratnou rychlostí.

Kyberzločinci budoucnosti by mohli být autonomní agenti AI

Podle společnosti by tyto nové modely mohly samy vyvinout „zero-day exploity“ proti dobře chráněným systémům. Pro ty, kteří tento termín neznají, je zero-day exploit zranitelnost, kterou výrobce nezná a na kterou neexistuje žádná záplata. To, že umělá inteligence může tyto chyby samostatně najít a využít, zcela mění pravidla hry.

Související článek

Podvod století: Místo DDR5 vám dorazí vykuchaná šunka z roku 2004
Podvod století: Místo DDR5 vám dorazí vykuchaná šunka z roku 2004

Internet zaplavily padělky pamětí RAM, které maskují dvacet let staré DDR2 moduly jako moderní DDR5. Podvodníci používají originální chladiče i závaží, aby oklamali zákazníky i systémy vracení zboží — a výsledkem může být fatální poškození vašeho počítače.

Ale tím to nekončí. OpenAI také upozorňuje, že její modely by mohly pomáhat při „komplexních obchodních nebo průmyslových vloupacích operacích“, jejichž cílem je vyvolat reálné účinky. Představte si umělou inteligenci schopnou procházet sítí elektrárny nebo nadnárodní korporace, obcházet obranu a provádět koordinované útoky.

Tváří v tvář tomuto nočnímu scénáři zní odpověď OpenAI: „pracujeme na tom“. Společnost podporovaná Microsoftem tvrdí, že investuje do posílení svých obranných modelů kybernetické bezpečnosti. Jejím záměrem je použít oheň v boji proti ohni: vytvořit nástroje, které obráncům umožní kontrolovat kód a opravovat zranitelnosti rychleji, než je dokáže zneužít útočná umělá inteligence (nebo než je zneužijí lidé, kteří ji používají).

Společnost OpenAI tvrdí, že proti rizikům se spoléhá na kombinaci kontrol přístupu, zpevnění infrastruktury a neustálého monitorování (systémy, které by se nehodily ani společnosti, která odhalila data tisíců uživatelů ChatGPT). Kromě toho plánuje spustit program, který kvalifikovaným uživatelům a zákazníkům pracujícím v oblasti kybernetické obrany nabídne odstupňovaný přístup k pokročilým funkcím.

V rámci své strategie společnost OpenAI rovněž oznámila vytvoření poradní skupiny nazvané Frontier Risk Council. Tato skupina bude sdružovat odborníky na kybernetickou obranu a bezpečnostní profesionály, kteří budou úzce spolupracovat s týmy společnosti. Zpočátku se zaměří na kybernetickou bezpečnost, ale záměrem je rozšířit ji v budoucnu i na další oblasti.

Jedná se bezpochyby o nezbytný krok. Je však znepokojující, že vytváříme tak mocné nástroje, že jejich tvůrci sami musí zakládat krizové rady, aby se je pokusili zvládnout. Závody v umělé inteligenci vstoupily do fáze, kdy už nehrozí jen ztráta zaměstnání, ale i ztráta kontroly nad naší digitální infrastrukturou.

Globální prostředí kybernetické bezpečnosti a umělé inteligence

Potenciální dopad umělé inteligence na kybernetickou bezpečnost není novým tématem, ale rychlost, s jakou se tyto technologie vyvíjejí, vyvolává mezi odborníky rostoucí obavy. Podle zprávy Světového ekonomického fóra je kybernetická bezpečnost jedním z hlavních globálních rizik a umělá inteligence by mohla tato rizika jak zhoršit, tak zmírnit.

Možnost, že by autonomní agenti AI prováděli kybernetické útoky, vyvolává otázky týkající se etiky a regulace těchto technologií. Vlády a mezinárodní organizace začínají diskutovat o tom, jak regulovat AI, aby se zabránilo jejímu škodlivému používání. Například Evropská unie pracuje na regulačním rámci pro UI, jehož cílem je zajistit, aby tyto technologie byly vyvíjeny a používány bezpečným a etickým způsobem.

Kromě toho je stále důležitější úloha technologických společností při ochraně digitální infrastruktury. Společnosti, jako je OpenAI, se musí zaměřit nejen na inovace, ale také na vytváření spolehlivých bezpečnostních standardů a spolupráci s vládami a dalšími subjekty při řešení problémů kybernetické bezpečnosti.

V konečném důsledku bude mezinárodní spolupráce a vhodná regulace zásadní pro zajištění toho, aby byla umělá inteligence využívána zodpovědně a aby její přínosy převážily nad potenciálními riziky. Transparentnost a odpovědnost musí být klíčovými pilíři při vývoji těchto technologií.

Zdroje článku

reuters.com
#