OpenAI hledá strážce budoucnosti: Nabízí milionový plat za zvládání AI rizik

OpenAI hledá strážce budoucnosti: Nabízí milionový plat za zvládání AI rizik

Zdroj obrázku: JarTee / Shutterstock.com

Společnost OpenAI hledá šéfa bezpečnosti, který bude řídit nejvážnější rizika spojená s umělou inteligencí – od kyberútoků až po modely schopné sebezdokonalování. Nabízí přes půl milionu dolarů ročně, stres a odpovědnost za budoucnost lidstva.


Nabídka OpenAI slibuje kromě stresu také nepopulární rozhodnutí a neustálou kontrolu. Na oplátku nabízí možnost přímo ovlivnit, jak – a kam až – bude moci nejvýkonnější umělá inteligence současnosti postoupit.

Bude to stresující práce a budete se do ní muset ponořit hned od začátku.“ S tímto neobvyklým varováním představil generální ředitel společnosti OpenAI Sam Altman jedno z nejatraktivnějších – a nejlépe placených – pracovních míst v současném technologickém sektoru. Cílem je obsadit pozici vyššího managementu společnosti OpenAI. Cílem je obsadit vedoucí pozici „Head od Preparedness“, která se bude věnovat výhradně předvídání, měření a omezování nejzávažnějších rizik pokročilé umělé inteligence.

Související článek

Samsung v roce 2026: Nové soundbary skrývá do umění, výkon ukáže v Las Vegas
Samsung v roce 2026: Nové soundbary skrývá do umění, výkon ukáže v Las Vegas

Samsung dává na odiv svou audio řadu pro rok 2026 s 11.1.4kanálovými bary a reproduktory, které se tváří jako umění, ale to nejlepší si schovává do Las Vegas.

Částku vysvětluje určitá upřímnost: podle interní firemní dokumentace až 555 000 dolarů ročně základního platu plus akcie. V Silicon Valley, kde jsou platy vysoké z definice, je překročení půl milionu stále jasným znamením, že jde o víc než jen o technický talent. V sázce je možnost, že nejpokročilejší modely umělé inteligence způsobí skutečnou škodu ve velkém měřítku – a že někdo nese přímou odpovědnost za to, aby tomu zabránil.

Upřednostnění řízení rizik před podnikáním

Tato pozice bude pro OpenAI klíčová v „kritické“ době. Modely se zdokonalují nebývalým tempem a už nevytvářejí jen text nebo obrázky: nacházejí bezpečnostní slabiny, ovlivňují stavy mysli a začínají vykazovat schopnosti, které by mohly být zneužity k destruktivním účelům.

Sám Altman to bez obalu přiznává: do roku 2025 podle něj společnost již zažila „náhled“ dopadu těchto systémů na duševní zdraví a nyní začíná pozorovat, že modely jsou natolik zdatné v kybernetické bezpečnosti, že dokáží odhalit kritické nedostatky.

Společnost vychází z toho, že vývoj pokročilé umělé inteligence s sebou nese nevyhnutelná rizika a že jedinou odpovědnou možností je pověřit někoho dobře placeného, s reálnými pravomocemi a pod obrovským tlakem, aby monitoroval, kde a kdy může dojít k poškození.

Úkolem tohoto pracovníka tedy není být firemním filozofem nebo uklidňujícím mluvčím, ale zodpovídat za bezpečnostní mašinérii: technické hodnocení, modelování hrozeb, testování zneužití, zmírňování a rozhodování o uvolnění.

A skutečně, jednou z hlavních odpovědností, která bude ležet na bedrech najaté osoby, bude rozhodování o tom, kdy je model umělé inteligence příliš nebezpečný na to, aby byl spuštěn, i kdyby to znamenalo ztrátu výhody ve prospěch méně opatrných konkurentů.

Je zřejmé, že to nebude jen tak ledajaká práce

Po léta se na adresu velkých společností zabývajících se umělou inteligencí opakovaně objevovala kritika, že o rizicích své technologie mluví poněkud povrchně. Společnost OpenAI se nyní snaží reagovat tím, že do funkce dosadí někoho se jménem a příjmením, kdo bude zodpovědný za nejhorší scénáře. Tato pozice dohlíží na oblasti, které společnost považuje za „vážné škody“: kybernetickou bezpečnost, biologické a chemické schopnosti a systémy AI schopné sebezdokonalování.

Připomeňme, že podle vlastních interních měřítek definuje OpenAI „vážnou škodu“ jako výsledky srovnatelné s tisíci mrtvými, rozsáhlými vážnými zraněními nebo ekonomickými ztrátami v řádu stovek miliard dolarů. To je definice, která se obvykle objevuje ve vládních krizových plánech, nikoli v pracovních nabídkách na sociálních sítích.

Vnitřní a vnější souvislosti

Nedávná historie společnosti OpenAI ukazuje vnitřní napětí, odchody bezpečnostních manažerů a veřejnou kritiku ze strany bývalých vedoucích pracovníků, kteří si stěžovali, že kultura bezpečnosti ustupuje do pozadí rychlému uvolňování nových verzí (technicky vzato to byl také důvod, proč byl sám Altman nakrátko odvolán z funkce generálního ředitele).

Na druhou stranu OpenAI nyní čelí rostoucí vlně žalob a regulačních kontrol a společenskému klimatu rostoucí nedůvěry. Nedávné průzkumy veřejného mínění totiž ukazují, že většina obyvatel USA vnímá v rozšiřování AI více rizik než přínosů a velká většina dává přednost přísné regulaci, i kdyby to mělo zpomalit vývoj.

Mezinárodní kontext navíc není o nic méně náročný. Země jako Čína a Rusko rychle rozvíjejí své vlastní schopnosti v oblasti umělé inteligence, což do technologického závodu přidává další vrstvu geopolitického tlaku. Evropská unie zase navrhla přísnou regulaci prostřednictvím zákona o umělé inteligenci, který se snaží vytvořit právní rámec pro vývoj a využívání těchto technologií na kontinentu.

Debata o etice a regulaci umělé inteligence získává na významu také na mezinárodních fórech, jako je Organizace spojených národů, kde se diskutuje o možných globálních dohodách, které by zajistily, že umělá inteligence bude vyvíjena bezpečným a etickým způsobem.

#