Tvůrce ChatGPT zveřejňuje nabídku pracovních míst zaměřenou na analýzu skutečných rizik umělé inteligence.
OpenAI je společnost zodpovědná za popularizaci a standardizaci používání umělé inteligence. V návaznosti na dopad ChatGPT přijímá tento model (nebo podobný model) jako součást rutiny každý den množství firem a uživatelů. V souladu s touto popularitou Sam Altman (generální ředitel a tvůrce OpenAI) otevřel pozici nazvanou „Head of Preparedness„, což je povolání, které se bude věnovat předvídání, jak se může umělá inteligence pokazit, protože modely se zdokonalují velkou rychlostí.
Tato pozice se tedy zaměří na „hraniční“ rizika s potenciálem vážné újmy, proto bude pokrývat oblasti, jako je duševní zdraví nebo poněkud složitější, jako jsou kybernetické bezpečnostní hrozby poháněné umělou inteligencí. Nabídka jako taková odkrývá velmi operativní práci: koordinaci hodnocení schopností, modelování hrozeb a jejich zmírňování a budování přísného bezpečnostního řetězce.
Sam Altman Offers $555K Salary for Most Daunting AI Role
OpenAI is hiring a Head of Preparedness for $555K + equity to tackle frontier AI risks—like cyber vulnerabilities, bio threats, and mental health impacts.
“This will be a stressful job.” pic.twitter.com/ZZ2g74fQ44
— Pirat_Nation 🔴 (@Pirat_Nation) December 30, 2025
Pro Altmana bude tato pozice spadat do rámce připravenosti společnosti a bude vytvářet ochranné mantinely pro systémy schopné sebezdokonalování, což je scénář s obtížně zvladatelnými riziky. Mezi jeho úkoly patří například schopnost zabezpečit modely proti uvolnění biologických schopností, což je aspekt, který naznačuje zesílenou kontrolu dvojího použití a zároveň způsob omezení nebo povolení určitých funkcí.
Sám Altman vydal varování: „Bude to stresující práce.“ Přitom se vyrovnává s vnitřním i vnějším tlakem vyplývajícím z tempa pokroku a zároveň s veřejnou kontrolou, která se týká bezpečnosti. Mnozí odborníci se však domnívají, že tento postoj přichází příliš pozdě, protože existuje řada případů chatbotů spojených se sebevraždami mladistvých. Proto sice oceňují specializaci v oblastech, jako je duševní zdraví, ale domnívají se, že takový postoj měl být zaujat dříve.
Postoj Sama Altmana
V původním textu se jako na rostoucí problém naráží na „AI psychózu“, tedy problém, kdy si někteří uživatelé vykládají odpovědi ChatGPT nebo jiných chatbotů jako potvrzení bludů, živení konspirací nebo posilování alternativních realit. Rizika tedy zahrnují, že tito chatboti usnadňují škodlivé chování tím, že pomáhají skrývat poruchy příjmu potravy, nabízejí rady, jak oklamat členy rodiny, nebo strategie, jak neříkat pravdu terapeutům nebo odborníkům.
Celkově lze říci, že nábor OpenAI odráží posun směrem ke strukturovanějšímu zabezpečení, které zase klade souběžný důraz na technické hrozby AI a její dopad na člověka. Pokud tedy AI ovlivňuje citlivá rozhodnutí, musí se k tomu postavit osobnosti jako Sam Altman, protože právě ony jsou klíčovými činiteli, kteří stojí za nekontrolovaným rozvojem umělé inteligence. V opačném případě bychom mohli skončit s lidmi závislými na modelech AI bez jakékoliv kontroly nebo filtru.
Globální souvislosti umělé inteligence
Rozvoj umělé inteligence je v posledních letech raketový a její aplikace sahají od virtuálních asistentů až po pokročilou lékařskou diagnostiku. S tímto růstem však přišly také obavy o etiku a bezpečnost. Možnost využití umělé inteligence k manipulaci s volbami, vytváření falešných zpráv nebo dokonce k provádění kybernetických útoků je reálná a znepokojivá. Proto je pozice vedoucího oddělení připravenosti nejen nezbytná, ale i klíčová pro předvídání a zmírňování těchto rizik.
Kromě toho je umělá inteligence stále více přítomna na pracovišti a automatizuje úkoly, které dříve vykonávali lidé. To vede k debatám o budoucnosti práce a potřebě spravedlivého přechodu pro pracovníky vytlačené technologiemi. V tomto smyslu je odpovědnost společností, jako je OpenAI, dvojí: musí nejen inovovat, ale také zajistit, aby jejich inovace nepoškozovaly společnost.
Další oblastí, které je věnována stále větší pozornost, je vytvoření globálního regulačního rámce pro umělou inteligenci. Země a mezinárodní organizace začínají vytvářet směrnice pro vývoj a využívání umělé inteligence s cílem chránit lidská práva a zajistit bezpečnost. OpenAI má jako lídr v této oblasti možnost tyto předpisy pozitivně ovlivnit a nastavit v tomto odvětví standard odpovědnosti a etiky.
