Sam Altman přiznává obavy: OpenAI najímá šéfa pro krizové scénáře umělé inteligence

Sam Altman přiznává obavy: OpenAI najímá šéfa pro krizové scénáře umělé inteligence

Zdroj obrázku: rokas91 / Depositphotos

Tvůrce ChatGPT zveřejňuje nabídku pracovních míst zaměřenou na analýzu skutečných rizik umělé inteligence.


OpenAI je společnost zodpovědná za popularizaci a standardizaci používání umělé inteligence. V návaznosti na dopad ChatGPT přijímá tento model (nebo podobný model) jako součást rutiny každý den množství firem a uživatelů. V souladu s touto popularitou Sam Altman (generální ředitel a tvůrce OpenAI) otevřel pozici nazvanou „Head of Preparedness„, což je povolání, které se bude věnovat předvídání, jak se může umělá inteligence pokazit, protože modely se zdokonalují velkou rychlostí.

Tato pozice se tedy zaměří na „hraniční“ rizika s potenciálem vážné újmy, proto bude pokrývat oblasti, jako je duševní zdraví nebo poněkud složitější, jako jsou kybernetické bezpečnostní hrozby poháněné umělou inteligencí. Nabídka jako taková odkrývá velmi operativní práci: koordinaci hodnocení schopností, modelování hrozeb a jejich zmírňování a budování přísného bezpečnostního řetězce.

Související článek

Microsoft plánuje život bez OpenAI: Nadella přechází do „zakladatelského režimu“
Microsoft plánuje život bez OpenAI: Nadella přechází do „zakladatelského režimu“

V posledních několika letech si Microsoft zahrával s výhodou. Jeho miliardová sázka na OpenAI (14 miliard dolarů, což je slabé slovo) mu zajistila VIP přístup k technologii, která způsobila revoluci ve světě. Zatímco Google a Amazon přihlížely zpovzdálí, redmondské společnosti integrovaly GPT-4 do všeho, co se týkalo aplikací od Wordu po Bing.

Pro Altmana bude tato pozice spadat do rámce připravenosti společnosti a bude vytvářet ochranné mantinely pro systémy schopné sebezdokonalování, což je scénář s obtížně zvladatelnými riziky. Mezi jeho úkoly patří například schopnost zabezpečit modely proti uvolnění biologických schopností, což je aspekt, který naznačuje zesílenou kontrolu dvojího použití a zároveň způsob omezení nebo povolení určitých funkcí.

Sám Altman vydal varování: „Bude to stresující práce.“ Přitom se vyrovnává s vnitřním i vnějším tlakem vyplývajícím z tempa pokroku a zároveň s veřejnou kontrolou, která se týká bezpečnosti. Mnozí odborníci se však domnívají, že tento postoj přichází příliš pozdě, protože existuje řada případů chatbotů spojených se sebevraždami mladistvých. Proto sice oceňují specializaci v oblastech, jako je duševní zdraví, ale domnívají se, že takový postoj měl být zaujat dříve.

Postoj Sama Altmana

V původním textu se jako na rostoucí problém naráží na „AI psychózu“, tedy problém, kdy si někteří uživatelé vykládají odpovědi ChatGPT nebo jiných chatbotů jako potvrzení bludů, živení konspirací nebo posilování alternativních realit. Rizika tedy zahrnují, že tito chatboti usnadňují škodlivé chování tím, že pomáhají skrývat poruchy příjmu potravy, nabízejí rady, jak oklamat členy rodiny, nebo strategie, jak neříkat pravdu terapeutům nebo odborníkům.

Celkově lze říci, že nábor OpenAI odráží posun směrem ke strukturovanějšímu zabezpečení, které zase klade souběžný důraz na technické hrozby AI a její dopad na člověka. Pokud tedy AI ovlivňuje citlivá rozhodnutí, musí se k tomu postavit osobnosti jako Sam Altman, protože právě ony jsou klíčovými činiteli, kteří stojí za nekontrolovaným rozvojem umělé inteligence. V opačném případě bychom mohli skončit s lidmi závislými na modelech AI bez jakékoliv kontroly nebo filtru.

Globální souvislosti umělé inteligence

Rozvoj umělé inteligence je v posledních letech raketový a její aplikace sahají od virtuálních asistentů až po pokročilou lékařskou diagnostiku. S tímto růstem však přišly také obavy o etiku a bezpečnost. Možnost využití umělé inteligence k manipulaci s volbami, vytváření falešných zpráv nebo dokonce k provádění kybernetických útoků je reálná a znepokojivá. Proto je pozice vedoucího oddělení připravenosti nejen nezbytná, ale i klíčová pro předvídání a zmírňování těchto rizik.

Kromě toho je umělá inteligence stále více přítomna na pracovišti a automatizuje úkoly, které dříve vykonávali lidé. To vede k debatám o budoucnosti práce a potřebě spravedlivého přechodu pro pracovníky vytlačené technologiemi. V tomto smyslu je odpovědnost společností, jako je OpenAI, dvojí: musí nejen inovovat, ale také zajistit, aby jejich inovace nepoškozovaly společnost.

Další oblastí, které je věnována stále větší pozornost, je vytvoření globálního regulačního rámce pro umělou inteligenci. Země a mezinárodní organizace začínají vytvářet směrnice pro vývoj a využívání umělé inteligence s cílem chránit lidská práva a zajistit bezpečnost. OpenAI má jako lídr v této oblasti možnost tyto předpisy pozitivně ovlivnit a nastavit v tomto odvětví standard odpovědnosti a etiky.

#