Zákulisí práce v OpenAI: Chaos, bezesné noci a bedlivé hlídání konkurence

Zákulisí práce v OpenAI: Chaos, bezesné noci a bedlivé hlídání konkurence

Zdroj obrázku: rokas91 / Depositphotos

Když se inženýr s kariérou Calvina French-Owena, spoluzakladatele startupu Segment, rozhodne z OpenAI odejít, mnohé možná napadne spousta interních kontroverzí. Ale poté, co vylíčil své zkušenosti z práce v této velké společnosti zabývající se umělou inteligencí, dal jasně najevo, že se žádné drama nekonalo.


V zajímavém blogovém příspěvku tento inženýr, který rok pracoval na vývoji Codexu (kódovacího agenta, který konkuruje nástrojům, jako je Claude Code od Anthropicu), prozradil, jaká je ve skutečnosti pracovní kultura v jedné z nejvýznamnějších společností současnosti. A zatímco některé věci se dají předvídat, jiné jsou docela překvapivé.

Související článek

Češi pracují zbytečně moc. Čtyřdenní týden jim může zlepšit spánek i život
Češi pracují zbytečně moc. Čtyřdenní týden jim může zlepšit spánek i život

Nejnovější zpráva předních zastánců čtyřdenního pracovního týdne, globálního partnerství 4 Day Week, ve spolupráci s American Time Use Survey zdůrazňuje, že boj za práci na dálku, hybridní model práce na dálku a čtyřdenní pracovní týden přečkává tlak firem , který začal v roce 2024.

Explozivní růst a chaos

Podle French-Owena se společnost OpenAI během roku, kdy v ní působil, rozrostla z 1 000 na 3 000 zaměstnanců. Takový raketový růst má přímé důsledky a nepřekvapivě vytváří chaos. Říká to takto:

„Při tak rychlém růstu se všechno hroutí: komunikace jako firma, hierarchické struktury, způsob uvádění produktů na trh, řízení a organizace lidí, procesy přijímání zaměstnanců atd.”

Tento chaos se v očích tohoto vývojáře zhmotňuje v různých aspektech společnosti. Navzdory své velikosti si společnost zachovává agilní strukturu, v níž mají zaměstnanci možnost jednat samostatně. Problém však vidí v tom, že mnoho týmů nakonec pracuje na stejné věci.

Nerovnoměrná kvalita kódu. To je další problém, který je vidět v útrobách OpenAI. Důvod je jednoduchý: v týmu se mísí veteráni z oboru a „nováčci“ s malými zkušenostmi. To v kombinaci s flexibilitou jazyka Python způsobilo, že se úložiště kódu změnilo v „jakési smetiště“. To může znamenat, že se věci mohou často porouchat.

Problém velkých společností: Příliš málo spánku

Navzdory svému ocenění a velikosti si společnost OpenAI zřejmě neuvědomuje, že je již gigantem. Vnitřní kultura se velmi podobá kultuře z prvních let Facebooku s jeho heslem „pohybuj se rychle a rozbíjej věci“. Ve skutečnosti je společnost plná bývalých zaměstnanců Meta a funguje téměř výhradně na Slacku. Jako malá firma.

French-Owen uvádí jako příklad spuštění Codexu. Malý tým (osm inženýrů, čtyři výzkumníci, dva designéři, pracovníci marketingu a produktový manažer) vytvořil a spustil produkt od nuly za pouhých sedm týdnů, přičemž téměř vůbec nespal.

„Nikdy jsem neviděl, že by se produkt tak okamžitě ujal jen tím, že se objevil v levém postranním panelu, ale v tom je síla ChatGPT,“ upřesňuje a je překvapen, jak jej lidé začali používat hned po jeho spuštění.

OpenAI si X všímá víc, než si myslíme

Být středem pozornosti celého světa má svou cenu. OpenAI žije v „akváriu“ pod neustálým dohledem veřejnosti, spotřebitelů a také vlád, například americké. To podpořilo interní kulturu utajení, jejímž cílem je zabránit úniku všeho, na čem se v danou chvíli pracuje. Nebo se to alespoň snaží kontrolovat.

Tento pancíř má však zvláštní zadní vrátka: X. Společnost si mimořádně všímá toho, co se děje na sociální síti. Pokud se nějaký příspěvek stane virálním, tým OpenAI ho uvidí a případně podle něj bude jednat. French-Owen se neváhal podělit o vtip, který napsal jeho přítel:

„Jeden přítel zažertoval: ‚Tato společnost funguje na základě vibrací Twitteru‘.“

Možná nejdůležitějším odhalením French-Owena je to, že bojuje proti dojmu, že OpenAI se nestará o bezpečnost tak, jak by měla. Zatímco mnoho kritiků a bývalých zaměstnanců se zaměřuje na teoretická rizika pro lidstvo, inženýr tvrdí, že interně se soustředí na praktickou, hmatatelnou bezpečnost:

„Mnohem větší pozornost je věnována praktickým problémům, jako jsou nenávistné projevy, zneužívání, manipulace s politickými předsudky, vytváření biologických zbraní, sebepoškozování nebo injekční podněty.“

I když je logické, že dlouhodobá rizika jsou také pokryta specializovaným týmem. Skutečnost je však taková, že mnoho lidí se na ChatGPT denně obrací se spoustou dotazů, od lékařských rad až po psychologickou terapii. A to je velký problém.

Kultura inovací a budoucí výzvy

Společnost OpenAI čelí nejen interním výzvám, ale také neustále se vyvíjejícímu konkurenčnímu prostředí. Společnost musí zůstat na špici technologických inovací, což vyžaduje neustálé investice do výzkumu a vývoje. Podle zprávy časopisu Forbes jsou nové technologické trendy, jako je generativní umělá inteligence a kvantové počítače, klíčovými oblastmi, na které by se společnost OpenAI mohla zaměřit, aby zůstala relevantní.

Kromě toho jsou etika a regulace kritickými aspekty, které by OpenAI měla zvážit. S nárůstem umělé inteligence v každodenním životě jsou obavy o ochranu osobních údajů a etické využívání technologií aktuálnější než kdy jindy. Společnost musí spolupracovat s regulačními orgány a etiky, aby zajistila, že její produkty budou bezpečné a prospěšné pro společnost.

Zdroje článku

calv.info, www.forbes.com
#