Tokijská společnost Integral AI tvrdí, že úspěšně otestovala první systém obecné umělé inteligence (AGI), který se sám učí nové dovednosti bez lidského zásahu. Vědecký svět ale vyzývá k opatrnosti – chybí recenzované studie, konkrétní data i transparentní testy.
Koncept umělé obecné inteligence (AGI) je svatým grálem umělé inteligence. Lidé jako Sam Altman a Elon Musk, kteří jejím jménem pohybují obrovskými částkami, ji slibují už léta, ale zkušenosti s používáním jakýchkoli chatbotů a chyby, kterých se dopouštějí, naznačují, že jde stále o představu science fiction, a nikoli o budoucnost víceméně na dosah. Jinak to vidí v Integral AI, která tvrdí, že úspěšně otestovala první AGI na světě. Tokijská společnost tvrdí, že její model AI se dokáže učit nové úlohy bez předem existujících souborů dat nebo lidského zásahu.
Koncepce AGI spočívá v tom, že umělá inteligence je schopna vyrovnat se lidské inteligenci nebo ji překonat a je schopna vykonávat jakýkoli intelektuální úkol, který může vykonávat člověk. Chatboti, které máme nyní k dispozici, jsou v podstatě prediktivní jazykové modely, které vypočítávají, které slovo bude s největší pravděpodobností následovat po jiném při vytváření odpovědi, což lze jen stěží označit za inteligenci v lidském slova smyslu. Takže tvrzení o obecné umělé inteligenci, na kterou si zatím netroufly osobnosti se sklonem vyžadovat pozornost jako výše zmíněné, vyvolává zdvižené obočí.
Navíc neexistuje ani úplná shoda na tom, co přesně „AGI“ znamená. Organizace, jako je OECD nebo americký Národní institut pro standardy a technologie (NIST ), raději hovoří o „pokročilých systémech umělé inteligence“ nebo „systémech pro všeobecné použití“ než o AGI, a to právě proto, že neexistuje žádná všeobecně přijímaná operační definice, která by umožnila jasně říci „toto je AGI a toto není“.
Integral AI a obecná umělá inteligence
Ve své tiskové zprávě chtěla společnost jasně uvést, jaká je její definice AGI, aby mohla své tvrzení podpořit. Integral AI uvádí, že musí splňovat tři požadavky: autonomní učení dovedností, bezpečné a spolehlivé ovládání a energetickou účinnost.
Autonomní učení dovedností je definováno jako systém, který „se musí sám naučit zcela nové dovednosti v nových oblastech bez předem existujících souborů dat nebo lidského zásahu“. Jinými slovy, nejednalo by se o trénování modelu pomocí milionů označených příkladů, jak se to dnes dělá s velkými jazykovými modely, ale o něco bližšího tomu, jak se učí dítě: zkoumání, testování, dělání chyb a opravování, aniž by mu bylo v každém kroku explicitně řečeno, co má dělat.
Bezpečné a spolehlivé zvládnutí znamená učení bez „katastrofických rizik a nežádoucích vedlejších účinků“. V překladu: systém by měl být schopen experimentovat a učit se v reálném světě (nebo ve velmi realistických simulacích), aniž by ohrozil lidi, infrastrukturu nebo samotného robota. To souvisí s jedním z velkých problémů současné umělé inteligence: jak zajistit, aby byly systémy robustní, předvídatelné a v souladu s lidskými cíli, i když čelí novým situacím.
Energetická účinnost se mezitím týká celkových energetických nákladů na učení systému, které jsou zhruba stejné jako u člověka, který si osvojuje stejnou dovednost. Trénování velkého modelu umělé inteligence dnes může spotřebovat tolik energie, kolik jí malé město spotřebuje za několik dní nebo týdnů. Lidský mozek naproti tomu pracuje se spotřebou přibližně 20 wattů, což odpovídá tlumené žárovce. Integral AI naznačuje, že její systém má blíže k druhému extrému než k prvnímu.
Společnost uvádí, že její inženýři použili tyto principy jako „základní stavební kameny a vývojová měřítka při koncipování a testování tohoto prvního učícího se systému AGI svého druhu“. Dosud však nezveřejnili recenzované vědecké práce, v nichž by podrobně popsali architekturu, algoritmy nebo kvantitativní výsledky svých experimentů, což akademická obec považuje za nezbytné pro posouzení tvrzení tohoto kalibru.
Co vlastně o modelu Integral AI víme
Kromě tiskové zprávy je podrobností málo. Společnost hovoří o architektuře, která „odráží vícevrstevný neokortex“, oblast lidského mozku zodpovědnou za vědomé myšlení, vnímání a jazyk. Nejedná se o první pokus napodobit strukturu neokortexu v systémech umělé inteligence: projekty jako Hierarchická časová paměť, jejichž průkopníkem je Jeff Hawkins, se touto myšlenkou kůry uspořádané do vrstev a sloupců, které se učí vzory v čase a prostoru, zabývají již řadu let.
Integral AI tvrdí, že její model „roste, abstrahuje, plánuje a jedná jako jednotný systém“. To naznačuje kombinaci několika schopností, které jsou dnes často odděleny: vnímání (vidění, slyšení, cítění), uvažování, plánování akcí a řízení motoriky. V praxi se mnoho robotických laboratoří snaží právě o toto: sjednotit jazykové, zrakové a řídicí modely do jediného systému, který dokáže porozumět instrukcím v přirozeném jazyce, interpretovat prostředí a provádět souvislé fyzické akce.
V posledních letech jsme v tomto směru zaznamenali významný pokrok. Společnost Google v roce 2022 představila svůj model PaLM-SayCan, který kombinoval rozsáhlý jazykový model s plánovacím systémem, aby umožnil robotovi provádět jednoduché domácí úkoly na základě mluvených pokynů. V nedávné době společnosti jako Figure AI nebo Agility Robotics ukázaly humanoidní roboty, kteří se učí nové úkoly prostřednictvím lidských ukázek a simulací. Ale i v těchto případech se sami výzkumníci vyhýbají mluvit o AGI a dávají přednost termínům jako „obecná robotická AI“ nebo „modely řízení pro obecné účely“.
Klíčovým rozdílem v diskurzu je důraz na to, že její systém nepotřebuje k učení se novým dovednostem již existující data nebo lidský dohled. Bez přístupu ke kódu, tréninkovým datům (pokud existují) nebo nezávislým hodnocením nelze zjistit, nakolik je tento popis přesný a nakolik jde o marketingové zjednodušení.
Další kapitola v dějinách lidské civilizace
Obecná umělá inteligence není něco, co by bylo komerčně dostupné, a zdá se, že první oblastí jejího uplatnění bude robotika. Stojí za zmínku, že japonská společnost se prezentuje jako společnost, která se věnuje „ztělesněné AI“; to znamená, že nemluvíme o cloudové výpočetní platformě, jako je ChatGPT, ale o takové, která má tělo ve fyzickém světě, senzory, které vnímají, co je kolem ní, a prostředky pro interakci.
Myšlenka ztělesněné umělé inteligence se ve výzkumu prosazuje již delší dobu. Základním předpokladem je, že k dosažení něčeho, co se podobá lidské inteligenci, nestačí zpracovávat text nebo obrázky na obrazovce: potřebujete tělo, které se může pohybovat, dotýkat, manipulovat s objekty a přijímat zpětnou vazbu z okolí. Součástí tohoto trendu jsou projekty, jako jsou roboti společnosti Boston Dynamics, humanoidi společnosti Honda (ASIMO ) nebo nejnovější prototypy Optimus společnosti Tesla, i když s velmi odlišnými technickými přístupy.
Společnost tvrdí, že provedla testy s roboty využívajícími její nový systém. Při těchto testech se prý roboti naučili novým dovednostem bez lidského dohledu. Žádná podrobná videa ani rozsáhlé technické popisy těchto testů nebyly zveřejněny, kromě obecných příkladů, jako je učení se manipulaci s předměty nebo pohybu v měnícím se prostředí. Generální ředitel společnosti Integral AI založil společnost v Japonsku kvůli jeho vedoucímu postavení v oblasti robotických technologií a kvůli průmyslovému ekosystému, který je zvyklý integrovat roboty do továren, skladů a stále častěji i do služeb.
„Dnešní oznámení je víc než jen technický úspěch, znamená další kapitolu v dějinách lidské civilizace. Naším úkolem je nyní tento model schopný AGI, který je stále v plenkách, rozšířit do podoby ztělesněné superinteligence, která rozšiřuje svobodu a kolektivní působení,“ říká Tarifi.
Velkolepý tón není v tomto odvětví ničím novým. V roce 2023 hovořil generální ředitel OpenAI Sam Altman o AGI jako o něčem, co by mohlo přijít „v tomto desetiletí“ a změnit ekonomiku stejně jako průmyslová revoluce. Elon Musk mezitím zašel tak daleko, že prohlásil, že „AI do roku 2025 pravděpodobně překoná každého jednotlivého člověka“. Tváří v tvář těmto předpovědím mnozí zkušení výzkumníci vyzývají ke zdrženlivosti a konkrétním důkazům, než prohlásí, že jsme překročili historický práh.
Jak toto oznámení zapadá do současného AI prostředí
Abychom pochopili velikost (nebo ne) tvrzení společnosti Integral AI, je užitečné zasadit je do kontextu toho, co již existuje. Velké jazykové modely, jako jsou GPT-4, Claude nebo Gemini, jsou dnes schopny do určité míry uvažovat, psát kód, shrnovat dokumenty a vést složité rozhovory. Multimodální modely dokáží také interpretovat obrázky, zvuk a dokonce i video. Všechny však mají jasná omezení:
- Jsou závislé na obrovském množství dat: jsou trénovány na obrovském množství textů, obrázků a dalších dat shromážděných z internetu a soukromých zdrojů.
- Nedostatek hlubokého porozumění: mohou generovat věrohodné, ale nesprávné odpovědi, známé „halucinace“.
- Beztělesnost: nemají přímý přístup k fyzickému světu, zpracovávají pouze symboly (slova, pixely).
- Potíže s online učením: jakmile jsou jednou vyškoleni, nemají tendenci se učit průběžně při každé interakci, alespoň ne bezpečným a kontrolovaným způsobem.
AGI, kterou slibuje Integral AI, se snaží zaútočit právě na tyto body: autonomní, nepřetržité učení, ve fyzickém světě a s rozumnými energetickými náklady. Bez odborných publikací a nezávislých hodnocení však opět nelze zjistit, zda se jedná o změnu paradigmatu, nebo jen o další případ „vymývání AI“, tedy nadsazeného používání termínu AI (nebo AGI) s cílem upoutat pozornost investorů a médií.
Souběžně s tím významní hráči, jako jsou OpenAI, Google DeepMind, Anthropic nebo Meta, zveřejnili plány a rámce hodnocení pro stále schopnější systémy, ale žádný z nich se neodvážil prohlásit, že již dosáhl AGI. Například OpenAI hovoří o „hraničních modelech“ a spolupracuje s vládami a regulačními orgány na tom, jak je sledovat, právě proto, že se očekává, že jejich schopnosti budou nadále růst postupně, nikoliv náhlým a definitivním skokem.
Debata o tom, co to vlastně AGI je
Část nejasností pramení ze skutečnosti, že „AGI“ je do značné míry marketingový a filozofický termín, nikoli uzavřená technická kategorie. Pro některé výzkumníky by AGI byl systém, který by byl schopen vykonávat jakýkoli kognitivní úkol, který dokáže průměrný člověk, s podobným nebo lepším výkonem. Pro jiné by AGI znamenala také sebeuvědomění, porozumění sociálnímu kontextu a schopnost formulovat vlastní cíle, což je mnohem obtížněji měřitelné.
Organizace jako NIST nebo OECD se rozhodly pro pragmatičtější definice, které se zaměřují na dopad a riziko: systémy umělé inteligence jsou natolik obecné a výkonné, že mohou ovlivnit více kritických odvětví (zdravotnictví, finance, infrastrukturu, informace) najednou. Z tohoto pohledu otázka nezní ani tak „dosáhli jsme AGI?“, jako spíše „máme již dostatečně výkonné systémy, aby vyžadovaly nové formy dohledu, regulace a řízení?“.
V roce 2023 podepsala skupina výzkumníků a vedoucích pracovníků společností zabývajících se umělou inteligencí krátké prohlášení, v němž se riziko pokročilé umělé inteligence přirovnává k riziku pandemií a jaderných zbraní. Nemluvili o AGI v užším slova smyslu, ale o možnosti, že by stále autonomnější a univerzálnější systémy mohly být zneužity nebo se chovat neočekávaným způsobem. V této souvislosti se oznámení, jako je Obecná umělá inteligence, dostávají pod drobnohled, protože jakýkoli skutečný pokrok v tomto směru by měl obrovské politické, ekonomické a etické důsledky.
Rizika, skepse a potřeba transparentnosti
Vědecká komunita často reaguje na tvrzení o „první AGI na světě“ se směsí zvědavosti a skepse. Důvod je prostý: věda se rozvíjí zveřejňováním výsledků, nikoliv tiskových zpráv. Bez recenzovaných článků, veřejných srovnávacích testů a možnosti reprodukovat experimenty je obtížné rozlišit mezi převratným objevem a humbukem.
V posledních letech se objevilo několik případů společností, které slibovaly technologické revoluce, které se nikdy neuskutečnily, od Theranosu v biotechnologiích po projekty autonomního řízení, které byly neurčitě „připraveny příští rok“. V oblasti umělé inteligence má pojem „AGI“ zvláštní přitažlivost pro investory a média, což některé společnosti podněcuje k tomu, aby rozšiřovaly hranice tohoto jazyka.
To neznamená, že společnost Integral AI nutně lže, ale znamená to, že pokud je její systém tak revoluční, jak tvrdí, bude to muset dokázat něčím víc než jen prohlášeními. Zveřejnění technických detailů, umožnění externího hodnocení a ukázání konkrétních, ověřitelných případů použití by byly logické kroky, pokud se skutečně díváme na „další kapitolu v dějinách lidské civilizace“.
Do té doby většina odborníků doporučuje střední cestu: ani alarmismus, ani nekritické nadšení. Historie technologií je plná nesplněných slibů, ale také průlomových objevů, které se zdály nemožné, dokud se náhle nestaly běžnou záležitostí. Rozdíl, jako vždy, bude záležet na datech.
Co by mohla ztělesněná AGI znamenat pro společnost
Pokud si na chvíli představíme, že by systém jako Obecná umělá inteligence fungoval tak, jak je popsáno, bude to mít hluboké důsledky. Ztělesněná AGI, která by se dokázala sama učit nové úkoly, by mohla změnit celá průmyslová odvětví:
- Průmysl a logistika: roboti, kteří se naučí obsluhovat nové stroje, reorganizovat sklady nebo se přizpůsobovat změnám v dodavatelském řetězci, aniž by je bylo nutné pokaždé přeprogramovat.
- Péče a asistence: systémy schopné pomáhat starším nebo postiženým lidem s každodenními úkoly, které se naučí rutinní postupy a preference každého jednotlivce.
- Stavebnictví a infrastruktura: stroje, které spolupracují s lidmi na složitých stavbách a v reálném čase se přizpůsobují nepředvídaným událostem.
- Průzkum: roboti, kteří pracují v nebezpečných nebo nepřístupných prostředích (vesmír, mořské dno, zóny postižené katastrofou) a za chodu se učí, jak pracovat.
Taková technologie by zároveň vyvolala nepříjemné otázky týkající se zaměstnanosti, přerozdělování bohatství, bezpečnosti a kontroly. Kdo rozhoduje o tom, jaké cíle ztělesněná AGI sleduje? Jak zajistit, aby nebyla využívána k masovému sledování, represím nebo vojenským účelům? Co když samoučící se systém vyvine strategie, které jeho tvůrci nepředvídali?
Proto i ti, kdo považují AGI za žádoucí, trvají na tom, že před nasazením velmi obecných a autonomních systémů ve velkém měřítku je třeba zavést regulační rámce, nezávislé audity a mechanismy dohledu. Japonsko, Evropská unie, Spojené státy a další země již diskutují o tom, jak regulovat pokročilou umělou inteligenci, i když zatím uvažují spíše v kategoriích jazykových modelů a doporučovacích systémů než robotů se „zabudovanou superinteligencí“.
Mezi science fiction a realitou
Představa obecné umělé inteligence, která obývá robotické tělo a sama se učí, nevyhnutelně připomíná science fiction, od Blade Runnera po Ex Machina. Rozdíl je v tom, že s rozvojem robotiky, senzorů a modelů umělé inteligence se rozdíl mezi fikcí a realitou zmenšuje, i když zatím nevíme jak moc.
Integral AI se připojuje k rostoucímu seznamu společností, které se ucházejí o vedoucí postavení v tomto závodě. Některé z nich, jako velké americké technologické společnosti, tak činí s mnohamilionovými rozpočty a tisíci výzkumníků. Jiné, jako tato japonská společnost, sázejí na menší týmy a riskantnější příběhy. V obou případech ukáže čas a transparentnost, kdo byl blíže pravdě.
Prozatím je jisté pouze to, že slovo AGI se bude i nadále objevovat na titulních stranách novin a že bude na čtenáři, aby fungoval jako kritický filtr: aby se ptal, co bylo skutečně prokázáno, co je třeba ještě prokázat a kdo těží z naší víry, že budoucnost je již zde.
Dokud neuvidíme solidní, replikovatelné a ověřené důkazy, že se systém dokáže učit jako člověk, se stejnou flexibilitou a samostatností, zůstane AGI z velké části spíše horizontem než bodem příchodu. Integral AI tvrdí, že ho dosáhla; vědecká komunita se prozatím stále dívá na horizont dalekohledem.
