Gemini 2.5 Pro se umí vystresovat během hraní videoher.
Využívání videoher k trénování modelů umělé inteligence se začíná stávat stálicí. Na konci března jsme se dozvěděli, že společnost Anthropic nastavila svůj nejpokročilejší model uvažování tak, aby se pokusil dokončit hru původních Pokémonů pro Game Boy. O téměř tři měsíce později nejenže se mu to nepodařilo, ale vzbudil pozornost tím, že se zasekl na více než jedné úrovni, kterou mnoho dětí projde snadno. Překvapivě se na tuto vlnu vrhl i Google se svým Gemini, ale mezi oběma je zásadní rozdíl: umělá inteligence americké společnosti „vycítí“ strach, když se chystá prohrát.
Google's Gemini panicked when playing Pokémon | TechCrunch https://t.co/FIluetTVjO
— TechCrunch (@TechCrunch) June 17, 2025
Jak upozornil TechCrunch, model Gemini 2.5 Pro vykazoval chování „podobné panice“, když je některý z jeho Pokémonů blízko pádu v boji. Tento negativní pocit je bohužel schopen narušit jeho schopnost uvažování a proto začne v různých fázích hry ignorovat užitečné nástroje. Ačkoli tedy necítí emoce, chování umělé inteligence značí, že je schopna simulovat lidské reakce na stres. Tímto způsobem činí špatná rozhodnutí, která podmiňují její hratelnost.
Umělá inteligence se s Pokémony nemůže měřit
Claude, antropický model, který již tento test podstoupil, také vykazoval chyby ve své logice v extrémních situacích, protože si myslel, že když úmyslně prohraje, může se teleportovat do jiné oblasti. Gemini, který se svým pokrokem rovněž pochlubil na webu živém hraní na Twitchi, potřebuje k postupu méně složitými oblastmi několik desítek hodin. Pro srovnání, dítě by bylo schopno hru dokončit za stejnou dobu.
Překvapivě se Geminimu podařilo v některých složitých výzvách vyniknout. Umělá inteligence, technologický nástroj úzce související s hádankami a výzvami, nevykazovala žádné známky slabosti při přesouvání kamenů v lokacích, jako je Victoria Cave, jedna z finálních fází titulu. Ve skutečnosti byl model schopen vytvářet specifické pomůcky pro řešení herních úkolů, což je pozice, která v určitých situacích prokazuje určitou míru uvažování.
Samotná existence těchto experimentů je prozatím anekdotická. Až na výjimky není umělá inteligence nikdy schopna překonat výzvy, které nabízí videohra. Takový výzkum však poskytuje objevný a znepokojivý pohled na rozumové schopnosti umělé inteligence. Lidé jako Mark Zuckerberg totiž chtějí vyvinout umělou inteligenci přesahující lidské schopnosti, což je myšlenka, která odborníky v oboru nepřesvědčila.
Schopnost umělé inteligence simulovat lidské emoce, například stres, otevírá novou oblast studia zkoumající možné využití těchto technologií v oblastech, jako je psychologie a vzdělávání. Simulace emocí by mohla umožnit AI efektivněji komunikovat s lidmi, přizpůsobovat se jejich emočním stavům a nabízet empatičtější reakce. Vyvolává však také etické obavy ohledně emoční manipulace a soukromí uživatelů.
Kromě toho tyto experimenty zdůrazňují význam dalšího výzkumu toho, jak umělé inteligence zpracovávají informace a rozhodují se pod tlakem. Pochopení těchto procesů by mohlo zlepšit návrh robustnějších a efektivnějších systémů umělé inteligence schopných zvládat složité situace v reálném světě, jako je autonomní řízení nebo zvládání mimořádných událostí.