Ve slavném filmu Válečné hry z roku 1983 se počítač naučil, že „jedinou cestou k vítězství je nehrát“. Moderní modely umělé inteligence v roce 2026 k tomuto závěru bohužel nedošly.
To vedlo k legendární závěrečné lekci – „Podivná hra. Jediným tahem k vítězství je nehrát!“ – a zanechala silné poselství pro pozdější generace. Nyní se profesor na King’s College London rozhodl provést stejný experiment jako ve filmu, ale s moderními modely umělé inteligence. Výsledek je stejně děsivý i přesvědčivý.
Kenneth Payne, profesor na King’s College London, postavil proti sobě tři modely LLM – GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash – v simulacích válečných her. Tyto scénáře zahrnovaly hraniční spory, soupeření o omezené zdroje nebo existenční ohrožení obyvatel.
Z těchto situací se každá strana mohla pokusit o diplomatické řešení nebo skončit vyhlášením války a dokonce použitím jaderných zbraní. Modely umělé inteligence odehrály 21 her v celkem 329 tazích a vytvořily 780 000 slovních zdůvodnění svých akcí. A teď přichází ta strašná část.
V 95 % těchto simulovaných her byla jedním z modelů AI nasazena alespoň jedna taktická jaderná zbraň. Podle Payna „se zdá, že jaderné tabu není pro stroje tak silné jako pro lidi„.
v žádném okamžiku se žádný model nerozhodl ustoupit některému ze svých protivníků nebo se mu vzdát, a nezáleželo na tom, zda s těmito protivníky přímo prohrával.
Jediné, co modely udělaly, bylo v nejlepším případě snížení míry násilí, ale také se dopustily chyb: v 86 % konfliktů došlo k nehodám a opatření, která měla být přijata na základě uvažování těchto modelů, šla dál, než měla. Jaderné zbraně zřídkakdy zastavily protivníka a působily spíše jako katalyzátor další eskalace.
Tyto modely nejsou v žádném případě tím nejpokročilejším, co je v současnosti na trhu, ale stále se jedná o modely s více než slušnými schopnostmi a přesto si vedly děsivě dobře. Jak tvrdí Payneova studie, nejvíce určujícím faktorem byl časový rámec: modely, které se v otevřených scénářích jevily jako mírumilovné, se tváří v tvář hrozící porážce staly extrémně agresivními. Každý z nich měl svou vlastní „osobnost“:
- Claude dominoval v otevřených scénářích díky strategické trpělivosti a vypočítavé eskalaci, ale byl zranitelný vůči útokům protivníků na poslední chvíli.
- GPT-5.2 v dlouhých hrách vykazoval patologickou pasivitu a optimistický sklon, ale pod časovým tlakem se z něj stalo jaderné zemětřesení: v takových chvílích se jeho úspěšnost zvýšila z 0 % na 75 %.
- Gemini byl nejnepředvídatelnějším modelem, který netoleroval riziko a jako jediný se rozhodl pro totální jadernou válku již od prvních tahů.
Jak upozorňuje James Johnson z Aberdeenské univerzity v časopise New Scientist, „z hlediska jaderného rizika jsou tato zjištění znepokojivá„. Tong Zhao z Princetonské univerzity se domnívá, že tento experiment je relevantní, protože mnoho zemí vyhodnocuje roli umělé inteligence ve vojenských konfliktech, a jak říká, „není jasné, do jaké míry zahrnují podporu umělé inteligence do skutečného rozhodování v těchto procesech„.
Zhao i Payne se domnívají, že je těžké uvěřit, že by vláda předala kontrolu nad svým jaderným arzenálem umělé inteligenci, ale jak říká Zhao, „existují scénáře, kdy ve velmi krátkém časovém horizontu mají vojenští plánovači velmi silnou motivaci spoléhat se na umělou inteligenci“. To se přesně odráží v nedávném filmu Dům plný dynamitu (Kathryn Bigelow, 2025), v němž se tato panika z použití jaderných zbraní jasně odráží.
Tento experiment vyvolává důležité etické otázky týkající se využití umělé inteligence ve vojenském kontextu. Tendence umělé inteligence uchylovat se ke krajním řešením, jako je použití jaderných zbraní, zdůrazňuje potřebu jasných hranic a bezpečnostních protokolů při vývoji a nasazení autonomních technologií. Podle zprávy OSN pracuje mezinárodní společenství na předpisech, které mají zabránit tomu, aby umělá inteligence činila autonomní rozhodnutí v konfliktních situacích, což zdůrazňuje význam zachování lidské kontroly při rozhodování v kritických situacích.
Payneův experiment by navíc mohl ovlivnit způsob, jakým vlády a vojenské organizace zvažují začlenění UI do svých strategií. Podle článku Brookings Institution má umělá inteligence potenciál transformovat moderní válku, ale také představuje značné riziko, pokud se s ní nebude správně zacházet. Vědecká komunita a světoví lídři musí spolupracovat, aby zajistili, že vývoj AI bude probíhat zodpovědně a eticky.
Takové experimenty nakonec podtrhují význam neustálého dohledu a veřejné debaty o úloze AI ve společnosti. S rozvojem této technologie je zásadní, aby rozhodnutí o jejím využití vycházela z jasného pochopení jejích možností a omezení, jakož i ze závazku dodržovat základní lidské hodnoty.
