Politika a AI: Trumpův zákaz ideologie mění nestrannost umělé inteligence

Politika a AI: Trumpův zákaz ideologie mění nestrannost umělé inteligence

Zdroj obrázku: Brian Jason / Shutterstock.com

AI má být nestranná, ale co to vlastně znamená? Společnost Anthropic zveřejnila open source nástroj, který hodnotí politickou rovnováhu chatbotů. Výsledky ukazují, že i nejvyspělejší modely se stále potýkají s předsudky – a nová americká legislativa zvyšuje tlak na změnu.


Společnost Anthropic, která stojí za projektem Claude, zveřejnila open source nástroj pro měření politické zaujatosti chatbotů. Systém hodnotí to, co společnost nazývá „nestrannost“, tj. zda chatbot vyváženě reprezentuje různé úhly pohledu a jak často odmítá odpovídat na citlivé otázky. Nestrannost v umělé inteligenci je žhavým tématem, zejména v době, kdy se technologie stále více začleňují do našeho každodenního života.

Tento nástroj přichází v době, kdy vrcholí debata o neutralitě těchto AI, zejména v souvislosti s Trumpovým exekutivním příkazem, který federálním dodavatelům zakazuje používat politicky zaujaté systémy. Tento příkaz vyvolal debatu o tom, co představuje politickou zaujatost a jak ji lze objektivně měřit. Neutralita umělé inteligence je klíčová, protože tyto technologie ovlivňují veřejné mínění a rozhodování. Panuje obava, že zaujatost v AI by mohla udržovat nebo dokonce prohlubovat stávající politické rozpory.

Problém, který nikdo neumí vyřešit

Pravdou je, že neexistuje shoda na tom, jak definovat a měřit politickou zaujatost v AI. Vnímání zaujatosti se liší v závislosti na více faktorech: faktické přesnosti odpovědí, způsobu, jakým systém zpracovává kontroverzní témata, a dokonce i na ideologických očekáváních každého uživatele. Stejná odpověď může být vnímána jako zaujatá nebo neutrální v závislosti na tom, kdo ji hodnotí, což ztěžuje stanovení objektivních kritérií, která by platila pro všechny.

Související článek

Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie
Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie

Tým amerických vědců představil roboty menší než zrnko soli, kteří se dokáží sami rozhodovat, pohybovat a vnímat okolí bez vnější kontroly. Jde o zásadní milník v miniaturizaci, který otevírá nové možnosti v medicíně, výrobě i výzkumu na buněčné úrovni.

Podle vlastních údajů společnosti Anthropic, které shromáždil Axios, dosahuje Claude Opus 4.1 nestrannosti 95 % a Sonnet 4.5 94 %, ale obě jsou nižší než Gemini 2.5 Pro od společnosti Google (97 %) a Grok 4 od xAI (96 %). ChatGPT od OpenAI dosahuje 89 %, zatímco Llama 4 od Mety sotva 66 %. Společnost zveřejnila celý kód na GitHubu, aby s ním mohl kdokoli experimentovat a navrhnout nové způsoby měření tohoto typu zkreslení.

Technologické společnosti upravují své zásady tváří v tvář novým požadavkům americké vlády. Výkonný příkaz 14319, který Trump podepsal v červenci 2025, zakazuje federálním agenturám a dodavatelům používat systémy umělé inteligence, které obsahují „ideologická dogmata“, přičemž konkrétně vyzdvihuje principy DEI – diverzitu, rovnost a inkluzi – jako „nejničivější a nejrozšířenější ideologii“.

Příkaz vyžaduje, aby všechny modely odrážely „historickou přesnost“, „vědecký výzkum“ a „neutralitu„, a odmítá jakýkoli systém, který by „zkresloval výsledky“ založené na principech DEI. K tomu dochází v době, kdy USA sázejí 500 miliard dolarů (asi 11,5 bilionu Kč) na projekt Hvězdná brána, aby se pokusily vyhrát hru s umělou inteligencí proti Číně. V tomto kontextu je globální konkurence ve vývoji AI tvrdá a vládní politiky mohou mít významný vliv na to, jakým směrem se technologie bude ubírat.

Problémem je, že příkaz nespecifikuje, jaké metriky nebo technické postupy musí být dodrženy, což ponechává společnosti v regulační nejistotě. Jiné mocnosti zaujímají radikálně odlišné přístupy: Čína právě zahájila ofenzivu s cílem kontrolovat umělou inteligenci a omezit dezinformace vytvářené těmito systémy, přičemž upřednostňuje vládní kontrolu před jakoukoli technickou debatou. Tento přístup kontrastuje s přístupem Spojených států, kde je debata o regulaci AI otevřenější, ale také složitější kvůli různorodosti názorů.

Zveřejnění kódu na GitHubu má za cíl právě otevřít technickou debatu. Anthropic nepředstavuje svůj nástroj jako definitivní řešení, ale jako výchozí bod pro ostatní, aby mohli vyvíjet nové přístupy. Tato transparentnost kontrastuje s varováním Erica Schmidta před riziky umělé inteligence, který zašel tak daleko, že prohlásil, že pokud nebude řádně kontrolována, dojde ke „zranění nebo zabití mnoha lidí“, i když z pohledu zaměřeného spíše na bezpečnost než na spravedlnost.

Údaje také odhalují nepříjemné výsledky pro průmysl. Grok společnosti xAI dosáhl lepšího skóre než Claude, což je zábavné vzhledem k tomu, že Elon Musk neustále kritizuje progresivní předpojatost jiných AI. Nezávislé studie však ukazují, že Grok se stále nachází v liberálně-libertariánském kvadrantu politických testů, i když o něco více napravo než ChatGPT nebo Gemini. To poukazuje na složitost měření zaujatosti v AI, protože vnímání spravedlnosti se může výrazně lišit.

Nástroj Anthropic je krokem k transparentnosti, ale shoda na tom, co vlastně znamená nestranná AI, zůstává neznámou. Společnosti musí vybalancovat faktickou přesnost, soulad s předpisy a vnímání spravedlnosti, aniž by obětovaly užitečnost systému. Zatím nikdo nepřišel s receptem. Hledání skutečně nestranné AI je trvalou výzvou, která vyžaduje spolupráci technologů, regulačních orgánů a celé společnosti.

Nástroj společnosti Anthropic využívá metodiku nazvanou „Paired Prompts“, která hodnotí odpovědi podle několika hledisek: četnost odpovědí příznivých pro jednotlivé ideologické spektrum, míra odmítnutí citlivých otázek a schopnost argumentovat na všechny strany, aniž by se vychýlila rovnováha. Ale i s tímto strukturovaným systémem společnost sama uznává zjevná omezení: co se stane, když faktická realita objektivně upřednostňuje jednu pozici před druhou? Měla by umělá inteligence upřednostnit vnímanou neutralitu, nebo informační přesnost? Tyto otázky odrážejí složitost vývoje systémů AI, které jsou spravedlivé a přesné zároveň.

Budoucnost nestrannosti AI

Budoucnost nestrannosti v AI bude záviset na tom, jak společnosti a vlády tyto výzvy vyřeší. Mezinárodní spolupráce a sdílení osvědčených postupů budou mít zásadní význam pro vývoj standardů, které lze uplatnit celosvětově. Kromě toho bude pro budování důvěry a porozumění zásadní vzdělávat veřejnost o tom, jak AI funguje a jak se v těchto systémech rozhoduje.

Spravedlnost v AI nakonec není jen technickým problémem, ale také etickou a společenskou výzvou. Rozhodnutí, která dnes učiníme o tom, jak měřit a řídit zaujatost v AI, budou mít trvalý dopad na to, jak tyto technologie ovlivní naše životy a celou společnost.

Zdroje článku

theverge.com, indiatoday.in
#