Špatnou zprávou je, že jde o těžko prokazatelný problém.
Současný vzestup nástrojů umělé inteligence vyvolal revoluci ve způsobu programování kódu, psaní textu a navrhování obrázků, což umožňuje generovat přesnější a složitější obsah. Tyto nástroje proměnily celá odvětví, od zákaznického servisu až po kreativní tvorbu, a nabízejí řešení, která se dříve zdála nemožná.
Uprostřed takového nadšení se však začíná šeptem objevovat rozšířená obava: někteří pozorují, že u mnoha AI, bez ohledu na to, jak působivé bylo jejich uvedení na trh, jsou výsledky postupně mnohem méně pozoruhodné, než byly na začátku. Jako by umělé inteligence byly stále hloupější nebo línější. Tento jev vyvolal debatu o dlouhodobé udržitelnosti schopností AI.
Tento jev, který někteří nedávno začali nazývat „mlha předplatného“, popisuje frustrující realitu pro uživatele: platí měsíční předplatné za nástroj, který jako by ztratil část své síly, aniž by jim bylo jasné, zda se jim to jen zdá a/nebo proč se tak stalo. Frustraci uživatelů zvyšuje i nedostatečná transparentnost vývoje těchto služeb.
Falešná představa předplatitelů
Ti, kteří byli ještě nedávno nadšeni, že za měsíc získají 3 000 dolarů (63 tisíc korun) z vygenerovaného kódu, který je stál jen 200 dolarů (4.200 korun), najednou začínají pozorovat pomalý, ale postupný pokles kvality služby. Toto vnímání je umocněno nedostatkem jasných informací o změnách ve službě.
there's this phenomenon happening with AI coding tools. i'm calling it "subscription fog."
you have users bragging about getting $3k of inference for $200/month. then suddenly things "feel" off.
when the same entity controls both:
1. the inference supply
2. the harness… pic.twitter.com/myKnA8h0QJ— Nick (@nickbaumann_) July 15, 2025
A problém se neomezuje jen na to, zda modely „více selhávají“ nebo ne: jádro problému předplatitelské mlhy spočívá v neprůhlednosti: když poskytovatelé ovládají jak inferenční infrastrukturu (model), tak rozhraní, které směruje požadavky uživatelů (chatbot), uživatelé ztrácejí možnost pochopit, co se děje. Je to stejný model jako dříve? Omezují kontext? Je to pomalejší? Došlo ke skrytým změnám? Tyto otázky zůstávají nezodpovězeny, což vede k nedůvěře.
Past zvrácených pobídek
Modely nejsou nutně optimalizovány tak, aby poskytovaly co nejlepší uživatelský zážitek, ale aby byly ekonomicky udržitelné. A to vede ke vzniku zvrácených pobídek: pokud tedy společnost zjistí, že může ušetřit náklady omezením kontextu, přechodem na levnější model pro určité dotazy nebo prokládáním delších časů latence, může tak učinit, zejména pokud si toho uživatel nemůže snadno všimnout. Tato praxe může v dlouhodobém horizontu podkopat důvěru uživatelů.
Vzhledem k tomu, že modely jsou ze své podstaty nedeterministické (tj. stejný dotaz může pokaždé přinést jiné výsledky), lze jakékoli snížení výkonu přičíst „běžné variabilitě“ systému. To prakticky znemožňuje uživateli zjistit, zda se produkt změnil, či nikoli. Nedostatečná transparentnost a technická složitost ztěžují identifikaci skutečných problémů.
Případ Claude Code: Od euforie k frustraci
V posledních dnech komunita vývojářů zintenzivnila své stížnosti na Claude Code. Několik vláken na Redditu a GitHubu odráží dojem, že se v chování vychvalovaného programovacího asistenta Anthropic náhle něco změnilo – a to k horšímu. Tyto stížnosti zdůrazňují důležitost jasné komunikace a řízení očekávání. Nedávné příspěvky na subredditu r/ClaudeAI přesně vystihují tuto dramatickou proměnu:
Very disappointed in Claude code, for past week unusable. Been using it for almost 1 months doing same kind of tasks, now I feel spends more time auto compacting than write code. Context window seems to have significantly.
byu/Ordinary_Bend_8612 inClaudeAI
Uživatelé tak popisují prudký pokles výkonu: neustále zapomíná kontext, vstupuje do absurdních smyček a generuje irelevantní nebo nepravidelné odpovědi. „Zapomíná, co dělal, už po dvou krocích,“ říká jeden uživatel, který má rovněž podezření.
„Anthropic možná v zákulisí aktivně manipuluje s chováním modelu.“
A nejedná se o ojedinělé případy. Na GitHubu uživatelé hlásí, že Claude Code začal běžet velmi pomalu („pomaleji než Gemini CLI“) nebo že neustále padá, když vloží několik řádků kódu nebo když se problém stane složitým. Tyto technické problémy přímo ovlivňují produktivitu uživatelů.
Stálicí v komunitě je nejednotnost: zatímco někteří uživatelé hlásí drastické pády, jiní pokračují s přijatelným výkonem. Tato nesourodost naznačuje, že problémy nemusí být univerzální, ale specifické pro určité kontexty nebo konfigurace.
Jeden z uživatelů komentuje, že po několika dnech problémů se služba vrátila do „normálu“, což je variabilita, která posiluje hypotézu, že změny výkonu mohou být způsobeny postupným zaváděním nových verzí, A/B testováním nebo selektivním omezováním za účelem optimalizace zdrojů během špiček poptávky. Tyto faktory mohou ovlivnit vnímání výkonnosti služby.
Neprůhledná povaha uzavřených modelů
Jedním z největších problémů v současném ekosystému je nedostatečná transparentnost: na rozdíl od softwaru s otevřeným zdrojovým kódem, kde mohou uživatelé kontrolovat změny, komerční nástroje umělé inteligence fungují jako černé skříňky. Neexistují žádné podrobné poznámky k vydání, žádné jasné výkonnostní metriky a ke změnám může dojít bez předchozího upozornění. Tato neprůhlednost ztěžuje objektivní hodnocení služeb.
To ostře kontrastuje s tím, co by se v jiných technologických odvětvích považovalo za rozumná očekávání. Pokud poskytovatel cloudového úložiště bez varování změní latenci nebo kapacitu, zákazníci si stěžují – a to oprávněně. Ve světě umělé inteligence je však těžší tuto mlhu rozptýlit. K této situaci přispívá nedostatek jasných norem a předpisů v odvětví AI.
Jaké kroky je třeba přijmout
K rozptýlení této „mlhy“ navrhují někteří odborníci řadu strukturálních změn, které by mohly obnovit důvěru uživatelů:
- Technická transparentnost: dodavatelé by měli poskytovat protokoly o změnách, metriky kvality a jasné verze dostupných modelů. To by uživatelům umožnilo lépe pochopit změny a jejich dopad.
- Otevřená rozhraní: Umožnit uživatelům zapojit vlastní chatboty nebo používat rámce, které neskrývají technické detaily. To by podpořilo inovace a přizpůsobení.
- Veřejné kontroly kvality: Vytvoření nezávislých orgánů a/nebo srovnávacích iniciativ, které by pravidelně vyhodnocovaly výkonnost modelů umělé inteligence. To by poskytlo objektivní a spolehlivé hodnocení výkonnosti.
- Volitelné deterministické modely: I když je náhodnost v mnoha případech užitečná, umožnění možnosti deterministické odpovědi by usnadnilo přesné porovnání výsledků mezi jednotlivými verzemi. To by uživatelům pomohlo identifikovat významné změny ve výkonnosti.
- Jasné zásady „downgrade“: Otevřeně oznamovat, zda je model nahrazen modelem s nižší kapacitou během špiček poptávky nebo optimalizace nákladů. Jasná komunikace o těchto změnách je nezbytná pro udržení důvěry uživatelů.
