Elon Musk oznámil, že do týdne zpřístupní zdrojový kód doporučovacího algoritmu sociální sítě X, včetně reklamních komponent. Nový režim pravidelného zveřejňování má posílit důvěru, ale také čelí otázkám ohledně skutečné transparentnosti a bezpečnosti.
Majitel a technologický ředitel společnosti X Elon Musk v sobotu uvedl, že do týdne otevře zdrojový kód nového algoritmu sociální sítě, což by byl druhý velký pokus společnosti ukázat, jak rozhoduje o tom, co se uživatelům zobrazí na jejich obrazovkách.
„Nový algoritmus X, včetně veškerého kódu používaného k určování toho, které organické a reklamní příspěvky jsou uživatelům doporučovány, zpřístupníme jako open source do 7 dnů,“ napsal Elon Musk. „To se bude opakovat každé 4 týdny s rozsáhlými poznámkami od vývojářů, abychom jim pomohli pochopit, co se změnilo,“ dodal a slíbil jakýsi harmonogram „veřejného uvolňování“ srdce doporučovacího systému.
Podle vysvětlení Groku, agenta umělé inteligence (AI) společnosti X, otevření kódu jeho doporučovacího algoritmu umožní komukoli zkontrolovat, jak systém funguje. V praxi to znamená, že výzkumní pracovníci, programátoři a regulační orgány budou moci kód přezkoumat, odhalit případné zkreslení a alespoň teoreticky navrhnout zlepšení nebo upozornit na problémy.
Algoritmus představuje jeden z nejmocnějších nástrojů X a dalších sociálních sítí, protože určuje, jaký bude „feed“ neboli tok informací, který se objeví na účtu každého uživatele. Je to systém, který rozhoduje o tom, co se zobrazí jako první, co se skryje, co se stane virálním a co zůstane prakticky bez povšimnutí.
Co znamená open source algoritmus
Zjednodušeně řečeno, učinit algoritmus open source znamená zveřejnit zdrojový kód – instrukce, kterými se počítače řídí – pod licencí, která umožňuje třetím stranám jej číst, analyzovat a v některých případech znovu použít. To není totéž jako úplné otevření vnitřního fungování platformy, ale představuje to skok v transparentnosti ve srovnání s tradičními modely sociálních sítí, kde je algoritmus přísně střeženým tajemstvím.
V případě X Musk říká, že bude zveřejněn „veškerý kód používaný k určení toho, které organické a reklamní příspěvky jsou doporučovány“. To by se alespoň na papíře týkalo jak systému, který rozhoduje o tom, které tweety (nebo příspěvky) se zobrazí na kartě „Pro vás“, tak mechanismů, které vybírají a řadí reklamy. Nicméně i když je kód zveřejněn, existují důležité nuance:
- Algoritmus se může opírat o modely umělé inteligence vycvičené na velkém množství dat, která nejsou zveřejněna.
- Společnost může z bezpečnostních důvodů zatajit kritické části (např. interní systémy pro detekci spamu nebo falešných účtů).
- Způsob provádění kódu – infrastruktura, konkrétní parametry, tréninková data – může zůstat neprůhledný.
Jinými slovy, otevřený zdrojový kód umožňuje nahlédnout do „receptu“, ale ne vždy do všech ingrediencí nebo do toho, jak přesně jsou aplikovány v reálném čase.
Precedens 2023: Částečný open source
V roce 2023, po koupi platformy dříve známé jako Twitter, Musk zveřejnil část doporučovacího algoritmu na GitHubu, i když s důležitými výjimkami, jako jsou reklamní doporučení, a neprováděl pravidelné aktualizace na toto téma. Společnost tehdy vysvětlila, že se jedná o systém, který pohání záložku „Pro vás“, ale vynechala klíčové komponenty a tréninková data.
Zveřejnění tohoto kódu umožnilo výzkumným pracovníkům a novinářům odhalit například signály, které upřednostňují určité typy obsahu nebo chování, a také specifická pravidla pro omezení dosahu účtů označených za spam nebo zneužívání. Odhalilo také stopy interních systémů „označování“ uživatelů, což vyvolalo debatu o tom, zda se některým účtům nedostává přednostního zacházení, nebo zda nejsou naopak netransparentně postihovány.
Od té doby společnost X nenabídla žádné zásadní veřejné aktualizace algoritmu, přestože Musk slíbil otevřenější vývoj založený na spolupráci. Nové oznámení se pokouší tento slib znovu naplnit, tentokrát výslovně zahrnuje reklamní část a čtyřtýdenní cyklus vydávání.
Proč je doporučovací algoritmus tak důležitý
Na sociálních sítích, jako je X, Facebook, Instagram nebo TikTok, většina uživatelů nevidí obsah v chronologickém pořadí, ale filtrovaný a tříděný automatickým systémem. Tento systém – doporučovací algoritmus – je založen na mnoha signálech:
- S kým uživatel komunikuje (koho sleduje, na koho reaguje, jaký obsah sdílí).
- Jaké příspěvky má tendenci nejčastěji číst nebo „lajkovat“.
- Jaká témata jsou v daném čase a místě trendová.
- Jaký obsah je považován za potenciálně škodlivý, spam nebo dezinformaci.
Na základě toho všeho algoritmus rozhoduje, co zobrazit jako první, co nechat na později a co nezobrazovat vůbec. Proto se mluví o tom, že tyto systémy „řídí veřejnou konverzaci“: tím, že zesilují některé hlasy a umlčují jiné, ovlivňují, která témata se zdají být důležitá a která vypadnou z radaru.
Navíc stejný systém, který doporučuje organický (neplacený) obsah, je často úzce propojen se systémem, který rozhoduje o tom, které reklamy lidé uvidí. To má ekonomické důsledky – pro inzerenty i pro samotnou platformu – a také politické důsledky, protože cílení zpráv může mít dopad v období voleb nebo v krizových situacích.
Algoritmická transparentnost a tlak regulačních orgánů
Evropská komise a Francie zahájily vyšetřování týkající se doporučovacího algoritmu X: první z nich kvůli jeho souladu s digitálními předpisy a druhé kvůli možné manipulaci.
V EU se na společnost X vztahuje zákon o digitálních službách (DSA), který vyžaduje, aby velké platformy – označované jako „velmi velké online platformy“ – posuzovaly a zmírňovaly systémová rizika svých služeb, včetně šíření dezinformací, manipulace demokratických procesů a vlivu na duševní zdraví. DSA mimo jiné požaduje větší transparentnost doporučovacích systémů a možnost uživatelů zvolit si méně personalizované možnosti.
Evropská komise zahájila několik formálních řízení, aby prověřila, zda společnost X tato pravidla dodržuje, zejména pokud jde o moderování obsahu a řízení dezinformací v citlivých kontextech, jako jsou ozbrojené konflikty nebo volební procesy. Fungování doporučovacího algoritmu je ústřední součástí tohoto zkoumání.
Současně francouzské orgány vyjádřily obavy z možné manipulace s informacemi prostřednictvím X, včetně posilování extremistického obsahu nebo koordinovaných kampaní. Francouzské vyšetřování se zaměřuje na to, zda konstrukce doporučovacího systému může takovou dynamiku usnadňovat, nebo zda jí platforma dostatečně pečlivě předchází.
V této souvislosti lze Muskovo oznámení o otevření kódu interpretovat také jako politický a regulační krok: poskytnout větší přehled o algoritmu ve snaze prokázat, že platforma jedná „neutrálně“ nebo alespoň záměrně nemanipuluje veřejnou debatu.
Stačí k zajištění transparentnosti otevření kódu?
Pro mnoho odborníků je odpověď záporná. Zveřejnění kódu je jedním z kroků, ale samo o sobě problémy s neprůhledností neřeší. Organizace, jako je Electronic Frontier Foundation (EFF) nebo Algorithmic Justice League, upozorňují, že účinná transparentnost vyžaduje také:
- srozumitelná vysvětlení široké veřejnosti o tom, jak se automatizovaná rozhodnutí přijímají.
- Přístup nezávislých výzkumných pracovníků k agregovaným a anonymizovaným údajům, aby mohli studovat skutečný dopad algoritmu.
- Mechanismy, které uživatelům umožní pochopit, proč se jim zobrazuje určitý obsah a jak mohou změnit své preference.
- Pravidelné externí audity k posouzení zaujatosti, diskriminace a rizik pro základní práva.
Navíc ani v případě otevřeného zdrojového kódu nemá většina uživatelů technické znalosti k jeho interpretaci. Proto bude klíčový Muskův slib doprovázet každou aktualizaci „rozsáhlými poznámkami pro vývojáře“: nemá smysl zveřejňovat miliony řádků kódu, pokud změny nejsou vysvětleny srozumitelně a přístupně.
Rizika a kritika: Od manipulace po zneužití umělé inteligence
Otevřenost algoritmu přináší také rizika. Někteří kritici varují, že zveřejnění vnitřního fungování systému by mohlo usnadnit zlomyslným aktérům naučit se, jak algoritmus „obehrát“, aby maximalizovali šíření spamu, dezinformací nebo koordinovaných kampaní. Jde o křehkou rovnováhu mezi transparentností a bezpečností.
Na druhou stranu, samotná společnost X byla v USA pod drobnohledem kvůli používání svého agenta umělé inteligence Grok. Nedávno se společnost X dostala v USA pod drobnohled poté, co Grok souhlasil s požadavky uživatelů na úpravu snímků jiných osob a jejich svlékání bez souhlasu. Takové praktiky založené na modelech umělé inteligence schopných realisticky generovat nebo upravovat snímky znovu rozvířily debatu o takzvaných „deepfakes“ a potřebě regulovat jejich používání, zejména pokud jde o sexuální obsah bez souhlasu.
Případ Grok přispívá k širším obavám: kombinace doporučovacích algoritmů a generativních nástrojů umělé inteligence může rychle zesílit škodlivý nebo zneužívající obsah, pokud nejsou zavedena spolehlivá ochranná opatření. Otevřený, ale špatně spravovaný algoritmus by mohl nadále podporovat toxickou dynamiku, nebo ji dokonce zhoršovat, pokud jej třetí strany budou bez kontroly znovu používat.
Jak si X stojí v porovnání s jinými platformami
Muskův krok staví X do relativně jedinečné pozice ve srovnání s ostatními velkými sociálními sítěmi. Platformy jako Meta (Facebook, Instagram) nebo TikTok zveřejnily vysvětlující dokumenty o svých algoritmech a zpřístupnily některá data výzkumníkům, ale nezveřejnily plošně zdrojový kód svých doporučovacích systémů.
Oproti tomu v jiných technologických oblastech, jako jsou operační systémy (Linux) nebo prohlížeče (Firefox, Chromium), je ekosystém otevřeného kódu běžný. Myšlenka aplikovat tuto filozofii na algoritmy sociálních sítí je relativně nová a stále se nachází v experimentální fázi. Některé alternativní projekty, jako například Mastodon nebo Bluesky, se rozhodly pro otevřenější a decentralizovanější modely, kde si uživatelé mohou vybrat nebo dokonce vytvořit vlastní doporučovací algoritmy.
Pokud X splní, co slíbil, a bude dodržovat transparentní cyklus vydávání a aktualizací, mohl by se stát případovou studií výhod a limitů open source aplikovaného na masové platformy. Mohl by také vyvinout tlak na ostatní společnosti, aby poskytly větší přehled o svých systémech, i když je nepravděpodobné, že bychom se v krátké době dočkali úplné otevřenosti ve zbytku odvětví.
Co mohou uživatelé očekávat
Pro běžného uživatele otevření kódu bezprostředně nezmění každodenní používání systému X. Kanál se bude i nadále zobrazovat podobným způsobem a většina lidí nebude kód prohlížet ani se zapojovat do technických diskusí. Může však dojít k nepřímým dopadům:
- Zvýšená schopnost novinářů a občanských organizací kontrolovat algoritmická rozhodnutí.
- Možný vznik externích nástrojů pro analýzu toho, jak se algoritmus chová v praxi.
- Větší tlak veřejnosti na společnost X, aby vysvětlila změny, které ovlivňují dosah určitého obsahu nebo účtů.
- Obnovená debata o tom, zda by uživatelé měli mít možnost volby mezi různými algoritmy (např. čistě chronologický versus personalizovaný).
Muskův slib zpřístupnit algoritmus každé čtyři týdny bude nakonec hodnocen nejen podle jím zveřejněného kódu, ale také podle toho, jakou míru porozumění a skutečné kontroly získají uživatelé, výzkumníci a regulátoři nad systémem, který dnes zůstává jednou z nejvlivnějších černých skříněk v digitální veřejné sféře.
