Výzkum ukázal, že Grok prochází Muskovy příspěvky, než na ně odpoví.
Elon Musk před několika hodinami představil svůj nový model umělé inteligence Grok 4. Model, který se nepřestal připomínat prostřednictvím sociálních sítí a který v různých obvykle používaných testech podal velmi dobré výsledky. A přestože byl prezentován jako model, který se bude pídit po „pravdě“, první testy odhalily, že k nalezení této „pravdy“ v některých kontroverzních otázkách si bere za zdroj publikace Elona Muska.
Podle výzkumu serveru TechCrunch, kterému se podařilo tyto výsledky opakovaně zopakovat, nový model umělé inteligence při reakci na kontroverzní témata konzultuje Muskovy příspěvky a názory na X. Mezi ně patří izraelsko-palestinský konflikt, potraty a imigrační zákony.
Návrh, který vyhovuje Muskovým přáním
Toto chování nemusí být náhodné. Mohlo by být přímou reakcí na frustraci, kterou sám Musk v minulosti vyjádřil v souvislosti se svým modelem umělé inteligence, kdy jej označil za „příliš probuzený“. Občas šly jeho reakce přímo proti jeho majiteli a zcela ho ztrapňovaly. Musk tuto zaujatost přičítal tomu, že AI byla vyškolena na základě informací z celého internetu a zdá se, že nyní našel způsob, jak ji srovnat.
Crazy
— Yuma (@yumahey) July 11, 2025
Grok 4 prioritizes in some cases the opinions of his creator, Elon Musk, in answering subjective questions
see https://t.co/6GzRBdZVTI
credits op @simonw pic.twitter.com/xSBQntJUTd
Výzkumníci testovali tak, že se Grok 4 zeptali na jeho postoj k imigraci do USA. V tu chvíli se prostřednictvím jeho „myšlenkového řetězce“ ukázalo, že „hledá názory Elona Muska na imigraci do USA“. Něco, co dělal prostřednictvím svých příspěvků.
Ačkoli se umělá inteligence snaží nabídnout vyvážený pohled s více perspektivami, její konečný závěr má tendenci souhlasit s Muskem. To se však vytratí, pokud se zeptáte na jiné otázky, které nejsou v politickém nebo společenském světě kontroverzní.
A to je problém. Už jsme mluvili o tom, že mnoho uživatelů Groku slepě důvěřuje. Stačí vstoupit do příspěvku na X a podívat se na odpovědi, abyste viděli, že někdo pravděpodobně zmiňuje Grok, aby potvrdil obsah příspěvku. A pokud už vykazoval jasné známky selhání, bude nyní zkreslený názorem svého majitele.
Grok 4 seems to consult Elon Musk to answer controversial questionshttps://t.co/8DdSFJfMxU
— Shaun (@SGIALosAngeles) July 11, 2025
Grok je tedy na rozcestí. Ačkoli se jeho činnost výrazně zlepšuje, v posledních dnech jsme byli svědky toho, jak se v jeho zprávách objevují antisemitské příspěvky s nacistickou ideologií nebo dokonce vydávání se za Elona Muska při odpovídání.
Etika v umělé inteligenci
Situace s Grokem 4 vyvolává důležité otázky týkající se etiky vývoje umělé inteligence. Spoléhání se na názory jediné osoby, zejména někoho tak vlivného, jako je Elon Musk, může reakce umělé inteligence výrazně zkreslit. To by mohlo vést k šíření zkreslených nebo dokonce nepravdivých informací, což je obzvláště znepokojivé v případě citlivých nebo kontroverzních témat.
Technologická komunita již dlouho diskutuje o tom, jak zajistit, aby umělé inteligence byly nestranné a neodrážely předsudky svých tvůrců nebo zdrojů dat, na kterých jsou vyškoleny. Někteří odborníci naznačují, že pro budování důvěry v tyto technologie je zásadní transparentnost tréninkových procesů a zdrojů dat. Jiní prosazují vytvoření přísnějších předpisů, které by zajistily, že umělé inteligence budou vyvíjeny a používány etickým způsobem.
V této souvislosti by případ Grok 4 mohl sloužit jako varovný signál pro toto odvětví. Vzhledem k tomu, že se umělá inteligence stále více začleňuje do našich životů, je nezbytné, aby vývojáři a společnosti byli zodpovědní a uvědomovali si, jaký dopad mohou mít tyto technologie na společnost.