Představte si budoucnost, v níž nejvyšší kompliment, který může někdo dostat, je „je příjemné mluvit s člověkem, který se vyjadřuje jako člověk“. To, co dnes zní jako dystopická science fiction, může být podle nedávného stanoviska vědců z Jihokalifornské univerzity blíže, než si myslíme.
Ti varují, že umělá inteligence nás tlačí k masivní homogenizaci jazyka, myšlenek a dokonce i každodenní konverzace. Tato úvaha nepřichází zčistajasna. „Díky za článek, je příjemné přečíst si něco, co napsal člověk,“ napsal nedávno autorovi těchto řádků jeden čtenář. Komentář, který na první pohled potěší. Stačí se však na chvíli zastavit, abychom pochopili jeho znepokojivou odvrácenou stranu: nejpozoruhodnější na textu už není jeho styl, argumentace nebo srozumitelnost, ale prostě to, že ho napsal člověk. Ještě před několika lety by takový kompliment byl brán jako urážka.
To, že se publicisté denně uchylují k umělé inteligenci, není žádným tajemstvím. Skutečná hranice spočívá v míře využití: někteří ji používají k tomu, aby psala za ně, zatímco jiní ji prostě požádají o shrnutí nebo o odhalení překlepů. Problémem je, jak upozorňují američtí výzkumníci, že obě použití vedou ke stejnému cíli, pokud se nepodniknou žádné kroky.
Všechny jsou různé, ale znějí stejně
Dr. Zhivar Sourati, první autor studie, to říká na rovinu: „Jednotlivci se liší v tom, jak píší, uvažují a vidí svět. Když se však tyto rozdíly filtrují přes stejné velké jazykové modely, takzvané LLM – systémy umělé inteligence vycvičené na obrovském množství textů, aby generovaly odpovědi v přirozeném jazyce – výsledkem je standardizace stylu, perspektivy a strategií uvažování.„
V praxi se již miliony lidí obracejí na nástroje, jako je ChatGPT, aby sestavili e-mail, který neumějí začít, nebo aby dokončili úkol v časovém presu. Jedná se o kvaziadministrativní úkoly, kde se absence „lidského přístupu“ zdá být irelevantní. Tento trend však zdaleka přesahuje rámec papírování: co znamená, když se stále více lidí obrací na umělou inteligenci, aby psali zprávy v seznamovacích aplikacích nebo odpovídali přátelům prostřednictvím instant messagingu? Zde již nemluvíme o byrokracii, ale o interakcích, kde údajně hledáme lidský faktor.
Předsudky, které nejsou viditelné pouhým okem.
Sourati zdůrazňuje technickou nuanci s hlubokými důsledky: LLM jsou vyškoleny k zachycení a reprodukci statistických pravidelností z tréninkových dat a tato data často nadměrně reprezentují dominantní jazyky a ideologie. V důsledku toho to, co stroj generuje, odráží úzký a zkreslený úsek lidských zkušeností.
S tím, jak se používání těchto nástrojů rozšiřuje, zaplavuje naše informační prostředí obsah vytvořený s těmito předsudky – nejen jazykovými, ale i ideologickými a kulturními. „Obava není jen v tom, že LLM budou formovat způsob, jakým lidé píší nebo mluví, ale že budou nenápadně redefinovat to, co se považuje za důvěryhodný diskurz, správný pohled na věc nebo dokonce dobrou argumentaci,“ uvažuje. Takové materiály budou soutěžit o naši pozornost s texty, které jsou možná méně uhlazené a méně účinné, ale skutečně pluralitní. A v této soutěži je pluralita v nevýhodě.
Dominový efekt na uživatele, kteří nejsou členy umělé inteligence
V tom spočívá méně zjevná hrozba: i když se člověk brání používání těchto technologií, je prakticky nemožné vyhnout se obsahu, který produkují. Náš způsob myšlení a mluvení je do značné míry konstruován napodobováním toho, co čteme a slyšíme. Co se stane, až budou sociální sítě přeplněny strojově generovaným textem?
Odborníci z University of Southern California varují, že mladší generace – ty, které vyrůstají v ekosystému, kde je skutečně lidská rozmanitost pohřbena pod lavinou umělého obsahu –tyto vzorce nevyhnutelně vstřebají. Generace za generací se může stát, že myšlení a vyjadřování bude o něco homogennější. „I když lidé nejsou přímými uživateli LLM, LLM je stejně nepřímo ovlivní,“ zdůrazňuje Sourati. „Pokud spousta lidí kolem mě myslí a mluví určitým způsobem a já dělám věci jinak, budu cítit tlak, abych se jim přizpůsobil, protože mi to bude připadat jako důvěryhodnější nebo společensky přijatelnější způsob vyjadřování mých myšlenek.„
Regulujte, abyste zachovali kognitivní rozmanitost
Rozhodnout se individuálně psát jako lidé může přinést občasný příjemný kompliment, ale nezaručuje to přežití plurality, pokud většina bude i nadále delegovat psaní na stroje. Autoři článku se shodují, že řešení, pokud nějaké existuje, bude vyžadovat regulaci jak návrhu, tak používání těchto technologií.
„Pokud by LLM měly rozmanitější způsoby řešení myšlenek a problémů, lépe by podporovaly kolektivní inteligenci a schopnost řešení problémů naší společnosti,“ uzavírá Sourati. „Musíme diverzifikovat samotné modely AI a zároveň upravit způsoby interakce s nimi, zejména vzhledem k jejich všudypřítomnému používání v úlohách a kontextech, abychom ochránili kognitivní rozmanitost a ideový potenciál budoucích generací.“ Budoucnost není odsouzena k zániku, ale vyžaduje naléhavá opatření.
