Generální ředitel Perplexity Aravind Srinivas varuje, že romantické chatboti mohou vážně poškodit psychiku uživatelů, protože vytvářejí pouta silnější než skutečné vztahy. Přestože odborníci upozorňují na rostoucí závislost a psychické potíže, technologický průmysl naopak směřuje k ještě intimnější a personalizovanější AI.
Aravind Srinivas, generální ředitel společnosti Perplexity, během přednášky na Chicagské univerzitě varoval před riziky, která představují firemní chatboti. Řekl, že tyto systémy „vám mohou rozpustit mozek„, protože pro některé uživatele vytvářejí zážitky, které jsou poutavější než realita. Jeho prohlášení kontrastují s trhem, kde Character.AI zaznamenává dvě hodiny průměrného denního využití na jednoho uživatele v afektivních konverzacích, zatímco 34 % dospělých Američanů používá konverzační asistenty každý den.
Jak uvedl Futurism, Srinivas vysvětlil, že romantičtí chatboti jsou problematičtí, protože si pamatují intimní detaily a budují vazby, které mohou nahradit lidské vztahy. Šéf společnosti Perplexity tvrdí, že jeho nástroj se těmto problémům vyhýbá tím, že se zaměřuje na zodpovídání otázek s ověřitelnými zdroji, nikoli na simulaci citových vazeb.
Když chatboti překračují hranici
Odborníci již dlouho dokumentují negativní účinky těchto technologií. Odborníci na duševní zdraví identifikovali rostoucí počet případů tzv. psychózy umělé inteligence u uživatelů, kteří si na chatbotech vypěstovali silnou závislost. Tento jev ještě zhoršují systémy, které se trénují pomocí milionů nekonsensuálních dat získaných z internetu.
Uklidňující nejsou ani technické závady. Grok generoval rasistický obsah, Claude produkuje nesouvislé odpovědi a samotný Perplexity byl kritizován za vymýšlení informací nebo nesprávné shrnutí zpravodajských článků. Tyto chyby se stávají obzvláště závažnými, když se přenesou do emocionální oblasti, kde mohou mít zničující důsledky.
Zdá se, že průmysl sází na opak Srinivasových varování. Společnost OpenAI nedávno potvrdila, že ChatGPT umožní erotické konverzace pro dospělé s ověřením totožnosti, a opustila tak restriktivní politiku, kterou zachovávala od svého spuštění. Jde o radikální změnu, která značí směřování odvětví k extrémní personalizaci.
Perplexity CEO Aravind Srinivas warned that AI companionship apps could lead users to prefer synthetic realities and are open to manipulation. Perplexity won’t develop such chatbots, but apps like xAI, Replika, and Character AI are gaining popularity. pic.twitter.com/yeuI6Gxngc
— Anai_ (@_Anai_x) November 10, 2025
Romantické vztahy s AI jsou již zdokumentovanou realitou v mnoha případech. Uživatelé si na sebe tetují symboly svých digitálních „vztahů“, představují chatboty při terapiích nebo tráví více času s AI než se skutečnými partnery. Studie Centra pro demokracii a technologie odhalila, že 19 % středoškoláků zná případy romantických vztahů s umělou inteligencí.
Srinivasova prohlášení mají Perplexity postavit do pozice „bezpečné“ alternativy k emotivním chatbotům, ačkoli hranice mezi informováním a doprovázením se stírá, když uživatelé hledají porozumění nebo potvrzení u jakéhokoli konverzačního systému. Varování přichází v době, kdy se společnost snaží odlišit na trhu ovládaném giganty, kteří spoléhají na emocionální spojení jako na konkurenční výhodu.
Psychologický dopad vztahů s umělou inteligencí
Psychologický dopad vztahů s AI je stále větším problémem. Psychologové a technologičtí odborníci začali zkoumat, jak tyto interakce mohou ovlivnit duševní zdraví uživatelů. Emocionální závislost na chatbotech může vést k poklesu sociálních dovedností a postupné sociální izolaci. Kromě toho se mohou zvýšit nerealistická očekávání ohledně lidských vztahů, což by mohlo zkomplikovat interakce v reálném světě.
Studie provedená Stanfordskou univerzitou naznačuje, že interakce s chatboty mohou poskytovat falešný pocit společnosti, což by mohlo být škodlivé pro lidi, kteří již trpí osamělostí nebo depresí. Chatboti tím, že nejsou schopni nabídnout skutečnou empatii, mohou vyvolat falešný dojem porozumění a podpory, což by v dlouhodobém horizontu mohlo zhoršit problémy s duševním zdravím.
Budoucnost chatbotů a etika v AI
Etika ve vývoji umělé inteligence je žhavým tématem. Technologické společnosti jsou pod tlakem, aby zajistily, že jejich produkty budou nejen inovativní, ale také bezpečné a etické. To zahrnuje i zavádění opatření na ochranu soukromí uživatelů a prevenci zneužití osobních údajů. Kromě toho se stále častěji objevují výzvy, aby společnosti transparentně informovaly o tom, jak jejich algoritmy zpracovávají informace a činí rozhodnutí.
Budoucnost chatbotů a umělé inteligence obecně bude do značné míry záviset na tom, jak budou tyto etické výzvy řešeny. Vládní regulace a samoregulace odvětví budou mít zásadní význam pro zajištění toho, aby vývoj umělé inteligence prospíval celé společnosti, a ne jen několika málo lidem.
Chatboti a umělá inteligence sice nabízejí vzrušující příležitosti pro inovace a zlepšení každodenního života, ale představují také významné výzvy, které je třeba řešit. Varování Aravinda Srinivase před nebezpečím emočních vztahů s AI je připomínkou potřeby opatrného a etického přístupu k vývoji těchto technologií.
