Zeptejte se AI na své problémy. A sledujte, jak se vám začnou vracet jako noční můra

Zeptejte se AI na své problémy. A sledujte, jak se vám začnou vracet jako noční můra

Zdroj obrázku: kegfire / Depositphotos

Rostoucí využívání generativní umělé inteligence přináší nejen pokrok, ale i nové psychické poruchy. Odborníci varují před tzv. „AI psychózou”, kdy uživatelé nahrazují mezilidské vztahy interakcí s chatboty – a zhoršují tím své duševní zdraví.


Duševní zdraví je stále častěji v centru pozornosti kvůli důsledkům intenzivního používání generativní umělé inteligence (AI). Tato technologie, která je ve světě relativně nová, znamená, že mnohé technologie mohou rapidně zrychlit tempo svého vývoje, ale také způsobuje chaos na společenské úrovni v mnoha aspektech: trestné činy nebo pokusy o ně, plagiátorství, a dokonce i zhoršení duševního zdraví, přičemž tragédií přibývá.

Umělá inteligence za duševními patologiemi

Studie zveřejněná na portálu PsyArXiv uvádí, že se dokonce nacházíme v situaci „AI psychózy „, kdy stále více pacientů potřebuje psychiatrickou péči poté, co obsedantně, kompulzivně a neustále využívají generativní umělou inteligenci. A jestliže nic není dobré v nadbytku, ještě méně dobrý je jazykový model, který může vážně zhoršit nejškodlivější psychické chování uživatelů, kteří jej používají.

Fenomén „psychózy umělé inteligence“ označuje stav, kdy si jedinci vypěstují extrémní závislost na interakci se systémy umělé inteligence a často hledají potvrzení nebo odpovědi na složité osobní problémy, k jejichž řešení tyto systémy nejsou určeny. Tato závislost může vést ke značné sociální izolaci, protože uživatelé mohou dávat přednost interakci s AI před skutečnými lidskými vztahy, což zhoršuje již existující problémy s duševním zdravím.

Související článek

Konec závislosti na Nvidii: Amazon našel způsob, jak obejít monopol s AI čipy
Konec závislosti na Nvidii: Amazon našel způsob, jak obejít monopol s AI čipy

Amazon Web Services uvádí Trainium 3 – výkonný AI čip nové generace, který slibuje čtyřnásobný výkon oproti předchůdci a zásadní snížení spotřeby energie. Cílem není jen rychlejší trénink obřích modelů, ale také menší závislost na Nvidii a hlubší integrace hardwaru, cloudu a služeb. Amazon tak vstupuje do strategické fáze AI revoluce: chce ovládnout celou infrastrukturu – od čipu až po API.

AI jako hnací síla rizikových situací

Ačkoli generativní AI již denně využívají stovky milionů lidí, ve skutečnosti není zdaleka zcela spolehlivá v odpovědích, které poskytuje v jakémkoli ze svých jazykových modelů. A to nejenže způsobuje nespočet profesních či vzdělávacích problémů těm, kteří v této technologii hledají zkratky, ale také ohrožuje životy ostatních a může podněcovat sebepoškozující chování nebo násilí vůči ostatním. Proto se přední značky, jako je OpenAI, snaží tomuto stavu zabránit.

Nevhodné používání umělé inteligence v rizikových situacích vede také k nárůstu šíření dezinformací a škodlivého obsahu. Například „deepfakes„, což jsou videa digitálně upravená tak, aby vypadala jako skutečná, byla použita k šíření dezinformací a obtěžování jednotlivců. Technologické společnosti investují do vývoje algoritmů, které mohou tato rizika odhalit a zmírnit, ale rychlost, s jakou se technologie vyvíjejí, často předbíhá rychlost reakce bezpečnostních opatření.

Je zřejmé, že rychlý rozvoj generativní umělé inteligence způsobuje problémy, o kterých se dříve neuvažovalo, což znamená, že s tím, jak se tyto modely vyvíjejí a stávají se inteligentnějšími, jsou postupně posilovány mechanismy, které mají zabránit jejich škodlivému používání. Proto jsou trestné činy, jako je tvorba a šíření deepfakes, již mnohem blíže skutečnosti než před dvěma lety a samotné systémy takovému využití svých nástrojů brání.

Proto odborníci nabádají nejen k tomu, aby se uživatelé těmto metodám pokusů o terapii vyhýbali, ale také aby se společnosti pracující na takových systémech umělé inteligence snažily zajistit, aby mechanismy jejich jazykových modelů dokázaly uživatele ochránit před situacemi, kdy generativní nástroje umělé inteligence samy ohrožují ty, kteří je používají.

Praxe, která je stále častější v případě psychologických nebo emocionálních dotazů uživatelů. Tato praxe, ačkoli je podporována i vysokými představiteli společností, jako je Microsoft, může být ve skutečnosti mnohem nebezpečnější než trpět nějakým neléčeným emočním nebo psychologickým onemocněním. Psychiatrická praxe totiž varuje před alarmujícím nárůstem počtu případů, v nichž hraje roli umělá inteligence.

Další možná rizika

Využívání umělé inteligence pro emoční nebo psychologickou podporu může být problematické, protože tyto nástroje nejsou určeny k tomu, aby nahradily lidský klinický posudek. Modelům AI chybí empatie a porozumění souvislostem, které jsou při léčbě psychických problémů klíčové. Informace poskytované umělou inteligencí mohou být navíc nepřesné nebo nevhodné, což by mohlo situaci jednotlivce spíše zhoršit než zlepšit.

Ačkoli umělá inteligence nabízí mnoho vzrušujících příležitostí, je nezbytné přistupovat k jejím potenciálním rizikům opatrně. Technologické společnosti, odborníci na duševní zdraví a uživatelé musí spolupracovat, aby zajistili, že AI bude využívána způsobem, který bude prospěšný pro společnost, aniž by ohrožoval duševní zdraví a pohodu jednotlivců.

Zdroje článku

arxiv.org, bbc.com, nature.com
#