ChatGPT pod tlakem: Rodiny viní AI z osobních tragédií

ChatGPT pod tlakem: Rodiny viní AI z osobních tragédií

Zdroj obrázku: kovop58@gmail.com / Depositphotos

Umělá inteligence má pomáhat, ale v některých případech podle žalob selhala. Rodiny i jednotlivci viní ChatGPT a další nástroje z prohlubování psychických krizí, což vyvolává tlak na OpenAI, regulátory i odborníky na duševní zdraví.


Rizika, která umělá inteligence představuje pro duševní zdraví uživatelů, jsou již dobře známá vzhledem k četným případům, kdy se tato technologie podílela na osobních tragédiích jedinců. Je totiž schopna nejen zhoršovat psychické stavy uživatelů s poruchami, ale také u jiných uživatelů vyvolávat manické nebo obsedantní poruchy. Proto soudy registrují nárůst stížností na OpenAI a její selhání při ochraně zranitelných uživatelů.

Intenzivní používání nástrojů umělé inteligence, jako je ChatGPT, vyvolává značné obavy o duševní zdraví jejich uživatelů. Schopnost těchto systémů generovat automatické a často neosobní odpovědi může v některých případech zhoršit již existující psychické problémy nebo dokonce vyvolat nové poruchy. Interaktivní a zdánlivě sympatická povaha těchto nástrojů může vyvolat falešný pocit emocionální podpory, což vede k tomu, že někteří uživatelé se na ně začnou příliš spoléhat, místo aby vyhledali vhodnou odbornou pomoc.

Související článek

Samsung TV promění obývák v digitální album. Fotky Google dorazí v roce 2026
Samsung TV promění obývák v digitální album. Fotky Google dorazí v roce 2026

Od března 2026 se televizory Samsung s AI promění v digitální centra vzpomínek díky integraci Fotek Google. Funkce jako tematické kolekce, úpravy pomocí umělé inteligence nebo personalizované prezentace přinášejí zcela nový způsob, jak si doma prohlížet životní okamžiky – a to bez nutnosti sahat po telefonu.

Totéž nelze říci o dalších případech, jako byl Zane Shamblin, třiadvacetiletý mladík, který se zastřelil po rozsáhlém používání ChatGPT a poté, co umělá inteligence glorifikovala akt sebevraždy, nebo Kate Foxová, manželka vojenského veterána Joea Ceccantiho, muže, jehož smrt rovněž následovala po několika zaznamenaných krizích v rozhovorech s umělou inteligencí a někým, kdo se předtím nestabilně nechoval.

OpenAI chce tento problém řešit

Tato situace je jednou z nejškodlivějších pro OpenAI v posledních měsících a společnost loni v říjnu uvedla, že co nejrychleji pracuje na tom, aby v příštích měsících zavedla spolehlivější mechanismy, které zabrání tomu, aby AI svými reakcemi poškozovala zranitelné uživatele s duševním onemocněním. Mezi opatření, která OpenAI zvažuje, patří zavedení přísnějších filtrů pro detekci a blokování potenciálně škodlivého obsahu a také spolupráce s odborníky na duševní zdraví na vytvoření pokynů pro bezpečné používání.

Pokud se tedy ocitnete ve zranitelné situaci, raději se poraďte s odborníky nebo svým praktickým lékařem než s AI. Její okamžitá a dostupná reakce může vyvolat dojem, že je užitečnější, ale ve skutečnosti se nejedná o technologii speciálně určenou pro duševní zdraví a může jakoukoli situaci zhoršit tím, že poskytne nevhodné reakce.

Kvůli těmto a mnoha dalším případům je zřejmé, že umělá inteligence může být potenciálně nebezpečným nástrojem pro psychicky zranitelné osoby. Ačkoli se mnoho lidí domnívá, že ChatGPT může být nástrojem, který „ví všechno“, jeho rady nelze považovat za stoprocentně spolehlivé, ani jeho odpovědi na otázky nejsou zcela pravdivé a může halucinovat, vymýšlet si informace nebo špatně interpretovat obsah.

Tato vlna stížností, jak odhalil deník The Wall Street Journal, představuje sedm žalob podaných společně rodinami ve Spojených státech a Kanadě, které trpí devastací umělé inteligence, jež údajně podporuje sebedestruktivní spirálu duševního zdraví uživatelů. Jedním z uživatelů byl 48letý Alan Brooks, který tvrdí, že umělá inteligence poškodila jeho duševní zdraví natolik, že potřeboval psychiatrickou léčbu. Má však štěstí, že je naživu.

Úloha regulace a vzdělávání při používání AI

Pro zmírnění těchto rizik je zásadní, aby se vládní regulace a politiky technologických společností zaměřily na ochranu uživatelů. Evropská unie například pracuje na zákonu o umělé inteligenci, jehož cílem je vytvořit právní rámec pro vývoj a bezpečné používání těchto technologií. Kromě toho je nezbytné vzdělávat veřejnost v oblasti odpovědného používání umělé inteligence a podporovat digitální gramotnost, aby uživatelé pochopili limity a možnosti těchto nástrojů.

Odpovědnost za bezpečné používání umělé inteligence nakonec nesou jak vývojáři, tak uživatelé. Vývojáři musí zajistit, aby jejich produkty byly bezpečné a navržené s ohledem na blaho uživatele, zatímco uživatelé si musí být vědomi možných rizik a používat tyto nástroje zodpovědně.

Umělá inteligence má potenciál pozitivně proměnit naše životy, je však nezbytné řešit etické a bezpečnostní problémy, které s sebou přináší, aby byl její dopad prospěšný pro všechny.

Zdroje článku

wsj.com, theguardian.com
#