OpenAI odmítá odpovědnost za sebevraždu čtrnáctiletého Adama Rainea a tvrdí, že chlapec aktivně obcházel bezpečnostní filtry ChatGPT. Rodina obviňuje systém, firma mluví o „záludné manipulaci“. Soudní spor může vytvořit precedens, který ovlivní budoucí regulaci umělé inteligence.
Společnost OpenAI se rozhodla nepřijmout vinu v případě sebevraždy Adama Rainea. Technologická společnost reagovala na žalobu rodiny a tvrdí, že čtrnáctiletý mladík nebyl pasivní obětí selhání systému, ale provedl záměrnou a složitou manipulaci, aby obešel bezpečnostní filtry ChatGPT. Podle jejich verze umělá inteligence fungovala při blokování prvních pokusů správně, ale nakonec podlehla technickému naléhání uživatele.
Informaci zveřejnil server TechCrunch, který podrobně popisuje právní strategii společnosti. Společnost OpenAI tvrdí, že Raine musel použít „záludné otázky“ a techniky sociálního inženýrství, aby model přiměla ke generování sebevražedných metod. Tímto argumentem se snaží přenést odpovědnost na uživatele a tvrdí, že žádný bezpečnostní systém nemůže odolat úmyslnému útoku někoho, kdo se jej snaží za každou cenu obejít.
Technická obrana lidské tragédie
Tento postoj se čelně střetává s realitou, kterou si uvědomuje i sama společnost. Je těžké obhajovat, že jejich systémy jsou bezpečné, když sami přiznávají, že v tisících konverzací denně odhalují známky vážného psychického zhroucení. Důvěryhodnost jejích protokolů byla navíc nedávno zpochybněna, když vyšlo najevo, že představenstvo zrušilo svůj tým pro dlouhodobé hodnocení rizik, aby upřednostnilo uvedení komerčních produktů na trh.
Případ byl od počátku katastrofou pro vztahy s veřejností. Jak jsme viděli při analýze podrobností žaloby rodiny Raineových, matka obviňuje chatbot z aktivního povzbuzování sebevražedných sklonů jejího syna. Napětí se dále vystupňovalo, když právníci společnosti OpenAI zašli tak daleko, že si vyžádali podrobnosti o pohřbu dítěte, aby mohli připravit svou obhajobu, což bylo označeno za obtěžování a necitlivost.
Nyní bude na soudci, aby rozhodl, zda může být čtrnáctileté dítě činěno odpovědným za „narušení“ bezpečnosti jedné z nejcennějších společností na světě. V Evropě tento scénář již předvídali schválením nového zákona o umělé inteligenci, který tyto systémy klasifikuje jako vysoce rizikové právě proto, aby od vývojářů vyžadoval jasnou odpovědnost.
Výsledek tohoto soudního řízení vytvoří historický precedens. Pokud se společnosti OpenAI podaří prokázat, že se jednalo o vnější manipulaci, mohlo by to celé odvětví ochránit před budoucími žalobami. Pokud prohraje, vynutí si to přehodnocení způsobu interakce umělých inteligencí s duševním zdravím a zavedení mnohem přísnějších překážek, které zabrání technologickým společnostem mýt si ruce nad svými algoritmy, když selžou.
Dopad umělé inteligence na duševní zdraví
Vztah mezi umělou inteligencí a duševním zdravím je stále větším problémem. Systémy umělé inteligence, jako je ChatGPT, jsou navrženy tak, aby s uživateli komunikovaly konverzačním způsobem, ale ne vždy jsou vybaveny pro řešení krizových situací v oblasti duševního zdraví. To vyvolává otázku, do jaké míry by tyto technologie měly nést odpovědnost za negativní důsledky, které mohou z jejich interakce vyplynout.
Studie Stanfordovy univerzity zjistila, že chatboti sice mohou nabídnout základní emocionální podporu, ale nemají schopnost nahradit lidský zásah v krizových situacích. Umělá inteligence může poskytovat informace a návrhy, ale nemůže nabídnout empatii a úsudek, které může poskytnout lidský odborník na duševní zdraví.
Využití AI v oblasti duševního zdraví navíc vyvolává obavy ohledně ochrany soukromí a bezpečnosti dat. Konverzace s chatboty mohou obsahovat citlivé informace, které by při nesprávném zacházení mohly být náchylné k úniku dat. Technologické společnosti musí zajistit ochranu údajů uživatelů a dodržování předpisů o ochraně osobních údajů.
Regulace a budoucnost umělé inteligence
Regulace umělé inteligence je žhavým tématem po celém světě. Evropská unie se stala průkopníkem ve vytváření regulačního rámce pro umělou inteligenci svým návrhem zákona o umělé inteligenci, jehož cílem je stanovit jasná pravidla pro vývoj a používání těchto technologií. Zákon rozděluje systémy umělé inteligence do různých stupňů rizika a pro ty, které jsou považovány za vysoce rizikové, stanovuje přísné požadavky. V USA je regulace AI méně rozvinutá, ale stále více se uznává potřeba jasných pokynů.
Budoucnost umělé inteligence bude do značné míry záviset na tom, jak budou tyto regulační a etické problémy řešeny. Technologické společnosti budou muset najít rovnováhu mezi inovacemi a společenskou odpovědností a zajistit, aby jejich produkty byly nejen účinné, ale také bezpečné a etické.
