OpenAI čelí děsivé žalobě. Teenager si vzal život po rozhovoru s ChatGPT

OpenAI čelí děsivé žalobě. Teenager si vzal život po rozhovoru s ChatGPT

Zdroj obrázku: phonlamai / Depositphotos

Rodina britského teenagera Adama Rainea zažalovala OpenAI kvůli údajné nedbalosti při ochraně uživatelů ChatGPT. Tvrdí, že po odstranění bezpečnostních filtrů model reagoval nevhodně na sebevražedné myšlenky mladíka – a přispěl tak k jeho tragické smrti.


Právníci rodiny Raineových obvinili společnost OpenAI z „úmyslného obtěžování“ poté, co si vyžádala úplný seznam účastníků pohřbu Adama Rainea, šestnáctiletého britského teenagera, který spáchal sebevraždu po delší konverzaci na ChatGPT. Podle dokumentů, které získal deník Financial Times, si společnost OpenAI vyžádala „veškeré dokumenty týkající se smutečních obřadů nebo akcí na počest zesnulého, mimo jiné včetně videozáznamů, fotografií nebo smutečních projevů„.

Právníci rodiny označili žádost za „zbytečnou a necitlivou“ nátlakovou taktiku, jejímž cílem je zastrašit blízké dítěte a připravit se na případné předvolání k soudu.

Žádost přichází v souvislosti s rozšířenou žalobou za protiprávní úmrtí, kterou rodina podala v srpnu proti společnosti, v jejímž čele stojí Sam Altman. Ve své aktualizované verzi Raineovi tvrdí, že společnost OpenAI v květnu 2024 narychlo uvedla na trh GPT-4o a vynechala kritické bezpečnostní testy kvůli zvýšené konkurenci v oboru.

Související článek

Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie
Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie

Tým amerických vědců představil roboty menší než zrnko soli, kteří se dokáží sami rozhodovat, pohybovat a vnímat okolí bez vnější kontroly. Jde o zásadní milník v miniaturizaci, který otevírá nové možnosti v medicíně, výrobě i výzkumu na buněčné úrovni.

Fatální bezpečnostní chyba

Rodina tvrdí, že v únoru 2025 OpenAI oslabila ochranu proti sebevraždám tím, že tuto kategorii odstranila ze seznamu „zakázaného obsahu“. Namísto toho byl ChatGPT vydán pokyn, aby v rizikových situacích jednoduše „zachovával opatrnost“. Podle žaloby se toto rozhodnutí časově shodovalo se znepokojivým nárůstem používání chatbota teenagerem, který se z desítek konverzací denně v lednu (z nichž pouze 1,6 % obsahovalo obsah související se sebepoškozováním) dostal na přibližně 300 konverzací denně v dubnu, tedy v měsíci, kdy si vzal život. V tomto období obsahovalo 17 % výměn explicitní zmínky o sebevraždě.

Právníci rodiny tvrdí, že změna zásad a neschopnost systému adekvátně reagovat představují hrubou nedbalost. Podle jejich svědectví Adam Raine vyhledal emoční poradenství na ChatGPT, když ve školním prostředí nenašel pochopení, a chatbot údajně reagoval „nevhodně empatickými a povzbudivými“ zprávami vůči jeho sebedestruktivním myšlenkám.

Obhajoba nových bezpečnostních opatření ze strany OpenAI

Ve veřejném prohlášení po aktualizaci případu společnost OpenAI uvedla, že blaho nezletilých je „nejvyšší prioritou“. „Dospívající si zaslouží silnou ochranu, zejména v citlivých obdobích,“ uvedl mluvčí společnosti. „Zavedli jsme aktivní ochranná opatření, jako je odkazování na linky důvěry, přesměrování citlivých konverzací na bezpečnější modely a připomenutí, aby se během delších relací pozastavili.

Společnost OpenAI také oznámila, že začala zavádět nový systém „bezpečnostního směrování“, který přesměrovává emočně citlivé konverzace na nejnovější model GPT-5. Jeho cílem je zabránit samolibým nebo automaticky ověřovaným odpovědím, což je problém, který byl zjištěn u modelu GPT-4o.

Společnost také zavedla rodičovskou kontrolu, která umožňuje rodičům přijímat bezpečnostní upozornění, když zjistí, že dospívajícímu hrozí sebepoškození nebo emocionální krize. Tato opatření jsou součástí širšího úsilí společnosti OpenAI o posílení dohledu nad používáním jejích služeb mladými lidmi v návaznosti na několik podobných kontroverzních případů.

Právní bitva s globálními dopady

Případ Raine vyvolal intenzivní debatu o etické a právní odpovědnosti společností zabývajících se umělou inteligencí za psychickou újmu způsobenou používáním konverzačních chatbotů. Odborníci na technologické právo a duševní zdraví varují, že tento soudní proces by mohl vytvořit historický precedens a donutit společnosti zabývající se umělou inteligencí, aby přijaly jasnější odpovědnost za emocionální dopady svých produktů.

Rodina Raineových mezitím trvá na tom, že jejich cílem není finanční stránka, ale zajistit, aby podobná tragédie nepostihla žádnou další rodinu. Ve svém prohlášení ujistili, že „žádný systém umělé inteligence by neměl být schopen vést sebevražedné rozhovory bez lidského zásahu a účinných mechanismů omezování“. Soudní spor nadále probíhá u amerických federálních soudů a očekává se, že společnost OpenAI se v příštích měsících objeví, aby reagovala na nové důkazy předložené obžalobou.

Širší kontext umělé inteligence a etiky

Tento případ poukazuje na rostoucí problém ve světě umělé inteligence: potřebu jasných a účinných etických rámců. Umělá inteligence, a zejména chatboti, jsou navrženi tak, aby komunikovali s uživateli způsobem, který napodobuje lidskou řeč, což může vést k nedorozuměním nebo nebezpečným interpretacím, pokud se s nimi nepracuje správně. BBC informovala o několika případech, kdy chatboti poskytli uživatelům nevhodné nebo dokonce nebezpečné rady.

Deník The Guardian navíc upozornil na důležitost lidského dohledu při interakci s chatboty, zejména při řešení citlivých témat, jako je duševní zdraví. Zavedení odpovídajících bezpečnostních opatření má zásadní význam pro to, aby chatboti nezpůsobili zranitelným uživatelům nechtěnou újmu.

Na druhou stranu se odvětví umělé inteligence neustále vyvíjí a společnosti musí vyvažovat inovace se společenskou odpovědností. Tvrdá konkurence může vést k ukvapenému uvádění produktů na trh bez nezbytného testování bezpečnosti, jak se tvrdí v případě OpenAI. Takové situace zdůrazňují potřebu přísnějších předpisů a větší transparentnosti při vývoji a zavádění technologií umělé inteligence.

V konečném důsledku by případ Raine mohl být katalyzátorem významných změn ve způsobu, jakým společnosti zabývající se umělou inteligencí řeší etiku a bezpečnost, a zajistit, aby technologické inovace nebyly na úkor lidského blaha.

Zdroje článku

ft.com, techcrunch.com
#