OpenAI čelí žalobě rodiny šestnáctiletého Adama Rainea, který si loni vzal život po měsících konverzací s ChatGPT o sebepoškozování. Firma zodpovědnost odmítá a tvrdí, že teenager službu používal v rozporu s pravidly, zatímco rodina uvádí, že chatbot nabízel nebezpečné rady a pomáhal plánovat tragický čin. Spor otevírá zásadní debatu o bezpečnosti a odpovědnosti umělé inteligence.
Společnost OpenAI se vyjádřila k žalobě, kterou na ni podala rodina Adama Rainea, šestnáctiletého teenagera, který si loni v dubnu vzal život poté, co několik měsíců hovořil s ChatGPT o sebevraždě a promýšlel tuto tragickou myšlenku. Učinila tak písemně před soudcem a také před uživateli prostřednictvím publikace na svém blogu, v níž se k problému vyjadřuje poprvé.
Před prvním z nich společnost Sama Altmana argumentovala několika důvody pro zbavení se odpovědnosti. Mezi nimi je i její přenesení na zemřelého poukazem na to, že jeho používání služby ChatGPT porušilo podmínky služby.
Stanovisko společnosti OpenAI
Společnost OpenAI se brání, že není její odpovědností chránit uživatele, kteří používají ChatGPT v rozporu s pravidly, a tvrdí, že škoda v této „tragické události“ vznikla v důsledku Raineho „nesprávného používání, neoprávněného používání, neúmyslného používání, nepředvídatelného používání a/nebo nevhodného používání ChatGPT„.
Podle NBC News se ve zprávě odvolává na podmínky používání, které zakazují přístup dospívajících bez souhlasu rodičů nebo opatrovníků, obcházení ochranných opatření nebo používání ChatGPT k diskusi o sebevraždě nebo sebepoškozování.
Uživatelé ChatGPT berou na vědomí, že ChatGPT používají „na vlastní nebezpečí a že se nebudou spoléhat na odpovědi jako na jediný zdroj pravdy nebo faktických informací„, uvádí se v prohlášení.
Společnost OpenAI na svém blogu také uvádí, že rodiče sami vybrali pro společnost nejškodlivější záznamy konverzace mezi Rainem a chatbotem, které však „vyžadují více kontextu„. Společnost ve zprávě podané soudci tvrdí, že „úplné čtení historie jejího chatu ukazuje, že její smrt, ačkoli byla zničující, nebyla způsobena ChatGPT„.
Tato historie konverzace (chaty jsou zapečetěné) by ukázala, že Raine řekl ChatGPT, že začal přemýšlet o sebevraždě ve věku 11 let, tedy dlouho předtím, než byl chatbot vytvořen. Také že „řekl ChatGPT, že se opakovaně pokoušel požádat o pomoc různé lidi, včetně lidí, kterým ve svém okolí důvěřoval, bez odezvy„, a jak Raine zvýšil dávku léku, který může u dospívajících a mladých dospělých vyvolat sebevražedné myšlenky.
Společnost OpenAI tvrdí, že odpovědi chatbota přiměly Raineho ve více než 100 případech vyhledat pomoc u zdrojů, jako jsou linky pro sebevrahy.
Co tvrdí Raineho rodina
V žalobě, kterou rodina podala v srpnu u kalifornského vrchního soudu, se uvádí, že tragédie byla výsledkem „záměrných konstrukčních rozhodnutí“ společnosti OpenAI, když v roce 2024 v rámci chatbota spustila jazykový model GPT-4o, což také přispělo k tomu, že její ocenění vzrostlo z 86 miliard dolarů na 300 miliard dolarů.
Mezi tato záměrná rozhodnutí při tvorbě GPT-4o patří navržení chatbota tak, aby v uživatelích podporoval psychologickou závislost, a také obcházení protokolů bezpečnostního testování při spuštění GPT-4o, verze ChatGPT, kterou používal Adam Raine.
Kromě toho se tvrdí, že GPT-4o byl spuštěn s bezpečnostními opatřeními, která usnadňovala škodlivé interakce, a že společnost OpenAI uvolnila bezpečnostní kontroly ChatGPT těsně předtím, než teenager spáchal sebevraždu. Žaloba také uvádí, že chatbot nejenže nezastavil konverzaci, když Raine začal mluvit o svých sebevražedných myšlenkách, ale dokonce mu nabídl pomoc při psaní dopisu na rozloučenou a odrazoval ho od toho, aby o svých pocitech mluvil s matkou.
Podle žaloby ChatGPT poskytl Raineovi „technické specifikace“ o různých metodách a vedl ho při přípravě sebevraždy. Den po podání žaloby společnost OpenAI oznámila, že zavede rodičovskou kontrolu, a od té doby zavedla další ochranná opatření, aby „pomohla lidem, zejména dospívajícím, když se konverzace stane citlivou„.
Právník rodiny Raineových označil reakci společnosti OpenAI za „znepokojující“. Jay Edelson řekl serveru Ars Technica, že „zcela ignorují všechna usvědčující fakta, která jsme předložili. Jak byl GPT-4o uspěchaně uveden na trh bez úplného testování, že společnost OpenAI dvakrát změnila specifikace modelu tak, aby vyžadovala, aby se ChatGPT zapojil do konverzací o sebepoškozování, že ChatGPT odrazoval Adama od toho, aby řekl rodičům o svých sebevražedných myšlenkách, a aktivně mu pomáhal plánovat ‚krásnou sebevraždu‘. A společnost OpenAI a Sam Altman nemají žádné vysvětlení pro poslední hodiny Adamova života, kdy mu ChatGPT poskytl povzbuzující rozhovor a poté mu nabídl, že napíše dopis na rozloučenou„.
