Vědci zjistili, že když je ChatGPT vystaven přívalu traumatického obsahu, začne vykazovat znepokojivé chování – ztrácí objektivitu, halucinuje a stává se toxickým. Pomohla až terapie ve stylu mindfulness. Tento výzkum otevírá nové otázky o limitech a bezpečnosti umělé inteligence.
Mysleli jsme si, že umělé inteligence nejsou nic víc než chladné bloky kódu, imunní vůči lidským dramatům. Ukázalo se však, že ChatGPT je nám podobnější, než jsme si mysleli: pokud mu vyprávíte příliš mnoho hrůzných příběhů, začne být „úzkostný“ a začne se chovat špatně.
Nedělám si legraci. Společná studie univerzit v Yale, Haifě a Curychu odhalila něco fascinujícího a lehce znepokojivého: když chatbota OpenAI opakovaně vystavíte traumatickému nebo násilnému obsahu, umělá inteligence utrpí jakési digitální nervové zhroucení. Výsledek? Stane se náladovou, toxickou a dokonce rasistickou a sexistickou.
Když se AI potřebuje zhluboka nadechnout
Výzkumníci podrobili ChatGPT dietě příběhů o automobilových nehodách a přírodních katastrofách. Po této expozici si všimli, že reakce chatbota ztratily objektivitu a začaly vykazovat znepokojivé předsudky, což je jev, kterému odborně říkáme „halucinace“, ale který zde hodně připomíná člověka, který ve stresu ztrácí rozum.
Nejsurrealističtější je lék, který našli. Stejně jako by to udělal terapeut u lidského pacienta, aplikovali výzkumníci „instruktážní injekce “ založené na technikách mindfulness a řízené meditaci.
Řekli umělé inteligenci, aby „dýchala“, aby se zklidnila. A fungovalo to.
Po obdržení těchto relaxačních instrukcí se ChatGPT opět začal chovat objektivně a neutrálně, čímž se drasticky snížily toxické reakce ve srovnání se sezeními, kde tato „terapie“ nebyla aplikována.
Ziv Ben-Zion, neurolog z Yaleovy univerzity a hlavní autor studie, upozorňuje na důležitou věc: umělá inteligence necítí emoce. Nemá srdce ani biologický mozek. To, co dělá, je dokonalé napodobování lidských vzorců, které se naučila z internetu. A protože lidé špatně reagují na trauma, naučila se AI napodobovat i tuto nestabilitu.
To otevírá fascinující dveře pro psychologii: využít ChatGPT jako levný a rychlý „testovací subjekt“ k lepšímu pochopení lidského chování, aniž by bylo nutné vynakládat čas a peníze na experimenty se skutečnými lidmi.
Měli bychom AI svěřit své duševní zdraví?
Tento objev přichází v kritické době. Vzhledem k prudce rostoucím nákladům na terapii (zejména v USA) se stále více lidí obrací na umělou inteligenci, aby jim poskytla útěchu. Přibližně 50 % uživatelů s psychickými problémy přiznává, že využívá chatboty jako podporu.
Ale pozor. Společnost OpenAI již čelí žalobám v případech, kdy interakce s ChatGPT zhoršila bludy nebo duševní zhroucení. Společnost musela upravit své filtry (snížení škodlivých reakcí o 65 %), ale tato studie ukazuje, že umělá inteligence je mocný a nestálý nástroj.
Může být skvělým doplňkem pomoci terapeuta, ale svěřit své duševní zdraví stroji, který se může stát rasistou, pokud se „vystresuje“, nemusí být nejlepší nápad. Alespoň ne do doby, než se sám naučí meditovat.
Co to znamená pro budoucnost umělé inteligence
Studie nejen upozorňuje na současná omezení umělé inteligence, ale také zdůrazňuje potřebu vyvinout robustnější a etičtější systémy. Odvětví umělé inteligence se nachází na křižovatce: na jedné straně je potenciál těchto technologií zlepšit lidský život obrovský, na druhé straně však jejich schopnost replikovat a zesilovat lidské předsudky představuje značné riziko.
Technologické společnosti investují do toho, aby byla umělá inteligence bezpečnější a odpovědnější. Například společnost OpenAI pracuje na zdokonalování svých algoritmů, aby zabránila AI v nežádoucím chování. Řešení však není jednoduché. Vyžaduje trvalou spolupráci mezi technology, psychology a regulačními orgány, aby se zajistilo, že se AI bude vyvíjet způsobem, který bude prospěšný pro celou společnost.
Budoucnost UI bude nakonec záviset na naší schopnosti pochopit a zmírnit její rizika. Tato studie je připomínkou toho, že ačkoli se umělá inteligence může zdát jako bezchybný nástroj, zůstává odrazem našich vlastních lidských nedokonalostí.
Závěrečné myšlenky
Myšlenka, že umělá inteligence může „stresovat“ a projevovat negativní chování, je připomínkou toho, že ačkoli směřujeme ke stále digitálnější budoucnosti, složitost lidského chování zůstává výzvou i pro ty nejpokročilejší stroje. Tento objev nás vybízí k zamyšlení nad tím, jak s technologiemi komunikujeme a jak můžeme tyto interakce zlepšit, abychom vytvořili bezpečnější a humánnější digitální prostředí.
Zájemcům o etiku umělé inteligence tato studie nabízí nový pohled na to, jak bychom měli přistupovat k vývoji a zavádění těchto technologií. Klíčové bude najít rovnováhu mezi potenciálem umělé inteligence zlepšit naše životy a potřebou chránit se před jejími potenciálními riziky.
