Předchůdce ChatGPT z roku 1966? Poznejte program, který přesvědčil sekretářky, že má duši

Předchůdce ChatGPT z roku 1966? Poznejte program, který přesvědčil sekretářky, že má duši

Zdroj obrázku: Bangla press / Shutterstock

V roce 1966 publikoval Joseph Weizenbaum v časopise Communications of the ACM program ELIZA z MIT, který simuloval lidskou konverzaci pomocí jednoduchých pravidel a spousty nechtěné psychologie.


ELIZA „nerozuměl“ větám, ale hledal klíčová slova, aplikoval pravidla rozkladu a překomponovával odpovědi. Tím vytvářel iluzi souvislého dialogu, což vedlo k tomu, že se stal primitivní verzí ChatGPT.

Nejznámějším skriptem byl DOCTOR, skript inspirovaný rogeriánskou terapií, v němž stroj vracel otázky a přeformulovával je, abyste si sami doplnili mezery. Program tedy běžel v prostředí projektu MAC a v systémech sdílení času, a to v době, kdy mluvit s počítačem bylo zvláštní a jakákoli jiskra se zdála být magická.

Fascinující bylo, že mnoho lidí začalo systému vzorců přisuzovat emoce a porozumění, což byl jev, který byl brzy poté nazván „efekt ELIZA“. Weizenbauma tato reakce znepokojila, protože vytvořil slovní zrcadlo a zjistil, že lidé vidí záměr i tam, kde je jen mechanika.

Vysvětlení tvůrce

Weizenbaum ve svém článku vysvětluje, že kontext je minimální: ELIZA rozpozná nápovědu, vybere šablonu a odpoví tím správným tónem, aby uživatel doplnil význam. Díky tomu se ELIZA stal raným testem něčeho velmi aktuálního, způsobem, jak zjistit, jak může plynulá konverzace zavádět. Ačkoli se tedy pod tímto pojmem neskrývá žádná úvaha ani model světa, posloužil tento trik k fascinaci všech, kteří s ELIZOU komunikovali.

Zároveň také ukázal sílu designu rozhraní: obrazovka s textem a správný rytmus stačily k tomu, aby uživatel zapomněl, že mluví s programem. Překvapivě sám Weizenbaum nakonec kritizoval nevybíravé využívání výpočetní techniky při rozhodování lidí, protože v ELIZE viděl nebezpečnou svůdnou schopnost.

V tomto scénáři je chatbot z 60. let užitečný i dnes: nejen pro svou technologii, ale i pro poučení o slepé důvěře a způsobu, jakým posuzujeme „inteligenci“ v dialogu. Tento vynález tedy pracoval se substitucemi: pokud jste řekli „moje matka“, mohl říct „řekni mi víc o své matce“. Už jen tento zvrat stačil k tomu, aby přesvědčil o triku a vyzval uživatele k dalšímu psaní.

Jak ELIZA fungoval?

V článku jsou podrobně popsána pravidla opětovného skládání, která míchala uživatelské fragmenty, což je trik, který bychom dnes mohli rozpoznat ve fungování jednoduchých botů a podpůrných skriptů. Jasně také ukazuje její limity: pokud se dostala mimo svůj skript, rozbila se. Přesto o ní mnozí raději přemýšleli jako o „plaché“ nebo „tajemné“, než aby přiznali zjevné.

Svým vystupováním ELIZA ovlivnil generace konverzačních programů a slovník oboru, a to dávno před neuronovými modely a internetem jako palivem. Její odkaz tedy spočívá v nepříjemné otázce: „Záleží na tom, že stroj nerozumí, nebo na tom záleží o to víc právě proto? Aniž by to věděl, podařilo se mu zanechat historický odkaz.

Ve srovnání s moderním LLM je ELIZA velmi podobná hračce, a pokud bychom chtěli její fungování polidštit, dalo by se říci, že je to návod k použití, který je stále platný. Když tedy hovoříme o takových aspektech, jako je bezpečnost a sladění AI, ELIZA nám připomíná, že první riziko může být psychologické, protože můžete příliš věřit hlasu, který se zdá být bezpečný.

Pokud hledáte původ rozhovorů mezi člověkem a strojem na základě konceptu „rozumí mi to“, ELIZA je dobrým začátkem. Ne kvůli tomu, co udělala, ale kvůli tomu, co vyprovokovala uživatele. Udělala to vlastně o mnoho desetiletí dříve, než se v našem slovníku objevilo slovo chatbot, což svědčí o vlivu experimentu z 60. let na realitu světa o více než půl století později.

Odkaz ELIZA v moderní umělé inteligenci

Vliv ELIZA přesahuje rámec své doby. Dnešní chatboti a virtuální asistenti, jako jsou Siri, Alexa a Google Assistant, jsou založeni na podobných principech zpracování přirozeného jazyka (NLP), i když mají díky pokroku v oblasti strojového učení a umělé inteligence mnohem pokročilejší schopnosti. Tyto moderní systémy využívají hluboké neuronové sítě a velké množství dat k přesnějšímu a kontextově relevantnějšímu porozumění lidskému jazyku a jeho generování.

Kromě toho je v digitálním věku stále aktuální koncept „efektu ELIZA“. Tento jev, kdy uživatelé přisuzují inteligenci a emoce strojům, které se jednoduše řídí předem stanovenými pravidly, zdůrazňuje význam navrhování uživatelských rozhraní, která řídí očekávání a podporují jasné pochopení možností a omezení technologie.

Příběh ELIZA také upozorňuje na potřebu řešit etické otázky při vývoji umělé inteligence. Weizenbaumova obava z nevybíravého využívání výpočetní techniky při rozhodování lidí rezonuje i dnes, kdy se systémy umělé inteligence používají v kritických oblastech, jako je zdravotnictví, trestní soudnictví a uzavírání pracovních smluv. Transparentnost, odpovědnost a spravedlnost jsou klíčovými aspekty, které mají zajistit, aby umělá inteligence přinášela společnosti prospěch spravedlivým a rovnocenným způsobem.

Zdroje článku

dl.acm.org, cse.buffalo.edu
#