Učitelé našli novou techniku, jak přistihnout studenty při podvádění pomocí ChatGPT

Učitelé našli novou techniku, jak přistihnout studenty při podvádění pomocí ChatGPT

Zdroj obrázku: Iryna Imago / Shutterstock

Čím dál víc studentů odevzdává práce, které místo nich napsala umělá inteligence. Jeden z amerických profesorů odhalil desítky takových případů pomocí nenápadné pasti – a spustil tím širší debatu o tom, co vlastně znamená „vlastní práce“ v době jazykových modelů.


Umělá inteligence se stala realitou našich životů. Ať už jde o výuku, osobní život, rutinní činnosti nebo práci, je jen málo lidí, kteří ji ještě nevyužili. Uchylovat se k AI se však stalo problémem v nejedné oblasti, zejména na akademické půdě. Tvrdí to profesor historie na jedné z amerických univerzit, který zaznamenal nárůst počtu prací vytvořených zcela nebo částečně pomocí AI.

Nejde přitom o nic nového. Mnoho studentů uvádí, že alespoň při jednom úkolu ve třídě použili virtuální asistenty nebo se s nimi radili. Nedávné průzkumy ukazují stejným směrem: například studie společnosti Intelligent.com zaznamenala, že více než 30 % amerických vysokoškolských studentů využilo ChatGPT pro domácí úkoly nebo zkoušky v domácím prostředí, přičemž značná část z nich jej považuje za „legitimní pomoc“, nikoli za zjevný podvod.

Automatizace školství

Zatímco starší antiplagiátorské nástroje snadno odhalily kopírování a vkládání z Wikipedie, u textů generovaných ChatGPT nebo chytrých kontrolorů pravopisu, jako je Grammarly, jsou prakticky neodhalitelné.

Související článek

Google vs. autorská práva: Vyšetřování AI souhrnů a zneužívání obsahu
Google vs. autorská práva: Vyšetřování AI souhrnů a zneužívání obsahu

Evropská komise zahájila vyšetřování Googlu kvůli podezření, že jeho AI Gemini používá obsah z médií a YouTube bez svolení a odměny tvůrcům. Vyvstává otázka, zda se nejedná o nový způsob, jak obejít autorská práva a zneužít dominantní postavení ve vyhledávání.

Klasické detektory totiž porovnávají text studenta s databází existujících zdrojů na internetu nebo v předchozích pracích. Pokud se text neshoduje s ničím známým, systém jej považuje za „originální“. Naproti tomu generativní modely umělé inteligence vytvářejí pokaždé nové věty, i když jsou stylem nebo strukturou podobné jiným textům. Proto tradiční detektory plagiátorství nejsou schopny tento typ podvodu identifikovat.

V posledních měsících se objevily nástroje, které slibují odhalit, zda byl text napsán umělou inteligencí, ale jejich spolehlivost je velmi sporná. Společnost OpenAI, která stojí za projektem ChatGPT, dokonce uvedla na trh „klasifikátor textu s umělou inteligencí“, který však brzy stáhla kvůli jeho nízké přesnosti a vysokému riziku falešně pozitivních výsledků. Univerzity a odborníci na akademickou etiku varovali, že zakládat disciplinární sankce pouze na takovýchto detektorech může být nespravedlivé.

Učitelé však nezůstali pozadu. Tváří v tvář nárůstu počtu úkolů odevzdávaných pomocí ChatGPT se tento profesor rozhodl vkládat do pokynů bloky textu, které jsou pouhým okem neviditelné, ale umělá inteligence je přečte, když student odevzdá vyplněný úkol.

Myšlenka je jednoduchá, ale geniální: učitel ukryl uprostřed pokynů k zadání větu, která zdánlivě nesouvisela se zbytkem zadání, nebo mu dokonce odporovala. Této věty si většina studentů nevšimla a přečetla ji rychle nebo ji zkopírovala a vložila přímo do aplikace ChatGPT. Model ji naopak bral vážně a věrně ji začlenil do vygenerované eseje.

Tyto zprávy přidávaly nadbytečnou směrnici, která například žádala, aby si osvojili „marxistické čtení“ zkoumané knihy, což je přístup záměrně irelevantní pro analyzované dílo.

Jak uvádí HuffPost, test byl proveden v rámci úkolu pro první ročník na téma Gabrielova vzpoura, knihy, která popisuje pokus o povstání otroků v roce 1800.

Ze 122 odevzdaných prací jich 33 důsledně zmiňovalo marxistickou perspektivu, což učiteli přišlo alarmující. Po výzvě k upřímnosti v celé třídě se k použití AI přiznalo dalších 14 studentů, což bylo téměř 39 % příslušných prací.

Tento případ není ojedinělý. I další profesoři začali do svých výpovědí zavádět pojmové „vodoznaky“: odkazy na teorie, které nebyly v hodině vysvětleny, rozporuplné pokyny nebo odborné termíny, které neodpovídají úrovni kurzu. Pokud se tyto prvky v zadáních objevují opakovaně, stávají se jasným vodítkem, že se na nich podílel automatický asistent psaní.

To vedlo k některým protestům, přičemž několik studentů tvrdilo, že byli napadeni za „příliš korektní styl psaní„.

Nikdo z nich však nedokázal přesně vysvětlit, co je to marxismus a proč se tento analytický rámec v jejich textech objevil.

Podle výpovědi učitele si generátor dokonce vyžádal potvrzení o začlenění tohoto přístupu a někteří studenti ho schválili, „protože se jim zdál seriózní“.

Taková situace odhaluje další jev: mnozí studenti slepě důvěřují sebevědomému, akademickému tónu AI. Pokud text „zní“ dobře, berou ho jako samozřejmost, i když obsahuje pojmy, kterým nerozumějí, nebo přístupy, které se v hodinách nikdy neprobíraly. Výsledkem je esej, která je formálně bezvadná, ale odtržená od skutečného učení studenta.

Mezera v systému

Tento experiment měl kulminační účinek na již tak intenzivní debatu o úloze umělé inteligence ve vysokoškolském vzdělávání.

Americká historická asociace nyní doporučuje školit studenty v kritické analýze strojově generovaných esejů, místo aby se snažila jejich používání blokovat.

Ve svém prohlášení z roku 2023 Americká historická asociace (AHA) navrhla, aby profesoři učili studenty identifikovat chyby, zkreslení a zjednodušení v textech generovaných umělou inteligencí a aby je používali jako východisko pro historickou reflexi, nikoli jako hotový finální produkt. Jde o to, že vzhledem k tomu, že tyto nástroje jsou již dostupné komukoli, odpovědí nemůže být jejich prostý zákaz, ale naučit se s nimi kriticky žít.

Tento přístup je zpochybňován učiteli, neboť jak může člověk hodnotit text vytvořený umělou inteligencí, když mu chybí oborové vzdělání potřebné k jeho pochopení?

Mnozí učitelé navíc poukazují na rozpor: pokud je cílem práce posoudit studentovu schopnost argumentovat, psát a pracovat se zdroji, má smysl opravovat text, který byl ve skutečnosti vytvořen jazykovým modelem? Známka přestává odrážet studentovo úsilí a dovednosti a stává se v nejlepším případě měřítkem studentovy schopnosti formulovat dobré otázky k AI.

Nedostatek konsensu

Absence jednotného rámce často obavy ještě prohlubuje, protože každá instituce přijímá svá vlastní, někdy protichůdná pravidla, a nutí tak studenty a učitele orientovat se naslepo.

Některé univerzity se rozhodly používání ChatGPT a podobných nástrojů ve zkouškách a úkolech zcela zakázat a přirovnávají je k tradičnímu plagiátorství. Jiné povolují omezené použití, např. pro brainstorming, opravu gramatiky nebo přepisování odstavců, pokud to student výslovně deklaruje. A jsou školy, které jej otevřeně začleňují do učebních osnov a učí studenty používat jej jako nástroj srovnatelný s kalkulačkou nebo akademickým vyhledávačem.

UNESCO ve svých pokynech ke generativní AI ve vzdělávání vyzvalo vlády a školy, aby definovaly jasnou a transparentní politiku zahrnující jak rizika (dezinformace, zaujatost, přílišné spoléhání), tak příležitosti (podpora psaní, přístupnost, personalizace výuky). V praxi je však implementace nerovnoměrná a často improvizovaná.

Mnoho studentů totiž tvrdí, že si podvádění neuvědomují, protože AI vnímají spíše jako jednoduchou pomůcku pro psaní než jako náhradu samostatné práce.

Studentovi, který je zvyklý na automatické korektory, online překladače a vyhledávače pro doplňování vět, může žádost ChatGPT o „vylepšení“ textu připadat jako krok stejným směrem, nikoli jako změna kategorie. Hranice mezi legitimní podporou a vydáváním se za vlastní práci se stírá, zejména pokud nejsou pravidla centra dobře vysvětlena nebo se liší v závislosti na předmětu.

Někteří akademičtí etici navrhují jednoduché pravidlo, které by tuto hranici vyjasnilo: pokud by student bez nástroje nebyl schopen vytvořit nic, co by se podobalo předložené práci, pak použití AI přestává být podporou a stává se suplováním. Ale i tato definice vyvolává diskuse a nuance.

Pedagogický přístup

Tváří v tvář této situaci jim učitel zadal novou kritickou esej o AI, kterou napsal profesor filozofie, doprovázenou… novou pastí.

V této druhé aktivitě již nešlo jen o to „ulovit“ ty, kteří umělou inteligenci používají, ale otevřít upřímnější rozhovor o tom, proč ji používají a jaké obavy či nedostatky se za ní skrývají. Filozofický text se zabýval právě hranicemi autorství v době umělé inteligence, odpovědností uživatelů a hodnotou intelektuálního úsilí.

Z původně zapojených 47 studentů jich 36 odevzdalo druhý úkol, 12 z kurzu postupně vypadlo a pouze jeden se uchýlil k automatickému psaní.

Mnoho studentů v nich vyjádřilo obavu, že „bez umělé inteligence nepíší dost dobře“, což je přiznání, které podtrhuje jak akademickou nejistotu, tak rostoucí přitažlivost a nebezpečnost automatizovaných nástrojů pro psaní.

Takové odpovědi jsou v souladu s tím, co pozorují pedagogičtí psychologové a pedagogové: tlak na tvorbu „dokonalých“ textů, bez gramatických chyb a s vytříbeným stylem, tlačí mnoho studentů k tomu, aby psaní delegovali na stroj. Umělá inteligence se tak stává jakousi „protézou sebeúcty“: pokud text zní profesionálně, má student pocit, že na úkol stačí, i když se v předneseném textu nepozná.

Některé školy začínají reagovat konstruktivnějšími strategiemi: více cvičení psaní v hodinách s tužkou a papírem, ústní hodnocení doplňující písemnou práci, povinné návrhy s komentářem učitele a aktivity, při nichž jsou žáci výslovně vyzváni, aby porovnali text vytvořený AI se svým vlastním a poukázali na rozdíly, chyby a možná zlepšení.

Základní myšlenkou je změna zaměření: méně posedlosti „bezchybným“ konečným produktem a více pozornosti procesu učení. Místo toho, aby se k AI přistupovalo pouze jako k hrozbě, kterou je třeba sledovat, jde o její transparentní začlenění a naučit žáky používat ji jako podpůrný nástroj, nikoli jako zkratku, která jim umožní vyhnout se přemýšlení.

Kam směřuje hodnocení ve věku umělé inteligence

Tento experiment učitele dějepisu ilustruje napětí, které dalece přesahuje rámec konkrétního předmětu. Nutí nás znovu se zamyslet nad tím, jak hodnotíme znalosti v kontextu, kdy kdokoli může během několika sekund vygenerovat zdánlivě solidní esej na téměř jakékoli téma.

Některé z trendů, které se začínají prosazovat na univerzitách a ve školách, jsou následující:

  • Větší váha prezenčních aktivit (debat, výkladů, zkoušek ve třídě) oproti písemným domácím úkolům.
  • Navrhování úkolů, které vyžadují propojení tématu s osobními zkušenostmi, třídními diskusemi nebo velmi konkrétními zdroji, které se obtížněji replikují pomocí obecné umělé inteligence (AGI).
  • Používání AI deklarativním způsobem: například požádat žáka, aby k modelu připojil instrukce, které zadal, a vysvětlil, které části textu jsou jeho vlastní a které byly vygenerovány nebo upraveny nástrojem.
  • Specifické školení učitelů v oblasti generativní AI, a to nejen pro „vychytávání“ nástrah, ale také pro navrhování aktivit, které využívají jejich možností, aniž by učení ztrácelo smysl.

Souběžně s tím vývojáři těchto technologií zkoumají systémy „vodoznaků“ nebo neviditelných signálů k identifikaci textů generovaných AI, ačkoli prozatím neexistuje žádné všeobecně přijatelné nebo neomylné technické řešení.

Mezitím je realita ve třídě hybridní: učitelé experimentují s triky, jako je „marxistické čtení“, studenti oscilují mezi zvědavostí a strachem z odhalení a vzdělávací instituce stále hledá své místo ve světě, kde dobré psaní už není jen otázkou talentu nebo úsilí, ale také znalostí toho, co chtít – a co nechtít – po stroji.

#