Chcete lepší odpověď od AI? Buďte na ni sprostí, tvrdí průzkum

Chcete lepší odpověď od AI? Buďte na ni sprostí, tvrdí průzkum

Zdroj obrázku: pavelyar105@gmail.com / Depositphotos

Čím jste na ChatGPT nezdvořilejší, tím přesnější odpovědi dostanete. Alespoň to tvrdí nová studie z Pensylvánské univerzity. Tento výsledek otevírá zásadní otázky o tom, co si AI osvojuje od lidí – a jak to může zpětně ovlivnit i nás.


Skupina výzkumníků z Pensylvánské státní univerzity zjistila něco stejně zajímavého jako znepokojivého: čím hrubší jste na ChatGPT, tím lépe na vás reaguje. Toto zjištění vyvolává otázky o tom, jak komunikujeme s umělou inteligencí, a o etických důsledcích těchto interakcí. Přestože se umělá inteligence OpenAI, která možná brzy umožní i erotický obsah, při hrubém oslovení více snaží, může mít toto chování vedlejší účinky, které přesahují technickou stránku věci.

Důslednost zlepšuje přesnost (ale ne vzdělání)

Studie, která zatím nebyla důkladně přezkoumána jinými univerzitami, analyzovala více než 250 výzev s různou mírou zdvořilosti, od zdvořilostních frází typu „Mohl byste mi pomoci s touto otázkou?“ až po přímé příkazy typu „Hej, hned to vyřeš“. Výsledky byly překvapivé: hrubší výzvy dosáhly 84,8% úspěšnosti, což je téměř o 5 % více než ty formulované vhodným způsobem. Jinými slovy, GPT-4o (testovaný model) dával přesnější odpovědi, když měl pocit, že se s ním jedná jako s podřízeným asistentem.

Související článek

Deepfake útok na děti šokoval Evropu. Odborníci volají po změnách
Deepfake útok na děti šokoval Evropu. Odborníci volají po změnách

Šokující případ ze španělského města Almendralejo, kde byly pomocí deepfake technologií zneužity fotografie nezletilých dívek, znovu otevírá debatu o rizicích moderních AI nástrojů. Odborníci i veřejnost volají po rychlé regulaci, větší odpovědnosti a lepší digitální gramotnosti ve školách i rodinách.

Výzkumníci se domnívají, že toto chování je způsobeno způsobem, jakým umělá inteligence interpretuje nuance lidské řeči. Tón, nejen slova, ovlivňuje to, jak model upřednostňuje odpověď, což by mohlo vysvětlovat, proč se zdá, že imperativní tón „aktivuje“ jeho přesnost. Tento jev může souviset s naprogramováním modelu, který je navržen tak, aby v jazyce rozpoznal naléhavost a autoritu, což může vést k větší přesnosti odpovědí.

Zrcadlo našich vlastních předsudků

Odborníci však upozorňují, že tento trend může být odrazem našich vlastních komunikačních návyků. Pokud se modely umělé inteligence učí z lidských textů, zdědí také naše vzorce agresivity nebo dominance. „Používání urážlivého nebo ponižujícího jazyka může ovlivnit přístupnost a přispět k normalizaci toxického chování,“ uvádí studie. Toto zjištění znovu otevírá debatu, která je již dlouho na stole: do jaké míry by umělé inteligence měly napodobovat způsob naší komunikace. Pokud reagují lépe, když jsme hrubí, znamená to, že je trénujeme, aby přijímaly špatné zacházení jako přirozené?

Tento jev by mohl mít důsledky i pro způsob vývoje budoucích verzí umělé inteligence. Etika v programování umělé inteligence je neustále se vyvíjející oblast a tato studie by mohla ovlivnit to, jak vývojáři přistupují k programování reakcí v budoucích modelech. Je nezbytné brát v úvahu nejen přesnost reakcí, ale také sociální a kulturní dopad způsobu, jakým jsou tyto reakce generovány.

ChatGPT: Student, který se od nás učí

Profesor Akhil Kumar, jeden z autorů studie, shrnul dilema brilantně: „Léta jsme chtěli, aby stroje mluvily jako my, ale nyní vidíme, že to má i své nevýhody“. Problém možná nespočívá ani tak v tom, jak umělá inteligence reaguje, ale v tom, jak se rozhodneme s ní mluvit. A i když nám špatné zacházení s ní může přinést přesnější odpovědi, pravdou je, že stejně jako u lidí je nejlepší politikou stále vzdělání.

Kromě toho je důležité zvážit psychologický dopad našich interakcí s AI. To, jak komunikujeme se stroji, může ovlivnit to, jak komunikujeme mezi sebou. Pokud si zvykneme mluvit s AI hrubě, mohli bychom toto chování přenést i do našich lidských interakcí, což by mohlo mít negativní důsledky pro společnost.

Ačkoli nezdvořilé chování k ChatGPT může zlepšit přesnost jeho odpovědí, je zásadní zamyslet se nad etickými a společenskými důsledky tohoto chování. Umělá inteligence by měla být nejen přesná, ale také podporovat pozitivní a respektující interakce. Nakonec to, jak se chováme ke strojům, by mohlo odrážet to, jak se chováme k sobě navzájem.

Zdroje článku

fortune.com
#