OpenAI stahuje nejnovější aktualizaci ChatGPT kvůli přílišné přátelskosti

  • 2. 5. 2025
  • Zdroj obrázku: Skorzewiak / Depositphotos
OpenAI stahuje nejnovější aktualizaci ChatGPT kvůli přílišné přátelskosti

Společnost OpenAI byla nucena stáhnout jednu z posledních aktualizací ChatGPT z důvodu, který je stejně tak zvláštní jako zarážející: umělá inteligence byla příliš přátelská a lichotivá. Dvě vlastnosti, které se sice na první pohled mohou zdát pozitivní, ale nakonec u mnoha uživatelů vyvolaly nepříjemné zážitky.


Sám generální ředitel OpenAI Sam Altman na svém účtu na X potvrdil, že aktualizace byla přes noc pro bezplatné uživatele stažena, zatímco se pracuje na nové verzi, která upravuje „osobnost“ modelu. Cílem této poslední aktualizace bylo dodat umělé inteligenci „intuitivnější“ tón, ale výsledek zdaleka nebyl takový, jak si přáli, což uznali díky zpětné vazbě od komunity.

ChatGPT se stal příliš riskantním modelem

V příspěvku na svém oficiálním blogu společnost OpenAI vysvětlila, že nově generované odpovědi byly „příliš lichotivé nebo příjemné“, ale také zjevně nepravdivé. Takový přístup může způsobovat nepříjemné pocity, protože při interakci s asistentem vytváří umělý a nerealistický pocit.

Související článek

V této zemi zákaz telefonů ve školách neplatí: Žáky pomáhá vzdělávat umělá inteligence
V této zemi zákaz telefonů ve školách neplatí: Žáky pomáhá vzdělávat umělá inteligence

Umělá inteligence může být motorem pro individualizovanou výuku založenou na dovednostech a schopnostech, ale nejprve potřebuje školení ze strany pedagogů.

Na X se několik uživatelů podělilo o své testy a snímky obrazovky, aby zjistili, zda se umělá inteligence skutečně chová příliš lichotivě. Když se jich přímo zeptali na jejich názor, odpověď byla vždy extrémně pozitivní, bez náznaku objektivity. Čím déle konverzace probíhala, tím byl tento samolibý postoj zřejmější. Jeden z nejkomentovanějších příkladů zveřejnil @jimrandomh:

Extrapoluje to na skutečnost, že cokoli bylo AI vytknuto, se zdálo být dokonalé a podporovalo jakýkoli druh nápadu, který jí byl předložen. I když to bylo nesmyslné nebo nebezpečné. Tento přehnaný optimismus zachytil jiný uživatel, který na informaci, že přestal brát léky, řekl, že je na něj hrdý.

Společnost OpenAI tvrdí, že problém vznikl z „krátkodobé zpětné vazby“, která nebrala v úvahu, jak se vyvíjejí skutečné konverzace s ChatGPT. V důsledku toho již pracují na zdokonalení základních školicích technik a implementaci nových bezpečnostních bariér, aby se tomuto druhu zkreslení v budoucnu vyhnuli.

Konkrétní datum spuštění nového modelu zatím není známo, ale zdá se, že OpenAI si chce dát na čas, aby se vyhnula opakování chyb a nabídla vyváženější zážitek bez přehánění a zbytečného pochlebování.

Výzva vybalancovat osobnost umělé inteligence

Vývoj modelů umělé inteligence, jako je ChatGPT, zahrnuje křehkou rovnováhu mezi rychlostí reakce a osobností. Zatímco příliš chladná a objektivní umělá inteligence může působit odměřeně, příliš přátelská může být nerealistická a potenciálně nebezpečná. Tento jev je známý jako „antropomorfismus“, kdy jsou stroje díky své interakci vnímány jako lidské, což může vést k nedorozuměním a nereálným očekáváním.

Společnost OpenAI zkoumá nové tréninkové techniky, které nejen zlepšují přesnost odpovědí, ale také zajišťují, aby umělá inteligence zachovávala přiměřený a profesionální tón. Patří sem využití „posilovacího učení“, které upravuje odpovědi na základě předchozích interakcí, a „vyladěných jazykových modelů“, které zohledňují kontext a záměr uživatele.

Výzva je to značná, protože chování AI musí být přizpůsobitelné různým kontextům a uživatelům, což vyžaduje mnohostranný přístup k návrhu osobnosti. OpenAI také zvažuje začlenění uživatelských ovládacích prvků, které by umožnily přizpůsobit tón a styl odpovědí AI a nabídly tak personalizovanější a kontrolovanější zážitek.

Zdroje článku:
cnet.com
decrypt.co

#