Umělá inteligence je čím dál víc chytřejší. Roste ale i její schopnost lhát

Umělá inteligence je čím dál víc chytřejší. Roste ale i její schopnost lhát

Výzkumníci z OpenAI odhalili, že její nejpokročilejší modely lžou až ve 48 % případů, což je problém, který se zřejmě s každou novou verzí zhoršuje, což je v rozporu s očekávaným vývojem.


Umělá inteligence (AI) zaujala veřejnost svými působivými pokroky, od generování textů až po autonomní řízení. Objevil se však významný problém: čím je umělá inteligence sofistikovanější, tím větší má tendenci generovat nesprávné informace nebo „halucinovat“. Tento jev nepředstavuje pouze drobné chyby, ale produkci zcela falešných údajů, které se mohou jevit jako autentické. To je obzvláště znepokojující vzhledem k tomu, že nejnovější modely OpenAI, jako je ChatGPT, podle interních údajů a potvrzených odborníky z oboru neustále lžou.

Podle deníku Futurism se nejnovější chatboti a asistenti dopouštějí závažných chyb až příliš často. To je alarmující, když se na ně spoléháme při kritických úkolech, jako je vyhledávání informací, generování textů nebo dokonce kontrola jízdních řádů. Přesnost těchto systémů je klíčová a jejich selhání může mít závažné důsledky.

Technologický paradox, který nikdo nečekal

Nejnovější modely OpenAI, jako například o3 a o4-mini, v kontrolovaných testech lžou v 33 %, respektive 48 % případů, což je dvakrát více než jejich předchozí verze. To odporuje logickému očekávání, že pokročilejší umělé inteligence by měly být přesnější. Místo toho nejpokročilejší technologie selhávají nejvíce. Tento jev je znám jako „halucinace umělé inteligence“, kdy systém generuje odpovědi, které nejsou založeny na skutečných datech.

Související článek

Jen tři slova mohou zcela změnit vaše rozhovory s ChatGPT
Jen tři slova mohou zcela změnit vaše rozhovory s ChatGPT

Umělá inteligence může být užitečná i při požadavcích o délce pouhých tří slov.

Amr Awadallah, generální ředitel společnosti Vectara, upozorňuje, že ať se snažíme sebevíc, vždycky budou mít halucinace. To nikdy nezmizí. To naznačuje, že tyto nástroje mají vrozenou vadu, která se zhoršuje s tím, jak se zlepšují v jiných ohledech. Situace je patrná zejména u mobilních zařízení, kde společnost Google implementovala Gemini Nano do systémů Android a Chrome, aby zlepšila zabezpečení. To je však málo platné, pokud si asistenti na bázi umělé inteligence vymýšlejí restaurace nebo poskytují nesprávné pokyny, když jsou nejvíce potřeba.

K tomuto problému může přispívat používání „syntetických dat“, tedy informací vytvořených jinými AI, k trénování nových modelů. Tento přístup může vyvolat efekt sněhové koule, kdy každá generace UI umocňuje chyby té předchozí. Přestože se generální ředitel OpenAI Sam Altman chlubil, že ChatGPT-4.5 reaguje téměř jako člověk, chyby přetrvávají.

V honbě za výkonem se zapomíná na základy

Společnosti jako OpenAI, Google a Baidu se předhánějí v ovládnutí trhu s umělou inteligencí, ale všechny jejich systémy se potýkají s podobnými problémy. Jak se zlepšují ve složitých úlohách, nové verze jsou méně spolehlivé v základních úkolech. To je pro toto odvětví velkou výzvou, protože důvěra v umělou inteligenci je pro její široké přijetí klíčová.

Existence společností jako Okahu, které se věnují snižování těchto halucinací, podtrhuje závažnost problému. Pratik Verma, spoluzakladatel společnosti Okahu, varuje: „Pokud to nenapravíme, bude AI k ničemu“. Tento problém se týká jak ChatGPT, tak jeho alternativ, jako je Perplexity nebo Duck.ai, a dokonce i modelů, které si můžete nainstalovat do svého počítače.

Zatímco společnosti investují miliardy do rychlého vydávání nových aplikací, uživatelé své aplikace aktualizují, aniž by věděli, že si mohou instalovat verze, které jsou méně spolehlivé než ty předchozí. To je paradox u technologie, která slibovala, že nám zjednoduší život. Řešení tohoto problému není jednoduché, ale pro budoucnost umělé inteligence je nezbytné.

Zdroje článku:
techradar.com

#