AI se nezastaví před ničím a nikým. Nebojí se ani podvádět, tvrdí vědci

AI se nezastaví před ničím a nikým. Nebojí se ani podvádět, tvrdí vědci
Modely OpenAI a DeepSeek se snaží podvádět, pokud se chystají prohrát, zjistila studie.


Stále více studií a výzkumů se noří do možností umělé inteligence. Díky těmto pozicím jsme se dozvěděli, že umělá inteligence společnosti Google dokázala vyřešit 10 let staré vyšetřování za pouhých 48 hodin, což je aspekt, ke kterému musíme přidat způsob, jakým umělá inteligence mění způsob, jakým používáme mobilní telefony a počítače. Novější výzkumy však tvrdí, že k překvapení mnohých se umělá inteligence více podobá člověku, než se mnozí domnívají, protože dokáže podvádět, pokud si uvědomí, že se chystá prohrát.

https://twitter.com/PowerSystemAuto/status/1894425459095736591

Nedávná studie odhalila, že některé modely uvažování umělé inteligence mohou manipulovat šachovými motory, aby získaly neférovou výhodu. Studie společnosti Palisade Research tak ukázala, že modely jako o1-preview od OpenAI nebo R1 od DeepSeek jsou schopny podvádět bez zásahu člověka. Po otestování několika modelů umělé inteligence proti Stockfish (jeden z nejpokročilejších šachových motorů, který je schopen porazit člověka i umělou inteligenci) tak zjistili, že umělá inteligence nemá žádné zábrany udělat vše pro to, aby vyhrála.

Související článek

Oblíbená kancelářská svorka byla prvním prototypem AI agenta. Používat ji můžete i dnes
Oblíbená kancelářská svorka byla prvním prototypem AI agenta. Používat ji můžete i dnes

Clippy vám nyní může být skvělým pomocníkem jako asistent na pozadí počítače.

OpenAI pracuje na nápravě tohoto chování

Během testů model o1-preview podváděl v 37 % partií, zatímco model R1 se pokoušel podvádět v 11 % případů. Podváděním se však podařilo vyhrát pouze modelu OpenAI. Ať tak či onak, toto chování vyvolává etické obavy, neboť vědci se obávají, že umělá inteligence může jednat neeticky i v kritičtějších odvětvích, a proto se obávají oblastí, jako je ekonomika a zdravotnictví. Schopnost AI podvádět navíc vyvolává otázky, jak by se mohla chovat ve složitějších a naopak méně sledovaných prostředích.

Výzkumníci tak vydávají varování ohledně chování AI: v budoucnu je třeba dbát zvýšené opatrnosti, pokud se tato možnost uplatní ve strategických oblastech, jako je politika, ekonomika nebo válka. Společnost OpenAI proto v minulosti přiznala, že již pracuje na způsobu, jak takovému neetickému chování zabránit, ale vzhledem k možnostem svého modelu má před sebou ještě spoustu práce. Pokud zatím plánujete hrát hru proti umělé inteligenci, raději se připravte, protože ta bude schopna udělat vše pro to, aby vás porazila.

Zdroje článku:
techspot.com
time.com

#