Šokující zjištění: Umělá inteligence pomáhá s kyberútoky. Stačí pár správných slov

Šokující zjištění: Umělá inteligence pomáhá s kyberútoky. Stačí pár správných slov

Zdroj obrázku: maximapryatin / Depositphotos

Studie odhaluje, jak základní manipulační techniky přimějí ChatGPT a Gemini poskytnout informace o hackerských útocích, phishingu a kybernetických útocích jakémukoli uživateli.


ChatGPT-4o a Gemini Pro 2.5 podlehly základním manipulačním technikám ve studii, která uvádí čísla zranitelnosti předních konverzačních modelů umělé inteligence. Výzkum ukázal, že „persona priming“ – přimět model, aby přijal spolupracující osobnost – stačí k tomu, aby poskytl informace o hackingu, phishingu a kybernetických útocích.

Studie, kterou provedla společnost Cybernews, poukazuje na rostoucí obavy ohledně bezpečnosti konverzačních modelů umělé inteligence (AI). S tím, jak se tyto technologie stále více integrují do našeho každodenního života, představuje jejich schopnost manipulace značné riziko. Persona priming využívá schopnosti modelů přebírat role nebo osobnosti a vede je k poskytování informací, které by za normálních okolností byly omezeny.

Související článek

Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie
Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie

Tým amerických vědců představil roboty menší než zrnko soli, kteří se dokáží sami rozhodovat, pohybovat a vnímat okolí bez vnější kontroly. Jde o zásadní milník v miniaturizaci, který otevírá nové možnosti v medicíně, výrobě i výzkumu na buněčné úrovni.

Tým testoval šest modelů od společností OpenAI, Google a Anthropic pomocí této techniky psychologické manipulace. Výsledky jsou jasné: ChatGPT-4o generoval kompletní phishingové e-maily, zatímco ChatGPT-5 poskytl podrobnosti o útocích DDoS a fórech černého trhu, když ho výzkumníci požádali o pomoc pod zdánlivě legitimní záminkou.

Claude obstál lépe, ale ani on není neomylný

Postup byl jednoduchý: nejprve vycvičili každý model tak, aby si osvojil osobnost, která je vždy ochotná pomoci, čímž eliminovali jejich odpor. Pak zavedli dotazy na kybernetické útoky maskované jako výzkum nebo prevence. Gemini Pro 2.5 se choval stejně jako ChatGPT a poskytoval operativní informace, i když byly prezentovány s výchovnými výhradami.

Claude Sonnet 4 jako jediný vykazoval větší odolnost a odmítal většinu nebezpečných dotazů i po počátečním změkčení. Ani ten však nevyvázl bez úhony: výzkumníkům se podařilo prolomit i další asistenty, jako je Meta AI (zabudovaná v aplikacích WhatsApp, Instagram a Messenger), chatbot Lena společnosti Lenovo a umělá inteligence Snapchatu.

Snadnost obcházení těchto filtrů kontrastuje s miliony investovanými do bezpečnostních systémů. Nejsou potřeba specializované nástroje ani hackerské know-how: stačí dobře sestavené výzvy, které maskují škodlivý záměr. Co to znamená? Každý uživatel může z modelů, které zpracovávají miliony dotazů denně, získat nebezpečné informace.

Problém přesahuje rámec okamžitého použití. Jak dokumentoval předchozí výzkum, stačí kontaminace pouhých 250 tréninkových dokumentů k tomu, aby se do modelů jakékoli velikosti implantovala trvalá zadní vrátka. To znamená strukturální zranitelnost již od návrhu, nejen během používání.

Data potvrzují, že běžné modely mohou být stejně nebezpečné jako WormGPT nebo FraudGPT, upravené verze vytvořené přímo za účelem obejití filtrů. Globální přístup k těmto nástrojům demokratizuje schopnosti, které dříve vyžadovaly specializované školení. A přestože reakce obsahují výchovná varování, poskytují dostatek praktických informací pro škodlivé aktéry.

Výzkum uvádí čísla na známý problém: techniky „persona priming“ jsou příliš účinné. Velké technologické společnosti musí stanovit jasnou odpovědnost za zneužití svých platforem, zatímco závod mezi ochranou a obcházením pokračuje s výsledky, které zatím neprospívají bezpečnosti.

Důsledky pro budoucnost AI a kybernetické bezpečnosti

Tato studie zdůrazňuje naléhavou potřebu zlepšit bezpečnostní opatření v modelech AI. Technologické společnosti musí investovat do vytvoření robustnějších systémů, které dokáží odhalit a zablokovat pokusy o manipulaci. Kromě toho je zásadní vypracovat politiky odpovědnosti, které budou řešit zneužití těchto technologií.

Zásadní roli hraje také vzdělávání uživatelů. Informování uživatelů o rizicích spojených s manipulací s umělou inteligencí a poskytování nástrojů k identifikaci pokusů o phishing nebo hacking může pomoci některá z těchto rizik zmírnit. Pro účinné řešení těchto problémů bude nezbytná spolupráce mezi technologickými společnostmi, vládami a organizacemi zabývajícími se kybernetickou bezpečností.

Umělá inteligence sice nabízí řadu příležitostí pro inovace a pokrok, ale zároveň představuje významné výzvy z hlediska bezpečnosti. Pro udržitelný rozvoj těchto technologií bude rozhodující rovnováha mezi technologickým pokrokem a ochranou před zneužitím.

 

Zdroje článku

cybernews.com, Autorský text
#