Zaměstnanec amerického ministerstva energetiky omylem nahrál do vládní sítě přes 180 000 obrázků AI pornografie. Chtěl si jen zálohovat osobní sbírku na trénink modelu – místo toho přišel o bezpečnostní prověrku a odhalil znepokojivé slabiny v ochraně jaderných systémů.
Na konci roku 2024 zveřejnilo americké ministerstvo energetiky (DOE) správní rozhodnutí s byrokratickým a nudným názvem – PSH-24-0142– Ohledně personálního bezpečnostního slyšení. Jeho obsah ale jako by vypadl přímo ze sci-fi komedie.
Jak se ukázalo, výsledkem slyšení bylo, že zaměstnanec s přístupem k citlivým informacím o americkém jaderném arzenálu přišel o bezpečnostní prověrku… poté, co omylem nahrál do vládní sítě více než 180 000 pornografických obrázků vytvořených umělou inteligencí.
Neřest s umělou inteligencí
Podle soudních dokumentů incident začal v březnu 2023, kdy se zaměstnanec – ve veřejných dokumentech identifikovaný pouze jako „osoba“ – pokusil zálohovat svou osobní sbírku pornografických snímků. Za tři desetiletí nashromáždil téměř 187 000 souborů, které hodlal použít jako základ pro trénink generativního modelu umělé inteligence schopného vytvářet obrazy „robotické pornografie„.
Problém spočíval v tom, že záloha byla vytvořena z jeho osobního počítače připojeného k síti pracoviště DOE, které je zodpovědné za ostrahu části jaderných zařízení v zemi. V přesvědčení, že jeho osobní disk je „oddělen“ a nemůže kontaminovat institucionální systém, zaměstnanec neúmyslně nahrál stovky gigabajtů sexuálního obsahu na vládní servery.
Employee uploads 187,000 explicit images to US Department of Energy network intending to create 'robot porn', gets caught and loses his security clearance, complains he's facing 'the Spanish Inquisition' https://t.co/tfYYC2VDNC
— PC Gamer (@pcgamer) October 14, 2025
Incident byl odhalen o šest měsíců později, když správci sítě zjistili anomální tok dat a lokalizovali zdroj. Objev vyvolal okamžité znepokojení: ačkoli se nejednalo o žádné státní tajemství, vyvolal otázky, zda byly porušeny protokoly počítačové bezpečnosti.
Obviňte inkvizici
DOE se neomezilo na technické vyšetřování: agentura nařídila psychologické vyšetření osoby, která tvrdila, že od dětství trpí depresemi a že v době incidentu prožila těžkou depresivní krizi. Podle jeho vlastních slov se pro něj tvorba a úprava obrazů generovaných umělou inteligencí stala formou úniku v období izolace a osamělosti.
Bezpečnostní a etické důsledky
Tento incident nejen upozornil na slabá místa v počítačové bezpečnosti jedné z nejdůležitějších vládních agentur USA, ale také na etické a právní důsledky používání umělé inteligence k vytváření obsahu. Generativní umělá inteligence, která využívá algoritmy k vytváření nových obrazů na základě tréninkového souboru dat, vyvolala obavy ohledně ochrany soukromí, souhlasu a duševního vlastnictví.
Využití umělé inteligence k vytváření pornografického obsahu, zejména bez souhlasu zúčastněných osob, bylo předmětem intenzivní debaty. Deepfakes, což jsou videa nebo obrázky upravené tak, aby zobrazovaly osoby v situacích, které se nikdy nestaly, jsou obzvláště problematické a mnoho vlád zvažuje nařízení, která by tyto problémy řešila.
Budoucnost umělé inteligence a bezpečnosti
Tento případ také poukazuje na potřebu lepšího pochopení a řízení technologií AI v citlivých prostředích. S tím, jak se umělá inteligence stále více začleňuje do našich životů, musí organizace vypracovat jasné zásady jejího používání a zajistit, aby zaměstnanci rozuměli souvisejícím rizikům. Kromě toho je nezbytné, aby vládní agentury zavedly přísnější bezpečnostní opatření na ochranu svých sítí před možným narušením bezpečnosti dat.
Tento incident nakonec připomíná, že technologie sice mohou nabízet neuvěřitelné možnosti, ale zároveň s sebou nesou i značnou odpovědnost. Vzdělávání a informovanost o rizicích a osvědčených postupech při používání technologií jsou nezbytné k tomu, aby se v budoucnu předešlo podobným incidentům.
