Umělá inteligence už lidem neškodí jen virtuálně. Tohle už je osobní

Umělá inteligence už lidem neškodí jen virtuálně. Tohle už je osobní

Zdroj obrázku: porndusit@gmail.com / Depositphotos

Australská aktivistka čelila útokům s realistickými obrázky své smrti, vytvořenými pomocí AI. Nová éra kybernásilí ukazuje, jak snadno lze umělou inteligenci zneužít – a jak málo jsou na to digitální platformy připraveny.


Caitlin Roperová, australská aktivistka, je na internetovou toxicitu zvyklá už léta. Letos se však setkala s takovou mírou výhrůžek, že z toho měla trauma. Mezi zprávami, které dostávala, byly znepokojivě realistické obrázky, na nichž visí na oprátce nebo ji pohlcují plameny. Některé dokonce ukazovaly přesné detaily, například modré šaty s květinami, které skutečně vlastní.

Jak definovala v reportáži New York Times, „díky těmto drobným detailům to působí reálněji a svým způsobem jako jiný druh znásilnění. To může z fantazie udělat něco víc než jen fantazii“.

Umělá inteligence přináší mnoho dobrého, ale také zlo. Generativní technologie umožňuje napodobovat hlasy, vytvářet deepfakes bez souhlasu a produkovat násilný obsah, který může vypadat, že je cílený přímo na oběť.

Digitální hrozby tu byly odjakživa, ale nyní je jejich produkce snazší a přesvědčivější. V roce 2023 obdržel soudce na Floridě video, pravděpodobně vytvořené pomocí nástroje pro přizpůsobení postavy v hře Grand Theft Auto 5, v němž byl hacknut a zabit avatar, který vypadal jako on. Nedávno byly na kanálech YouTube identifikovány desítky hyperrealistických videí s napadenými ženami, z nichž mnohé byly zřejmě generovány umělou inteligencí. Tyto kanály byly zrušeny až poté, co je NYT kontaktoval s dotazem na tato videa.

Související článek

Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie
Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie

Tým amerických vědců představil roboty menší než zrnko soli, kteří se dokáží sami rozhodovat, pohybovat a vnímat okolí bez vnější kontroly. Jde o zásadní milník v miniaturizaci, který otevírá nové možnosti v medicíně, výrobě i výzkumu na buněčné úrovni.

Triviální záležitost

Donedávna digitální klonování lidí vyžadovalo spoustu veřejných snímků, a tak vznikaly sexuální deepfakes celebrit. Dnes stačí jediná fotografie. Totéž platí pro hlasy: to, co dříve vyžadovalo hodiny ukázek, lze dnes dosáhnout s méně než minutou záznamu.

Podle výzkumu již byla aplikace OpenAI použita k vytvoření podrobných návodů k trestným činům. OpenAI tvrdí, že implementuje „ochranné zábrany“ a automatické moderační systémy. Stejně jako Alice Marwicková, ředitelka výzkumu ve společnosti Data & Society, to však nevidí stejně: domnívá se, že tato opatření lze snadno obejít.

Úloha digitálních platforem

Digitální platformy hrají při moderování obsahu zásadní roli. Jejich algoritmy a zásady moderování však často nejsou dostatečně robustní, aby zabránily šíření škodlivého obsahu. V případě Roperové platforma X (dříve známá jako Twitter) nejenže umožnila, aby některé obrázky zůstaly zachovány, ale její algoritmy šly tak daleko, že jí doporučily sledovat účty jeho obtěžovatelů. Takováto selhání moderace mohou mít pro oběti zničující důsledky.

Rostoucí hrozba technologií umělé inteligence využívaných ke zlým účelům upoutala pozornost vlád a organizací po celém světě. Některé země začínají zavádět přísnější předpisy týkající se používání AI, zejména pokud jde o vytváření falešného nebo škodlivého obsahu. Rychlý vývoj této technologie však představuje pro účinnou regulaci značnou výzvu.

Je velmi důležité, aby byli uživatelé i tvůrci technologií poučeni o rizicích spojených s AI. Informovanost o tom, jak mohou být tyto nástroje zneužity ke zlým účelům, je prvním zásadním krokem k prevenci jejich zneužití. Veřejné vzdělávací kampaně mohou pomoci informovat lidi o tom, jak se chránit na internetu a jak rozpoznat potenciálně škodlivý obsah.

Umělá inteligence má potenciál pozitivně proměnit mnoho aspektů našeho života, ale může být také zneužita ke škodě. Je odpovědností všech, od vývojářů technologií přes uživatele až po vlády, aby spolupracovali na zmírnění těchto rizik. Pouze společným úsilím můžeme zajistit, aby byla umělá inteligence využívána pro obecné dobro, a nikoliv pro zlo.

Zdroje článku

nytimes.com
#