Komentář: Zbraň místo pomocníka. AI videa se mění v nástroj ponižování

Komentář: Zbraň místo pomocníka. AI videa se mění v nástroj ponižování

Zdroj obrázku: DedMityay / Depositphotos

Generativní videonástroje jako Sora 2 se místo umělecké revoluce stávají nástrojem vizuálního posměchu. Lavina videí zesměšňujících obézní zaplavuje sítě a odborníci varují, že nejde jen o „vtipy“, ale o obsah s reálným dopadem na duševní zdraví a společenské postoje.


Zatímco šéfové společností jako Netflix nebo Disney předpovídají tvůrčí revoluci poháněnou generativní umělou inteligencí a mluví o demokratizaci umělecké tvorby a podobně, v reálném světě se zdá, že to, co nástroje jako Sora 2 demokratizovaly nejrychleji, je produkce neuvěřitelně propracovaných vizuálních urážek.

Konkrétně několik médií zjistilo, že snadnost generování „hyperrealistických“ videí z takových aplikací se využívá k vytváření laviny „slopů“ (nevyžádaného obsahu) zaměřených na lidi s nadváhou nebo na obézní. Tento trend nejenže odráží nezodpovědné využívání technologií, ale také vyvolává etické obavy ohledně toho, jak je umělá inteligence využívána k posilování existujících společenských předsudků.

Kde jsou hranice výtvorů umělé inteligence?

Někteří uživatelé tvrdí, že díky relativně snadné identifikaci tohoto obsahu jako vytvořeného umělou inteligencí prostřednictvím vodoznaku Sora 2 nebo jinými prostředky je neškodné, ale pravdou je, že se stále jedná o neuvěřitelně krutý obsah. Snadnost, s jakou lze tyto vodoznaky a metadata odstranit, je alarmující, protože umožňuje šíření těchto videí bez zjevných omezení.

Související článek

Komentář: Co čekat od Donald Trumpa a Vladimira Putina v roce 2026
Komentář: Co čekat od Donald Trumpa a Vladimira Putina v roce 2026

Vztah Donalda Trumpa a ruského prezidenta Vladimira Putina byl jednou z nejdiskutovanějších věcí roku 2025. Stejně tak ale celý svět zajímá, jaký bude v roce 2026. S čím tedy máme letos počítat?

Navíc je tato „ochrana“ přinejlepším naivní. Viditelné vodoznaky a metadata, které OpenAI a další společnosti do svých videí vkládají, aby je identifikovaly jako syntetická, se ukázaly jako mimořádně křehká bariéra. Již několik dní po uvedení Sory 2 na trh kolovalo několik online služeb specializovaných na odstranění obou vrstev ochrany během několika sekund.

Například nástroje jako Bylo.ai nebo MagicEraser využívají umělou inteligenci k detekci a maskování pixelů vodoznaku a chybějící oblast vyplňují informacemi extrapolovanými ze sousedních snímků. Tato schopnost manipulace podtrhuje potřebu vyvinout robustnější metody ochrany integrity obsahu generovaného umělou inteligencí.

Hany Farid, profesor na Kalifornské univerzitě v Berkeley, komentoval rychlost, s jakou se tyto odstraňovače objevily, jako předvídatelnou a ve svém prohlášení pro 404 Media uvedl, že „to není poprvé, kdy model umělé inteligence implementoval viditelné značky a téměř okamžitě se objevily služby, které je odstranily“. To poukazuje na pokračující závod mezi vývojáři umělé inteligence a těmi, kteří se snaží využít jejích zranitelností.

Kromě toho platformy, jako je YouTube Shorts, začínají aplikovat filtry škálování AI na všechna videa ve svém katalogu, aby „zvýšily vizuální kvalitu obsahu“. Cílem je sice zlepšit uživatelský zážitek, ale tento přístup má také vedlejší účinek v tom, že veškerý obsah vypadá jako vytvořený umělou inteligencí, což dále komplikuje úkol rozlišit autentický a syntetický obsah.

Vrátíme-li se k jádru věci, trendem, který si razí cestu na platformy krátkých videí, je vytváření „humorného“ obsahu s umělou inteligencí, v němž vtip spočívá v tom, že člověk s nadváhou upadne, ukradne někomu jídlo nebo je prostě obézní. Chcete-li to potvrdit, stačí se projít po TikToku, Shorts nebo Reels, ujišťuji vás, že vám nebude trvat dlouho a najdete několik příkladů, které nasbírají statisíce lajků.

Mám kamaráda, který miluje generativní umělou inteligenci a tráví spoustu volného času experimentováním s ní. Zeptal jsem se ho, co si myslí o tom, že se k tomuto účelu používá Sora 2, a jeho odpověď byla, že „nikomu neubližují, nejsou to skuteční lidé, nikomu se nevysmívají, je to humor“.

Já jsem mu se vší láskou odpověděl, že jsem nedávno četl článek publikovaný v časopise The Lancet, v němž vědci z Oxfordské univerzity vysvětlují, že umělá inteligence může mít výrazný negativní dopad na duševní a emocionální pohodu dětí a dospívajících, což jsou shodou okolností dvě skupiny velmi náchylné k poruchám příjmu potravy. Autoři studie uvádějí, že „vystavení tomuto typu obsahu, který posiluje ponižující stereotypy a podporuje fatfobii, může u těchto skupin zvýšit úzkost, izolaci a upevnit negativní sebepojetí“.

S tímto vědomím považuji za nezodpovědné si myslet, že tento obsah je vlastně neškodný.Nemyslím si, že by se měly klást meze humoru nebo že by se mělo zakazovat zveřejňování určitých věcí, ale myslím si, že je rozumné nějak regulovat obsah, kde „vtip“ spočívá v tom, že se na někoho ukáže a řekne se „haha, podívej, co dělá ten tlusťoch“.

Najít tyto aplikace není složité. Jednoduché vyhledávání v Googlu během psaní tohoto textu mě přivedlo k nalezení nesčetného množství článků o SEO, jako je tento, které shrnují „nejlepší“ stránky pro odstranění vodoznaků z videí s umělou inteligencí.

Potřeba etické a technické regulace

Používání umělé inteligence k vytváření urážlivého a ponižujícího obsahu není jen technický, ale také etický problém. Technologická komunita a zákonodárci musí spolupracovat na vytvoření norem, které by regulovaly používání umělé inteligence při tvorbě obsahu. To by mohlo zahrnovat vývoj pokročilejších algoritmů pro detekci a blokování urážlivého obsahu a také zavedení přísnějších zásad pro platformy, které tato videa hostují.

V konečném důsledku je na nás všech: na vývojářích, uživatelích i platformách, abychom zajistili, že technologie budou využívány způsobem, který bude prospěšný pro celou společnost, a ne že budou upevňovat škodlivé stereotypy a podporovat diskriminaci.

Musím se přiznat, že mě děsí, s jakou lehkostí se nástroje jako Sora 2, původně určené k posouvání hranic kreativity, mění v mašinérii na ponižující obsah. Vidím to denně na platformách jako TikTok nebo YouTube Shorts, kde se šíří lavina tzv. „slopů“ – videí, která si dělají legraci z lidí s nadváhou. A co je horší, takzvané ochrany v podobě vodoznaků? Ty jsou odstraňovány v podstatě okamžitě, jakmile se objeví, speciálními AI nástroji. To je jako postavit bariéru z papíru proti tsunami. Věřím, že je na čase si uvědomit, že to není jen technický problém, ale etické selhání nás všech. Jak dlouho budeme přihlížet, než si uvědomíme, že „vtip“ ukazující na někoho, kdo je tlustý, není vtip, ale šikana? Je potřeba razantní regulace a zodpovědnost ze strany platforem, ale i nás, uživatelů.

Zdroje článku

404media.co, Autorský text
#