Byli na cestě za snem. Až na místě zjistili, že nikdy neexistoval

Byli na cestě za snem. Až na místě zjistili, že nikdy neexistoval

Zdroj obrázku: Photo by Upgraded Points on Unsplash

Vstoupili jsme do fáze, kdy lze realitu generovat, manipulovat a šířit pouhými několika kliknutími.


Vzestup umělé inteligence  znepokojivým tempem stírá hranici mezi realitou a fikcí. Na vlastní kůži to zažil starší pár z malajsijského Kuala Lumpuru, který jel více než 350 kilometrů, aby navštívil idylickou turistickou atrakci Kuak Skyride, vyhlídkovou lanovku, která se údajně nachází v ospalé vesnici Kuak Hulu v malajsijském státě Perak. Byl tu jen jeden problém: taková atrakce nikdy neexistovala.

Vše začalo, když na sociálních sítích viděli video, které vysílal virtuální kanál TV Rakyat. Moderátorka v něm „navštívila“ lanovku, která vedla bujnými tropickými lesy. Pro nezkušené oko to byla naprosto věrohodná turistická reportáž, ale celý obsah byl vytvořen umělou inteligencí – konkrétně nástrojem Veo3 společnosti Google.

Od nadšení ke zklamání

Manželé, dojatí krásou videa a přesvědčení o pravosti zobrazeného, se rozhodli, že se tam vydají na dovolenou: zamluvili si hotel, vyrazili autem a když dorazili na místo a zeptali se na recepci na lanovku, personál si myslel, že jde o vtip. Přestože se personál snažil situaci vysvětlit, turisté zpočátku trvali na tom, že video vypadá autenticky.

Související článek

Jeden klik a pár slov: Vznikne svět, kde se realita mísí s fantazií
Jeden klik a pár slov: Vznikne svět, kde se realita mísí s fantazií

Funkce Storybook umožňuje během několika sekund vytvořit personalizované příběhy s ilustracemi a vyprávěním pomocí umělé inteligence.

„Proč to lidem dělají? […] To video vypadalo jako skutečná reportáž,“ řekla starší žena, která dokonce zvažovala, že reportéra zažaluje, než jí bylo vysvětleno, že i ona je fiktivní postavou vytvořenou pomocí umělé inteligence.

Zkreslení reality

Mnoho uživatelů se na sociálních sítích podivovalo, jak se mohli protagonisté příběhu nechat oklamat něčím tak zjevně fiktivním(na videu bylo v dolním rohuvidět logo Veo3).

Ale i když se může zdát, že příběh je zdrojem posměchu, vyvolává vážnou otázku: jak snadno lze obsah vytvořený umělou inteligencí zaměnit za skutečný obsah, zejména u starších lidí nebo těch, kteří tyto technologie neznají.

Podle společnosti Signicat, která se zabývá digitální bezpečností, se podvody založené na deepfakes za poslední tři roky zvýšily o 2 137 %, z 0,1 % na více než 6 % pokusů o podvod. I když v případě starších Malajců nešlo o významné finanční ztráty, je to příznak toho, jak zkreslené je vnímání reálného světa.

Deepfake turistika

Cestovní ruch byl utvářen umělou estetikou již dlouho předtím, než umělá inteligence zdokonalila podvod. „Instagramifikace“ cestování – kdy jsou destinace navštěvovány spíše kvůli možnostem fotografování než kvůli kulturní hodnotě – změnila návyky milionů uživatelů.

Nyní se s generativní umělou inteligencí zavádí nová úroveň simulace: zcela vymyšlená místa, která turistu podněcují k pohybu směrem k nicotě. Tváří v tvář této nové realitě je naléhavě nutné znát některá doporučení, abychom se vyhnuli pádu do podobných pastí:

  • Ověřte si pravost turistických videí tím, že si vyhledáte informace z oficiálních turistických zdrojů nebo renomovaných médií.
  • Všímejte si digitálních znaků, jako jsou vodoznaky, loga nástrojů umělé inteligence (např. Veo3) nebo vizuální nesrovnalosti.
  • Obecně se slepě nespoléhejte na sociální média jako na jediný zdroj informací.

Kromě toho je důležité, aby platformy sociálních médií a vývojáři AI spolupracovali na zavedení opatření, která pomohou identifikovat a označit obsah vytvořený AI, aby uživatelé mohli rozlišit mezi skutečným a fiktivním obsahem. To by nejen chránilo spotřebitele, ale také zachovalo integritu informací kolujících online.

Zdroje článku

www.threads.com
#