Nevěřte AI: Vše, co jí řeknete, může být použito proti vám. Doslova

Nevěřte AI: Vše, co jí řeknete, může být použito proti vám. Doslova

Zdroj obrázku: kentoh / Depositphotos

 

Umělá inteligence začíná hrát stále větší roli v osobním i obchodním rozhodování. Není tedy radno přehlédnout nedávné varování generálního ředitele OpenAI Sama Altmana: Vše, co řeknete ChatGPT, může skončit u soudu.


Jinými slovy, ChatGPT nemá nic, co by se alespoň vzdáleně rovnalo zpovědnímu tajemství, a to, co s touto technologií sdílíte – jakkoli intimní to může být – není právně chráněno, což může mít pro příliš sebevědomého uživatele velmi negativní důsledky.

Falešná zpovědnice

Mnoho uživatelů, zejména mladých lidí, začalo ChatGPT používat jako náhradu terapeuta, zpovědníka (v nejširším slova smyslu) nebo právního/daňového apod. poradce. Je snadné pochopit proč: okamžité odpovědi, anonymita, nulové hodnocení a žádné náklady.

Související článek

Jeden klik a pár slov: Vznikne svět, kde se realita mísí s fantazií
Jeden klik a pár slov: Vznikne svět, kde se realita mísí s fantazií

Funkce Storybook umožňuje během několika sekund vytvořit personalizované příběhy s ilustracemi a vyprávěním pomocí umělé inteligence.

Toto emocionálně intenzivní využití však čelně naráží na tvrdou realitu: umělá inteligence není ze zákona povinna chránit vaše soukromí tak, jak by to dělal psycholog, lékař nebo právník. ChatGPT je technologický nástroj bez zvláštní právní ochrany.

„To jsme pro konverzace s AI ještě nevyřešili,“ lituje Altman.

Ve skutečnosti, dokud nebude pro interakce s AI uzákoněno skutečné soukromí, je rozumné považovat jakoukoli konverzaci ChatGPT za veřejnou a otevřenou k použití proti vám. Jak uvedl sám Altman v podcastu This Past Weekend:

„Lidé s ChatGPT mluví o nejosobnějších věcech svého života […] Používají ji jako terapeuta, jako životního kouče, ptají se ‚co mám dělat se svými problémy ve vztahu‘ […] Ale pokud později dojde k soudnímu procesu, můžeme být nuceni tyto konverzace předat.“

Společnost OpenAI ve svých zásadách ochrany osobních údajů přiznává, že uchovává údaje uživatelů, včetně konverzací, aby splnila právní povinnosti. Jinými slovy, jakýkoli soudní orgán může požadovat obnovení a předání našich konverzací s ChatGPT. Ptali jste se ChatGPT na nápady, jak podvést finanční úřad? Popisovali jste hádku s detaily, které by vás mohly usvědčit? To vše může být použito proti vám.

Iluze anonymity a právní rizika

Iluze, že hovoříte s „neutrálním“ a „bezpečným“ strojem, je jedním z nejčastějších omylů. Ve skutečnosti jsou systémy umělé inteligence provozovány společnostmi, které podléhají zákonům, soudním sporům, zásadám používání a soudním příkazům. V případě OpenAI vedl probíhající soudní spor s deníkem New York Times k tomu, že společnost byla nucena na příkaz soudce v této věci zadržovat konverzace, a to i ty údajně smazané.

Jak vysvětluje výzkumník William Agnew, „zatímco společnosti se snaží s daty zacházet opatrně, modely umělé inteligence jsou známé tím, že informace chrlí“. Vaše konverzace se může „vynořit“ v jiném kontextu, aniž byste o tom věděli.

Vše, co řeknete AI, se může stát důkazem

Případ Amazon Echo v USA již tuto cestu vytyčil. V roce 2017 se zařízení stalo „svědkem“ v soudním procesu o vraždě. Po nátlaku soudu musela společnost Amazon předat zvukové záznamy toho, co se dělo v domě, kde byl spáchán trestný čin. Ačkoli se nejednalo o umělou inteligenci jako ChatGPT, vznikl precedens: chytrá zařízení se mohou stát zdrojem důkazů.

Ještě znepokojivější je rostoucí emocionální závislost, před kterou varoval i Altman. „Existují mladí lidé, kteří uznávají, že nejsou schopni se rozhodovat sami za sebe, aniž by to předtím řekli ChatGPT,“ řekl v jiném rozhovoru. Problémem už není jen soukromí, ale i ztráta autonomie v osobním rozhodování.

Ve světě, kde jsou technologie stále více integrovány do našich životů, je zásadní pochopit důsledky spoléhání se na nástroje, jako je ChatGPT, při osobních a emocionálních rozhodnutích. Soukromí a osobní autonomie musí být chráněny vhodnými předpisy. Technologická komunita a zákonodárci musí spolupracovat, aby zajistili, že interakce s umělou inteligencí budou bezpečné a spolehlivé.

Zdroje článku

Autorský text, nbcnews.com, harvardlawreview.org
#