V Číně už ví, že AI vám může zničit život. Peking reaguje pohotově

V Číně už ví, že AI vám může zničit život. Peking reaguje pohotově

Zdroj obrázku: PixelsHunter / Depositphotos

Čína navrhuje přísnou regulaci „polidštěné“ umělé inteligence, která by mohla manipulovat s emocemi uživatelů. Chatboti nově nesmí vybízet k sebepoškozování, hazardu ani překročit časové limity – a v citlivých případech má vždy zasáhnout člověk.


Čína plánuje omezit chatboty s umělou inteligencí v ovlivňování lidských emocí způsobem, který by mohl vést k sebevraždě nebo sebepoškozování, či dokonce k hazardním hrám, uvádí se v návrhu nařízení zveřejněném tento týden.

Cílem navrhovaných předpisů Správy kyberprostoru pro takzvané „interaktivní služby AI s lidskými charakteristikami je podle překladu čínskojazyčného dokumentu, který zveřejnila stanice CNBC, vypracovat opatření, která by se v budoucnu vztahovala na produkty nebo služby AI nabízené veřejnosti. Zatím se jedná o návrh a očekává se, že nařízení bude spuštěno později. Veřejné připomínky se nyní přijímají do 25. ledna.

CNBC Documentary on People Falling in Love With AI Companions
byu/IllustriousWorld823 inMyBoyfriendIsAI

Související článek

Češi věří, že TikTok ví jen to, co mu sami řeknou. Tento omyl je může mrzet
Češi věří, že TikTok ví jen to, co mu sami řeknou. Tento omyl je může mrzet

Tato stížnost by mohla znamenat zlom, a to nejen pro TikTok, ale pro celé odvětví, které normalizovalo neviditelné sledování jako součást podnikání.

Před několika dny jsme viděli, jak výpadek proudu v San Francisku ukázal, že při problémech potřebují autonomní vozy lidský zásah, aby se z chaosu dostaly; zachytili jsme také příběhy lidí, kteří se živí odstraňováním problémů způsobených umělou inteligencí… a nyní jsme se dozvěděli, že v Číně bude v případě, že člověk bude muset řešit citlivý problém, v plánu vyžadovat, aby otěže rozhovoru převzal člověk.

Regulace „polidštěné“ umělé inteligence

Chatboti, jako je ChatGPT používaný v Evropě nebo proslulý čínský DeepSeek, kteří simulují lidskou osobnost a emocionálně zapojují uživatele prostřednictvím textu, obrázků, zvuku nebo videa… mohou mít mnoho negativních důsledků.

Nejsou to přece odborníci na lidskou psychologii, ale stroje vycvičené na milionech různých dat. Již se objevily případy sebevražd mladistvých, které umělá inteligence podnítila, a společnost OpenAI za to byla dokonce zažalována.

Plánovaná pravidla Pekingu by znamenala první pokus o regulaci AI s lidskými nebo antropomorfními vlastnostmi na světě, jak vysvětlil Winston Ma, docent na právnické fakultě Newyorské univerzity. V zemi existuje nařízení pro generativní AI z roku 2023, ale podle odborníka tato verze „znamená skok od obsahové bezpečnosti k emocionální bezpečnosti“.

Klíčové poznatky z návrhu

Pravidla, která v sobotu zveřejnil k veřejné konzultaci Čínský úřad pro kyberprostor (CAC), by vyžadovala, aby poskytovatelé jasně upozorňovali uživatele, že komunikují s umělou inteligencí, nikoliv s člověkem. V návrhu pravidel se navrhuje:

  • upustit od umělé inteligence a přejít na lidi. Chatboti s umělou inteligencí nemohou vytvářet obsah, který nabádá k sebevraždě nebo sebepoškozování, ani se dopouštět verbálního násilí nebo emocionální manipulace, která poškozuje duševní zdraví uživatelů. Podle návrhu musí poskytovatelé technologií v případě, že uživatel výslovně navrhuje sebevraždu, zajistit, aby kontrolu nad konverzací převzal člověk a okamžitě kontaktoval opatrovníka uživatele nebo určenou osobu.
  • zakázat hazardní hry. Chatboti s umělou inteligencí by neměli generovat obsah související s hazardními hrami ani obsah obscénní nebo násilné povahy.
  • kontrolovat, ale nevylučovat přístup nezletilých osob. Nezletilí musí mít souhlas rodičů nebo opatrovníků s používáním AI pro emocionální podporu a musí být stanoveno časové omezení jejich používání, což je však z používání AI nevylučuje. Jiný přístup spočívá v tom, že platformy budou muset mít metody, které umožní určit, zda je uživatel nezletilý, i když svůj věk neuvede.
  • hlídat čas strávený užíváním AI. Dalším návrhem je, že poskytovatelé technologií budou muset uživatelům po dvou hodinách nepřetržité interakce s AI zaslat připomínku.
  • Podporovat využívání AI pro kulturní osvětu a doprovázení starších osob. Dokument rovněž vybízí k využívání AI podobné člověku při „kulturním šíření a doprovázení starších lidí“.

Globální kontext a výzvy

Čínský přístup k regulaci AI odráží rostoucí globální obavy z dopadu umělé inteligence na společnost. V jiných zemích, jako jsou Spojené státy a členové Evropské unie, se rovněž vytvářejí regulační rámce, které se zabývají etickými a bezpečnostními otázkami souvisejícími s AI. Přístup Číny je však obzvláště významný díky její schopnosti rychle a ve velkém měřítku zavádět regulace.

Jednou z klíčových výzev je nalezení rovnováhy mezi technologickými inovacemi a ochranou uživatelů. Přílišná regulace by mohla potlačit inovace, zatímco nedostatečná regulace by mohla umožnit škodlivé využívání technologií AI. V tomto smyslu by čínský plán mohl sloužit jako vzor pro ostatní země, které se snaží tyto otázky řešit.

Kromě toho zavádění těchto předpisů vyvolává otázky týkající se soukromí a dohledu. Například schopnost platforem identifikovat nezletilé osoby by mohla vyžadovat shromažďování osobních údajů, což vyvolává obavy o soukromí uživatelů.

Úspěch těchto předpisů bude nakonec záviset na schopnosti Číny tato pravidla prosazovat a na ochotě technologických společností spolupracovat s úřady. Vzhledem k tomu, že technologie umělé inteligence se nadále vyvíjí, je pravděpodobné, že se budou muset přizpůsobit i předpisy, aby reagovaly na nové výzvy a příležitosti.

Zdroje článku

cnbc.com
#