Meta v novém dokumentu varuje před AI

  • 7. 2. 2025
  • Zdroj obrázku: Skorzewiak / Depositphotos
Meta v novém dokumentu varuje před AI

S tím, jak se společnosti předhánějí ve vývoji pokročilých modelů umělé inteligence, pro které se vžilo označení umělá obecná inteligence (AGI), je vždy spojeno riziko, které přichází se zavedením něčeho, co dokáže splnit jakýkoli úkol, který je schopen dokončit člověk.


Společnost Meta si pravděpodobně uvědomuje hrozbu, k níž může takový nekontrolovaný plán vývoje vést, a proto vypracovala nový Frontier AI Framework, což je politický dokument zdůrazňující pokračující úsilí společnosti o vytvoření co nejlepšího systému umělé inteligence a zároveň monitorující jeho škodlivé účinky.

Pokročilé systémy AI mohou vést ke katastrofickým důsledkům, tvrdí Meta

Existují různé scénáře, kdy by společnost Meta nebyla nucena vydat schopný model AI, přičemž společnost v novém politickém dokumentu uvádí některé podmínky. Frontier AI Framework identifikoval dva typy systémů, které jsou považovány za příliš rizikové a jsou zařazeny do kategorií „vysoké riziko“ a „kritické riziko“. Tyto modely AI jsou schopny napomáhat kybernetickým bezpečnostním opatřením a chemickým a biologickým útokům. Tyto druhy situací mohou mít za následek „katastrofický výsledek“.

„Modelování hrozeb je základem našeho přístupu založeného na výsledcích. Cvičení modelování hrozeb provádíme jak interně, tak v případě potřeby s externími odborníky s příslušnými odbornými znalostmi v dané oblasti. Cílem těchto cvičení je systematickým způsobem prozkoumat, jak by mohly být modely hraniční umělé inteligence použity k dosažení katastrofických následků. V rámci tohoto procesu vytváříme scénáře hrozeb, které popisují, jak by různí aktéři mohli použít model hraniční umělé inteligence k realizaci katastrofického výsledku.

Související článek

Svoboda slova zahrnuje i svobodu lhát, tvrdí expert na AI
Svoboda slova zahrnuje i svobodu lhát, tvrdí expert na AI

Je přesvědčen, že umělá inteligence a současné technologie jsou velmi pokročilé, ale běžní občané se musí zdokonalit ve znalostech problematiky světa kolem sebe.

Navrhujeme hodnocení, abychom simulovali, zda by náš model tyto scénáře jednoznačně umožnil, a určujeme schopnosti, které by k tomu model musel vykazovat. Naše první sada hodnocení je navržena tak, aby určila, zda jsou všechny tyto umožňující schopnosti přítomny a zda je na nich model dostatečně výkonný. Pokud ano, bude to podnětem k dalšímu hodnocení, aby bylo jasné, zda model může jedinečně umožnit scénář ohrožení.“

Společnost Meta uvádí, že pokud identifikuje systém, který vykazuje kritické riziko, práce na něm budou okamžitě zastaveny a nebude uvolněn. Bohužel stále existuje nepatrná šance, že systém umělé inteligence bude uvolněn, a přestože společnost bude uplatňovat opatření, která zajistí, aby nedošlo k události katastrofických rozměrů, Meta připouští, že tato opatření mohou být nedostatečná. Čtenáři, kteří si prohlédnou Frontier AI Framework, budou pravděpodobně nervózní z toho, kam AGI směřuje.

I když společnosti jako Meta nemají zavedena interní opatření k omezení uvolňování potenciálně nebezpečných modelů AI, je pravděpodobné, že zákon zasáhne v plné síle. Nyní se jen ukáže, kam až může tento vývoj zajít.

Zdroje článku:
techcrunch.com

#