Pentagon tlačí na Anthropic: AI modely musí sloužit armádě, jinak hrozí sankce

Pentagon tlačí na Anthropic: AI modely musí sloužit armádě, jinak hrozí sankce

Zdroj obrázku: icholakov01 / Depositphotos

Pentagon požaduje po společnosti Anthropic, aby do pátku bezvýhradně zpřístupnila své modely umělé inteligence pro účely armády – i v rozporu s vlastním etickým kodexem. Na stole je nejen otázka národní bezpečnosti, ale i to, komu patří klíčové technologie budoucnosti. A co se stane, když stát rozhodne, že etika už nestačí?


Pentagon před několika hodinami shodil bombu. Anthropic musí do tohoto pátku 17:01 souhlasit s tím, aby jeho modely AI byly využívány k čemukoli, co Pentagon uzná za vhodné. To převrací konverzaci o etickém využití umělé inteligence naruby, ale co je důležitější, přináší to na stůl zcela jasný záměr ze strany Spojených států: pokud se domnívají, že všechny zdroje by měly být využívány pro národní obranu, pak všechny zdroje patří státu. A právě zde přichází na řadu umělá inteligence od soukromých společností.

Dario Amodei je generálním ředitelem společnosti Anthropic. Možná je vám známější jméno Claude, jeden z jejich modelů. Ty jsou velmi univerzální, ale mají jasnou červenou linii: nelze je používat k masovému sledování občanů USA (všimněte si té nuance). Nelze je používat ani k vývoji zbraní nebo k používání plně autonomních zbraní řízených umělou inteligencí. A to je něco, co je v rozporu s tím, co chce Pentagon: neomezené používání modelů Anthropic.

Související článek

Covid byl test. Propadli jste. Proč by to s AI mělo dopadnout jinak
Covid byl test. Propadli jste. Proč by to s AI mělo dopadnout jinak

Máte stále častěji pocit, že lidstvo má k dispozici technický pokrok, ale chybí mu k němu morální záklopka a ryzí chápání pokroku? Že jsme na to, co máme prostě ještě hloupí? Patrně to vnímáte správně. Za všemi debatami o AI a konci světa stojí právě toto. Předbíháme svůj vývoj technickým pokrokem. Právě na vývoji umělé inteligence je to znát nejvíce.

Ptáte se, proč právě Anthropic? Protože Anthropic nabídl svůj nástroj vládě za symbolickou cenu jednoho dolaru, což mu vyneslo kontrakt na 200 000 000 dolarů (4 miliardy korun). Nedopadlo to špatně a postupně byly jejich modely integrovány s modely Palantíru. Nyní chtějí mít USA „nespoutanou“ umělou inteligenci, ale jak vysvětluje můj kolega Javier Lacort, zákony a etika americké armády jsou založeny na tom, že voják může a má neuposlechnout zjevně nezákonný rozkaz. Umělá inteligence může dělat, co chce.

Páka z 50. let 20. století

Kontrakt za 200 milionů dolarů je sice šťavnatý, ale vzhledem k částkám, které se do AI neustále investují, je to drobné. Anthropic by mohl stejně snadno říct ne a uvolnit cestu někomu jinému, aby zaujal jeho místo v Pentagonu, ne? No… tak jednoduché to není. A není to ze dvou důvodů.

Prvním je, že je již hluboce zakořeněn ve všech systémech, procesech a službách, které ministerstvo obrany denně používá. Je to příliš velká loď na to, aby mohla změnit kurz. „Zná“ příliš mnoho z tajů těchto systémů, které musí být přísně tajné. Ale co je důležitější, Spojené státy mají páky, jak si urvat, co chtějí. Stačí, když budou argumentovat tím, že jde o nutnost národní bezpečnosti.

V roce 1950, během korejské války, se zrodil zákon o obranné výrobě, který dává prezidentovi pravomoc zajistit dodávky potřebné pro národní obranu. Ten například zmocňuje vládu požadovat po firmách, aby přednostně uzavíraly smlouvy se státem o přidělování materiálu, služeb a zařízení. Umožňuje také poskytovat pomoc při rozšiřování výrobních kapacit a zkrátka zadávat práci největším podnikům v zemi podle potřeby.

Tento dokument byl v průběhu času rozšiřován a doplňován, protože potřeby roku 1950 nejsou stejné jako v pozdějších desetiletích, a v roce 2023 bylo podepsáno nařízení 14 110. Je to ten, který ukládá majitelům nejvýkonnějších modelů umělé inteligence povinnost informovat vládu, když trénují systémy, které mohou představovat riziko pro národní bezpečnost, ekonomiku nebo veřejné zdraví. V následujících letech byly podepsány další návrhy, které rozšiřují požadavky na umělou inteligenci, ale Pentagon nemusí zveřejňovat nic nového, aby vyvíjel tlak na Anthropic.

Podle hlavy I (která nařizuje, že určité produkty nebo služby musí být poskytovány vládě) by Pentagon mohl převzít AI společnosti Anthropic, aby plnila jeho příkazy. Podporou je to, o čem jsme již hovořili: ona „národní obrana“. A v praxi je to definováno tak, že pokud společnost nechce, aby její AI dělala určité věci kvůli takovému morálnímu kodexu, pokud se stane majetkem Pentagonu, etická bariéra může být odstraněna.

Disciplinární tresty za „probuzení umělé inteligence“

A teď velká otázka: může Anthropic říct něco jako „podívejte, vy si nechte těch 200 milionů a každý sám za sebe„? No… ne. Nebo ne tak jednoduchým způsobem. Už jsem se vyjádřil, že Claude je příliš hluboko v systémech Pentagonu (do té míry, že byl použit při operaci na dopadení Nicoláse Madura) a „ví“ příliš mnoho. Je příliš hluboko zasazena do utajovaných systémů Pentagonu, a jak můžeme tušit, nehodlali ji tak snadno pustit.

A tady přichází na řadu Pete Hegseth. Je to ministr obrany a morální měřítko Anthropicu označil za „probuzení umělou inteligencí“. Ano… Protože Google, OpenAI a xAI umožňují vládě používat své modely v jakémkoli „legálním“ scénáři (pro vládu, samozřejmě), ale ne Anthropic, a kromě pák zákona o obranné výrobě mohou USA společnost tvrdě potrestat.

Pokud „neustoupí“ jejich požadavkům, mohou Anthropic označit za společnost, která ohrožuje dodavatelský řetězec země. Bylo by to jako veto vůči Huawei před několika lety, ale vůči domácí společnosti. V praxi by americké společnosti nemohly s Anthropicem spolupracovat. Jinými slovy, země má několik dobrých „argumentů“ pro to, aby Anthropic předal tuto morální výhodu.

Učení

Do pátku 27. února 17:01, kdy se dozvíme, zda Anthropic na „požadavky“ Pentagonu přistoupí, už nezbývá tolik času. Jisté je, že jde o poučení. Ani ne tak pro americké společnosti, které nakonec fungují pod hlavičkou zákona o obranné výrobě, ale pro ty ve zbytku světa. Konkrétně pro evropské společnosti. A mám na mysli vesmírné závody.

Evropa, stejně jako Čína, Rusko a samotné Spojené státy, se pustila do nového vesmírného závodu. Jdou jiným tempem, protože ještě nedávno měly Spojené státy jako toho partnera a spojence, který tu bude vždycky. Tarify a válka na Ukrajině mimo jiné tuto důvěru narušily a Evropa si uvědomila, že se musí dát dohromady na mnoha frontách.

A jednou z nich je i to, komu důvěřuje. Například SpaceX se stala partnerem v oblasti satelitní komunikace a dodávek do vesmíru, ale SpaceX už není jen raketová společnost: je to společnost, která vlastní xAI. A jak jsem již zmínil, xAI má vazby na americké ministerstvo obrany. Ale SpaceX je také X -Twitter-, obrovská databáze evropských občanů. A v tom spočívá další čtení: cizí země se nemohou spoléhat na kritické systémy od dodavatelů působících pod hlavičkou USA… a zákona o obranné výrobě.

Globální důsledky

Situace s firmou Anthropic je jasným příkladem toho, jak mohou národní obranné politiky ovlivnit globální technologický průmysl. Rostoucí závislost na technologii umělé inteligence v různých odvětvích, od zdravotnictví po obranu, znamená, že politická a právní rozhodnutí v jedné zemi mohou mít globální dopady. Například Evropská unie pracuje na vlastním nařízení o AI, známém jako Akt EU o AI, jehož cílem je vytvořit právní rámec pro bezpečný a etický vývoj a používání umělé inteligence.

Případ Anthropic navíc zdůrazňuje význam technologické suverenity. Země, jako je Čína, investují velké prostředky do vlastní technologické infrastruktury, aby snížily závislost na zahraničních dodavatelích. To se odráží v její strategii „Made in China 2025“, jejímž cílem je postavit Čínu na vedoucí pozici v oblasti vyspělých technologií.

Otázka, kdo ovládá umělou inteligenci a jak ji využívá, je nakonec jednou z nejkritičtějších v naší době. S rozvojem technologií se objevují i otázky týkající se etiky, soukromí a bezpečnosti. Rovnováha mezi technologickým pokrokem a ochranou práv jednotlivců bude pro vlády a podniky na celém světě trvalou výzvou.

#