Anthropic říká Pentagonu „NE“. AI firma odmítá vývoj zbraní bez limitů

Anthropic říká Pentagonu „NE“. AI firma odmítá vývoj zbraní bez limitů

Zdroj obrázku: alexeynovikov / Depositphotos

Společnost Anthropic čelí tlaku Pentagonu, aby uvolnila svou umělou inteligenci pro vojenské účely bez omezení. Firma však trvá na zásadách a odmítá zapojení do vývoje autonomních zbraní či masového sledování – i za cenu možného ukončení spolupráce s americkou armádou.


Závod o dominanci umělé inteligence se zúžil na hrstku hráčů schopných konkurovat na nejvyšší úrovni. Anthropic patří do této malé skupiny vedle takových jmen, jako jsou OpenAI a Google, a jeho modely Claude se prosadily v oblastech, jako je programování. V této skvělé chvíli však společnost stojí před choulostivým rozhodnutím: zachovat určitá omezení vojenského využití své technologie, a to i za cenu napjatých vztahů s americkým ministerstvem obrany.

Podle serveru Axios, který se odvolává na vysokého představitele administrativy, Pentagon tlačí na čtyři přední laboratoře umělé inteligence, aby umožnily používání svých modelů pro „všechny zákonné účely“, včetně obzvláště citlivých oblastí, jako je vývoj zbraní, shromažďování zpravodajských informací nebo operace na bojišti. Společnost Anthropic však údajně po měsících obtížných jednání na tyto podmínky nepřistoupila, což přimělo ministerstvo obrany, aby zvážilo přezkoumání svých vztahů s touto společností.

Související článek

Tento chytrý reproduktor s kamerou bude vidět, co máte na stole. Pokud si doma hlídáte soukromí, tohle chcete vědět dřív než ostatní
Tento chytrý reproduktor s kamerou bude vidět, co máte na stole. Pokud si doma hlídáte soukromí, tohle chcete vědět dřív než ostatní

OpenAI spojila síly s legendárním designérem Jonym Ivem a chystá zařízení, které má změnit náš vztah k umělé inteligenci: chytrý reproduktor s kamerou, rozpoznáváním obličeje a kontextovým porozuměním. Nejde o další hlasový asistent, ale o první krok k AI, která opravdu „vidí a chápe“.

Tváří v tvář tomuto širokému požadavku dalo vedení Daria Amodei jasně najevo, že trvá na konkrétních limitech. Společnost trvá na tom, že dvě oblasti zůstávají mimo hru. Mluvčí sdělil médiím, že společnost je i nadále „odhodlána využívat špičkovou umělou inteligenci na podporu národní bezpečnosti USA„, ale kvalifikovaně uvedl, že diskuse s ministerstvem obrany se soustředily na „naše přísné limity týkající se plně autonomních zbraní a domácího masového sledování“ a že tyto otázky se „netýkají současných operací„.

Deník Wall Street Journal s odvoláním na osoby obeznámené se záležitostí tvrdil, že Claude byl díky vztahu se společností Palantir využit při americké vojenské operaci ve Venezuele k dopadení Nicoláse Madura. Ve téže článku společnost zabývající se umělou inteligencí odpověděla, že nemůže komentovat, zda byla její technologie použita v konkrétní vojenské operaci, ať už utajované, či nikoli. Dodala, že jakékoli použití, ať už v soukromém nebo vládním sektoru, musí být v souladu s jejími zásadami používání.

Kromě této epizody Axios uvedl, že v americké armádě je „na stole všechno“, včetně možnosti omezit nebo dokonce přerušit spolupráci s Anthropicem. Stejný vysoký úředník, kterého médium citovalo, dodal, že pokud bude zvolena tato cesta, bude muset dojít k „řádné výměně“, což naznačuje, že tento proces bude trvat určitou dobu. WSJ přináší další zajímavou informaci: v loňském roce byla mezi Anthropicem a ministerstvem obrany podepsána smlouva v hodnotě 200 milionů dolarů.

V době, kdy se společnosti zabývající se umělou inteligencí snaží konsolidovat příjmy, zdůvodnit ocenění a prokázat užitečnost v kritickém prostředí, je vztah s obranným sektorem výkladní skříní a hlavním zdrojem obchodu. Zároveň je to také aréna, kde se zviditelňují etické a strategické hranice. Rozhodnutí společnosti Anthropic zachovat určitá omezení může posílit její identitu společnosti orientované na bezpečnost, ale také omezit její přístup k milionovým zakázkám.

Postoj společnosti Anthropic není ve světě technologií ojedinělý. Mnoho technologických společností začalo zvažovat etické aspekty svých inovací. Například společnost Google stanovila soubor etických zásad pro umělou inteligenci, mezi něž patří nevyvíjet technologie, které způsobují škodu. Tyto zásady odrážejí rostoucí zájem o odpovědné využívání umělé inteligence, zejména ve vojenských a sledovacích aplikacích.

Rozhodnutí společnosti Anthropic by mohlo ovlivnit přístup dalších společností zabývajících se umělou inteligencí ke vztahům s obranným sektorem. Stanovením jasných hranic by společnost Anthropic mohla vytvořit precedens pro další společnosti, které by ji následovaly, a podpořit tak etičtější a odpovědnější využívání této technologie. Riskuje však také, že zůstane pozadu na trhu, kde mohou být vládní zakázky mimořádně lukrativní.

Napětí mezi technologickými inovacemi a národní bezpečností není nové. Vlády, včetně Spojených států, se v minulosti spoléhaly na vyspělé technologie, aby si udržely strategickou výhodu. Rychlý rozvoj umělé inteligence však představuje novou výzvu, protože schopnosti těchto technologií mohou rychle překonat stávající předpisy a etické rámce. To vyvolává otázku, jak vyvážit inovace s odpovědností a bezpečností.

Zdroje článku

axios.com, wsj.com, nbcnews.com
#