Žádné masové špehování pomocí umělé inteligence, žádný vývoj smrtících autonomních zbraní s jejich modely. A to nám připomíná strašlivý případ: případ atomové bomby.
J. Robert Oppenheimer se z „otce atomové bomby“ a národního hrdiny stal vyvrhelem. Jeho hříchem nebyla zrada, ale morální čistota. Poté, co se stal svědkem hrůzy v Hirošimě a Nagasaki, se Oppenheimer zoufale snažil zastavit eskalaci atomového útoku a vývoj vodíkové bomby.
Buď jste s námi, nebo proti nám. USA, které ho v minulosti chválily, využily jeho dřívější politické příslušnosti a zbavily ho všech privilegií a vlivu. Ukázal, jak americká vláda bez dalšího rozhodla, že vědecké poznatky jsou majetkem státu a že s každým výzkumníkem, který se pokusí navrhnout etické limity svých projektů, bude zacházeno jako s nepřítelem vlasti.
Od Oppenheimera k antropologii
Děje se tak s jedním protagonistou, který stále existuje – vládou USA – a druhým, který se mění: tím, kdo nyní hájí etiku vědecko-technologického projektu, není Oppenheimer, ale Dario Amodei, generální ředitel společnosti Anthropic.
Claude je ve vládě USA stále důležitější. Jeho společnost se dnes nachází mezi kamenem a nožem. Anthropicu se podařilo udělat ze svého modelu Claude miláčka americké vlády. Schopnosti této umělé inteligence se ukázaly být tak pozoruhodné, že byla zřejmě použita k naplánování zatčení bývalého venezuelského prezidenta Nicoláse Madura.
Aby však Pentagon mohl Clauda používat, stanovil Anthropic určité červené linie. Zákaz použití pro masové sledování občanů USA a zákaz použití pro vývoj autonomních smrtících zbraní. A Pentagonu se tyto červené linie nakonec nelíbí, takže je chce odstranit a používat Clauda, jak se mu zlíbí, pokud prý bude respektovat americkou ústavu a americké zákony.
Pentagon chce neomezenou umělou inteligenci
To vedlo v posledních dnech k mimořádně napjaté situaci. Pentagon pohrozil, že Anthropic potrestá, pokud neustoupí jeho požadavkům, a tyto hrozby ze strany ministerstva obrany nebyly vůbec jemné. Ve skutečnosti navrhli, že by Anthropic mohl být označen za společnost, která představuje „riziko pro dodavatelský řetězec“, což je černá nálepka, která je obvykle vyhrazena společnostem z konkurenčních zemí, jako je Čína nebo Rusko.
Sám Dario Amodei v příspěvku na oficiálním blogu společnosti vysvětlil, že tyto dvě hrozby se vylučují samy: „Tyto dvě poslední hrozby jsou ve své podstatě protichůdné: jedna nás označuje za bezpečnostní riziko, druhá označuje Clauda za nezbytného pro národní bezpečnost.“
Může být umělá inteligence znárodněna? Je to znepokojivá ironie: tatáž vláda, která považuje Clauda za zásadní nástroj národní bezpečnosti, je ochotna označit jeho tvůrce za veřejnou hrozbu, pokud jí neodevzdají klíče od království a jeho AI. Ministerstvo obrany a Pentagon chtějí v podstatě „znárodnit“ technologii AI vyvinutou společností Anthropic a přivlastnit si ji stejně jako technologii, která vedla k výrobě atomové bomby. Víme, jak to dopadlo.
Anthropic odmítá ustoupit
Nebezpečí je obrovské v obou ohledech: masový dohled, místo aby bránil demokracii, ji může dynamizovat zevnitř, a skandál NSA je toho dobrým příkladem. Ještě větší obavy však vzbuzuje záměr Pentagonu využít tuto umělou inteligenci k vývoji autonomních smrtících zbraní. Amodei na to upozornil prohlášením, že „základní modely umělé inteligence prostě nejsou dostatečně spolehlivé, aby poháněly plně autonomní zbraně. Nebudeme vědomě poskytovat produkt, který by ohrožoval americké bojovníky a civilisty“.
Amodei dokonce nabízí ministerstvu války/obrany pomoc při „přechodu k jinému poskytovateli“ modelů AI, ale v tuto chvíli není jasné, jakou cestou se americká vláda vydá.
Pokud Pentagon nakonec svou hrozbu uskuteční a bude Anthropic vetovat, bude to pro průmysl mrazivý vzkaz. V éře umělé inteligence neexistují svědomití odpůrci: pokud nějaká společnost vyvine technologickou a strategickou výhodu na vojenské úrovni, je tato společnost vydána na milost a nemilost státu. Je to děsivý nový „Oppenheimerův moment“, který podmiňuje budoucnost nejen Anthropicu, ale i samotného vývoje modelů AI.
Úvahy o budoucnosti AI a etice
Situace mezi společností Anthropic a Pentagonem je odrazem širšího napětí, které provází vývoj umělé inteligence. S tím, jak se umělá inteligence stává stále mocnějším nástrojem, jsou otázky etiky a kontroly stále naléhavější. Kdo by měl mít pravomoc rozhodovat o tom, jak budou tyto technologie využívány? Jak můžeme zajistit, aby jejich vývoj a využívání bylo odpovědné a bezpečné pro lidstvo? To jsou otázky, které se týkají nejen společností a vlád, ale celé společnosti.
Případ Anthropic zdůrazňuje, že je důležité vytvořit pevné etické rámce a podporovat otevřený dialog mezi vývojáři technologií, vládami a veřejností. Pouze prostřednictvím spolupráce a transparentnosti můžeme zajistit, že umělá inteligence bude využívána pro společné dobro a nestane se nástrojem útlaku nebo ničení.
„Oppenheimerův okamžik“ AI nám nakonec připomíná, že technologie sice může přinést velké výhody, ale také velkou odpovědnost. To, jak se s těmito povinnostmi vypořádáme, určí budoucnost lidstva ve věku umělé inteligence.
