Zastavte vývoj, dokud je čas: Odborníci a veřejnost varují před nebezpečnou AI

Zastavte vývoj, dokud je čas: Odborníci a veřejnost varují před nebezpečnou AI

Zdroj obrázku: porndusit@gmail.com / Depositphotos

Iniciativa, kterou podporuje Future of Life Institute, odráží neobvyklé spojenectví vědců, politiků a známých osobností napříč ideologickým spektrem.


Společenské znepokojení v souvislosti s rychlým rozvojem umělé inteligence (AI) již není čistě technickou debatou, ale celosvětovým problémem. A na důkaz toho více než 800 osobností z vědecké, politické, náboženské a kulturní sféry. Mezi nimi průkopníci umělé inteligence Geoffrey Hinton a Yoshua Bengio, spoluzakladatel společnosti Apple Steve Wozniak, bývalý stratég Donalda Trumpa Steve Bannon nebo princ Harry a Meghan Markle podepsalo otevřený dopis vyzývající k zastavení vývoje „superinteligence„, prozatím hypotetické formy umělé inteligence schopné překonat člověka ve všech kognitivních úkolech.

V dokumentu se sešly hlasy téměř ze všech koutů ideologického spektra: od konzervativců, jako je Steve Bannon (bývalý šéf štábu Donalda Trumpa) a Glenn Beck, až po pokrokáře, jako je Susan Riceová (bývalá velvyslankyně USA při OSN za Obamy), nebo náboženské osobnosti, jako je mnich a poradce papeže pro otázky AI Paolo Benanti. Připojilo se také pět nositelů Nobelovy ceny, podnikatel Richard Branson a herec Stephen Fry.

Iniciativa, kterou prosazuje Future of Life Institute (FLI), nevyžaduje symbolickou přestávku: požaduje úplný zákaz vývoje superinteligentních systémů, který by měl být zrušen až po dosažení „širokého vědeckého konsensu“ o jejich bezpečnosti a ověřitelné podpory veřejnosti.

Související článek

Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie
Milion robotů na poštovní známce. Nový průlom mění svět mikrotechnologie

Tým amerických vědců představil roboty menší než zrnko soli, kteří se dokáží sami rozhodovat, pohybovat a vnímat okolí bez vnější kontroly. Jde o zásadní milník v miniaturizaci, který otevírá nové možnosti v medicíně, výrobě i výzkumu na buněčné úrovni.

Propast mezi společností a velkými technologickými společnostmi

Dopis se shoduje se zveřejněním zprávy Future of Life Institute, která ukazuje masivní nespokojenost Američanů s rychlostí vývoje umělé inteligence a dochází k závěru, že existuje „jasný rozpor mezi deklarovaným posláním velkých společností zabývajících se umělou inteligencí a přáními veřejnosti„.

Fyzik Anthony Aguirre, výkonný ředitel FLI, v komentáři pro NBC uvedl, že problém není jen technický, ale také demokratický:

Tuto cestu si zvolily korporace a ekonomický systém, který je pohání, ale téměř nikdo se nezeptal zbytku lidstva, zda to chceme.“

Zatímco tedy korporace jako OpenAI, Google, Meta a xAI soutěží o dosažení takzvané AGI (neboli „obecné AI“), občané žádají opatrnost, transparentnost a kontrolu. Z průzkumu, který byl proveden mezi 29. zářím a 5. říjnem 2025, vyplývá, že

  • 64 % dospělých se domnívá, že superinteligence by se neměla vyvíjet, dokud nebude bezpečná a kontrolovatelná,
  • 69 % Američanů se domnívá, že vláda nedělá dost pro regulaci umělé inteligence,
  • více než polovina nedůvěřuje technologickým společnostem, že tuto technologii vyvíjejí zodpovědně,
  • 73 % požaduje přísnou regulaci,
  • pouze 5 % podporuje status quo rychlého, nekontrolovaného pokroku.

Firmy zrychlují, odborníci vyzývají ke zpomalení

Technologický závod zatím nevykazuje žádné známky zpomalení. Společnost Meta oznámila vytvoření skupiny zabývající se budováním „superinteligence“ pod názvem Meta Superintelligence Labs a OpenAI pokračuje ve vývoji stále výkonnějších modelů. Její generální ředitel Sam Altman nedávno prohlásil, že doufá v dosažení superinteligence do roku 2030 a že potenciální přínosy stojí za rizika.

Obavy z nekontrolovaného vývoje umělé inteligence nejsou nové. Odborníci na technologie a etiku již léta varují před potenciálními riziky AI bez odpovídající regulace. Obávají se, že bez jasného etického a právního rámce by mohla být UI využívána ke škodlivým účelům, od manipulace s veřejným míněním až po vytváření autonomních zbraní. Časopis Nature publikoval články o potřebě mezinárodních standardů pro vývoj AI a zdůraznil význam globální spolupráce při řešení těchto problémů.

Kromě toho se diskuse o AI zintenzivnila na politické scéně. V roce 2021 navrhla Evropská unie soubor předpisů pro AI, které klasifikují její aplikace do různých úrovní rizika a stanovují přísné požadavky pro vysoce rizikové aplikace. Tento přístup byl považován za potenciální vzor pro další země, které se snaží vyvážit inovace s veřejnou bezpečností. Více informací o tomto návrhu naleznete na internetových stránkách Evropské komise.

S tím, jak technologické společnosti rychle směřují k vytvoření superinteligence, se mezinárodní společenství, včetně vědců, politiků a občanů, stále více zajímá o etické a sociální důsledky tohoto vývoje. Otevřený dopis, který podepsalo více než 800 osobností, je naléhavou výzvou k zamyšlení a přijetí opatření, která zajistí, že budoucnost umělé inteligence bude bezpečná a prospěšná pro celé lidstvo.

#