Sam Altman o možném konci světa: Pokud se AI vymkne kontrole, žádný bunkr vás nezachrání

Sam Altman o možném konci světa: Pokud se AI vymkne kontrole, žádný bunkr vás nezachrání

Sam Altman je bezpochyby jednou z klíčových postav tohoto desetiletí. Od doby, kdy na trh celosvětově vtrhla společnost ChatGPT, se s nezměrným úspěchem modelů umělé inteligence věci rok od roku jen zrychlují. Vyvolal však také nový strach, a to z apokalypsy způsobené umělou inteligencí, a proto si mnoho bohatých lidí pořizuje vlastní bunkry.


Nyní, kdy mezi USA a Čínou probíhá jakási studená válka, je strach ještě větší, zejména poté, co se na světovém trhu objevila čínská umělá inteligence, například DeepSeek. Nyní, když je Sam Altman v centru pozornosti kvůli svým střetům s Elonem Muskem, který chce koupit OpenAI, je na čase vrátit se k rozhovoru, který poskytl v roce 2023, na úsvitu umělé inteligence, a v němž vysvětlil nebezpečí umělé obecné inteligence (AGI) a to, že žádný bunkr nemůže zachránit lidstvo, pokud se vymkne lidské kontrole.

Zlá AGI a konec lidstva

Lidé se stali dominantním druhem především díky svému transformačnímu potenciálu a inteligenci. To není nic neobvyklého, ale nikdy jsme se nemuseli potýkat s inteligentnějším druhem, než jsme my. Cílem obecné umělé inteligence je, aby tomu tak bylo, což vyvolává určité obavy.

V rozhovoru pro Business Insider Altman prohlásil, že má „nějaké struktury“, ale nenazval by je bunkrem jako takovým, ale jakýmsi bezpečným útočištěm. O ničivém potenciálu AGI a nemožnosti najít bunkr, který by nás před ním zachránil, však mluvil otevřeně:

Související článek

Mysleli jsme si, že nové umělé inteligence halucinují více než kdy jindy. Ve skutečnosti má problém OpenAI
Mysleli jsme si, že nové umělé inteligence halucinují více než kdy jindy. Ve skutečnosti má problém OpenAI

Umělá inteligence zažívá nebývalý pokrok ve schopnostech a uvažování, ale zároveň se setkáváme se zajímavým jevem: zatímco některé modely zlepšují svou přesnost, u jiných se zdá, že se zvyšuje míra halucinací.

„Nic z toho nepomůže, pokud se AGI pokazí, je to směšná otázka.“

Sam Altman je tím, čemu se v americké kultuře říká „prepper“. Tento typ člověka se připravuje na situaci, která se vymkne kontrole a při níž by se mohla odehrát apokalypsa, ať už jaderná, nebo jiná. Je však jasné, že tak nečiní s ohledem na ničivé vypuknutí AGI, protože v takovém případě by se nezachránil ani jejich stvořitel.

Altman tak v roce 2023 objasnil svou vizi destruktivního potenciálu AI, ačkoli se chce této situaci vyhnout a pokračovat ve vývoji AI způsobem, který bude efektivní a bezpečný pro všechny. Nedávno prohlásil, že se ocitl na špatné straně dějin.

Zdroje článku:
wired.com
ted.com

#