Proč bychom mohli mít superinteligenci dříve, než si většina lidí myslí?

Aktuální nejmodernější AI modely jsou již nadlidské v mnoha oblastech, ale naštěstí ne ve všech. Pokud dosáhneme superinteligence před tím, než vyřešíme problém sladění cílů, hrozí nám riziko vyhynutí. Proto je nezbytné mít odhad, kdy bychom mohli mít superinteligenci, abychom nebyli zaskočeni. Pokud budou naše předpovědi příliš vzdálené, možná se nestihneme včas připravit.

Ale o kolik se můžeme mýlit? Kdy budeme mít superinteligenci? Může to být dříve, než si mnozí myslí.

Složený exponenciální růst

AI modely potřebují algoritmy, data a čipy. Každá z těchto složek se díky masivním investicím do AI rychle zlepšuje. Zlepšení jednotlivých složek se sčítají, což vede k exponenciálnímu růstu schopností AI.

  • Více čipů. ChatGPT byl trénován na 10 000 specializovaných čipech. Meta oznámila, že do konce tohoto roku bude mít 600 000 nových generací čipů pro trénování dalších AI modelů.
  • Rychlejší čipy. Každý rok jsou čipy rychlejší díky novým architekturám a inovacím v litografii. Čipy, které Meta používá, jsou 10x rychlejší než čipy použité pro ChatGPT. Také vidíme vysoce specializovaný hardware, jako jsou čipy Groq, které jsou 13x rychlejší než konkurence. Na delší časový horizont mohou ternární architektury nebo fotonické čipy učinit čipy ještě rychlejšími.
  • Více dat. GPT3 byl trénován na 45TB textu, GPT4 použil asi 20x více. AI společnosti nyní také používají obrovská množství video dat, zvukových dat a dokonce generují syntetická data pro trénink těchto modelů. Dříve byla myšlenka používání syntetických dat pro trénink považována za nemožnou kvůli kolapsu modelu, ale nedávné pokroky ukazují, že je možné tomu zabránit.
  • Lepší data. Studie „Textbooks are all you need“ ukázala, že použití vysoce kvalitních syntetických dat může dramaticky zlepšit výkon modelu, i když se použije mnohem méně dat a výpočetního výkonu.
  • Lepší algoritmy. Architektura Transformer umožnila současnou revoluci velkých jazykových modelů (LLM). Nové architektury mohou umožnit podobné skoky ve schopnostech. Například model Mamba ukazuje 5x rychlejší propustnost.
  • Lepší provozní prostředí. Agentní provozní prostředí, generace obohacená o vyhledávání nebo dokonce jen chytré zadávání dotazů (například pomocí Graph of Thought) mohou mít významný dopad na schopnosti těchto modelů.

Je zcela možné, že prosté škálování nás dovede k nebezpečným schopnostem během jednoho nebo dvou let, ale se všemi těmito faktory dohromady to může být ještě dříve.

V roce 2023 jsme dosáhli lidské úrovně výkonu v mnoha oblastech

V roce 2022 si AI výzkumníci mysleli, že bude trvat 17 let, než bude AI schopna napsat bestseller pro New York Times. O rok později vyhrál čínský profesor literární soutěž s knihou napsanou AI.

Na platformě Metaculus byla komunitní předpověď pro (slabou) AGI v roce 2057 ještě před třemi lety, a nyní je to 2027 2026.

Nyní se podíváme na definici AGI, kterou tato anketa použila:

  • Skóre >90 % v Winograd Schema Challenge
  • Skóre >75 % v SAT skórech
  • Absolvování Turingova testu
  • Dokončení hry Montezuma’s Revenge

GPT-4 dosahuje 94,4 % v Winograd Schema Challenge a 93 % v SAT čtení a 89 % v SAT matematice. Turingův test ještě neprošel, ale pravděpodobně ne kvůli nedostatku schopností. GPT-4 je optimalizován tak, aby lidi nemátl. Není pro obchod dobré, když AI říká lidem, že je člověk. Zbývá tedy jen Montezuma’s Revenge. Není nepředstavitelné, že by ho GPT-4 dokázal dokončit díky šikovnému nastavení, jako je použití AutoGPT k analýze obrazovky a generování správných vstupů. V květnu 2023 GPT-4 dokázal napsat kód, aby získal diamantové vybavení v Minecraftu. Stručně řečeno: GPT-4 splnil 2 ze 4 kritérií s jistotou, přičemž další dvě jsou na dosah.

Jsme tam. Máme (slabou) AGI. Trvalo to ne 35 let, ale tři. Zmýlili jsme se desetinásobně.

Proč většina podceňuje pokrok AI

Existuje mnoho důvodů, proč lidé podceňují pokrok AI.

  • Je těžké držet krok. Skoro každý den vidíme nové průlomy v AI. Je téměř nemožné držet krok s tempem pokroku. Nejste sami, pokud máte pocit, že zaostáváte.
  • Stále posouváme cílovou metu. V 90. letech lidé považovali za svatý grál AI něco, co by dokázalo hrát šachy. Když AI porazila Kasparova, další výzvou byla hra Go. Nyní máme stroje, které se umisťují v 99,9. percentilu v IQ testech, umí překládat 26 jazyků a vyhrát fotografické soutěže, přesto stále klademe otázky typu „Kdy dosáhne AI lidské úrovně?“. V mnoha oblastech nás již překonává, ale vždy se zaměřujeme na stále menší počet věcí, které umíme lépe.
  • Rádi si myslíme, že jsme výjimeční. Lidé mají rádi pocit, že jsou výjimeční. Pokud AI dokáže to, co dokážeme my, už nejsme výjimeční. Toto je těžká pilulka k polknutí a mozek má mnoho obranných mechanismů, aby se tomu vyhnul.
  • Jsme špatní v odhadu exponenciálního růstu. Máme tendenci strukturálně a předvídatelně podceňovat, jak se exponenciální růst kumuluje v čase. Toto bylo prokázáno ve vědeckých studiích.

Naštěstí stále existují věci, které AI nedokáže. Nedokáže hackovat lépe než nejlepší hackeři a nedokáže dělat AI výzkum tak dobře jako nejlepší AI výzkumníci. Když dosáhneme jedné z těchto hranic, budeme v nové fázi zvýšeného rizika.

Tak kdy dosáhneme bodu, kdy AI bude umět všechny tyto věci na nadlidské úrovni? Kdy budeme mít superinteligenci?

Ilyův práh

Klíčovým bodem, který bychom měli zvážit, je bod, kdy AI bude schopna provádět AI výzkum lépe než někdo jako Ilya Sutskever (bývalý hlavní vědec OpenAI). AI, která by dokázala přinášet smysluplné příspěvky k AI algoritmům a architekturám, by se pravděpodobně mohla zlepšovat sama. Nazvěme tento bod potenciálního sebezdokonalování Ilyův práh. Když ho dosáhne, může se AI sama zlepšovat, ať už na základě výslovného zadání, nebo proto, že být chytřejší je užitečný podcíl jiných cílů (AI již tvoří vlastní podcíle). Tyto iterace mohou trvat týdny (trénink GPT-3 trval 34 dní), ale je také možné, že bude implementováno určité zlepšení za běhu, které umožní významný pokrok během několika minut: výbuch inteligence.

Tak jak daleko jsme od Ilyova prahu? Je velmi těžké předpovědět kdy se určité schopnosti objeví s tím, jak LLMy škálujeme, ale zatím jsme viděli mnoho schopností, o nichž se dříve myslelo, že jsou daleko. Nejnovější AI modely již překonávají většinu lidských programátorů, takže není nepředstavitelné, že budoucí modely překonají všechny programátory.

Lepší čipy, více dat a lepší algoritmy přispějí k dosažení Ilyova prahu. Nemáme ponětí, jak sladit takovou AI (dokonce OpenAI to přiznává), a důsledky existence nesladěné superinteligence pravděpodobně budou katastrofální.

Jednat

Spoluzakladatel Anthropic Ben Mann věří, že existuje 30% šance, že Claude 3 (jejich nejnovější model) se může autonomně replikovat, pokud bude jemně naladěn a chytře zadáván. Bývalý výzkumník OpenAI Daniel Kokotajlo si myslí, že existuje 15% šance, že budeme mít AGI v roce 2024. Nikdo neví jistě, kdy dosáhneme Ilyova prahu. Ale sázky jsou příliš vysoké na to, abychom předpokládali, že máme mnoho času. Musíme jednat s ohledem na malou šanci, že jsme vzdáleni jen měsíce. Musíme pozastavit vývoj frontier AI právě teď. Je na každém z nás, abychom jednali a zajistili, že nás nic nezaskočí.