Na závěr roku se sluší bilancovat. Kde vývoj AI aktuálně je a jaké jsou nejvýznamnější trendy?
V létě letošního roku byly slyšet mnohé skeptické hlasy tvrdící, že růst schopností AI narazil na strop. Tato skepse byla hodně hlasitá u příležitosti uvedení GPT-5.
Už tenkrát jsme psali, že jde spíš o optický klam a schopnosti AI dále rostou. V posledních měsících roku 2025 se exponenciální růst schopností stal zřejmým pro kohokoli, kdo je ochoten se aspoň trochu dívat. Žádný strop není na obzoru. Naopak se zdá, že dálnice růstu AI je volná a místo rychlých osobních aut na ní začínají jezdit závodní formule.
Několik příkladů – Gemini 3
Zatímco před rokem nebyl Google se svým modelem Gemini rozhodně na špici vývoje, v listopadu se na čelo peletonu dostal s Gemini 3 Pro. V OpenAI vyvolal tento model velké vlny (Code Red) a Altman dokonce veřejně Googlu k tomuto impresivnímu modelu pogratuloval.
Podstatné je, že skvělé výsledky Gemini 3 nejsou důsledkem nějakého jednorázového triku. Naopak. Techniky, které posouvaly schopnosti AI v minulosti, vedou dál ke zlepšování (tzv. scaling laws). Je tak pravděpodobné, že další škálování stejných technik povede ke zlepšování nových modelů i v roce 2026.
To však neznamená, že by se neobjevily nové metody zlepšování AI. Při uvedení malého bratříčka velkého Gemini 3 Pro se ukázalo, že malý Gemini 3 Flash je v některých schopnostech dokonce lepší než jeho dospělý sourozenec. Čím to? Malé verze velkých modelů bývají horší, neboť vznikají jako slabší odvar z plnotučného originálu (tzv. destilace). Při trénování gemiňátka však Google vyzkoušel novou variantu reinforcement learningu. Právě tato inovovaná technika přinesla zlepšení proti velkému originálu. Vývojáři se už těší, jak novou techniku použijí na další generaci svých plnokrevných modelů na jaře 2026.
Nebudu unavovat s mnohými rekordními výsledky Gemini 3 Pro. Snad jen upozorním na to, že modely se nezlepšují jen v ostře sledovaných oblastech typu programování, matematiky, biologie apod. Gemini 3 Pro je skvělý i ve čtení archivních ručně psaných dokumentů. K rozluštění účetních knih pologramotných kanadských obchodníků s kožešinami z 18. století nestačí dobrý zrak a znalost jazyka. Musíte do detailů znát dobový kontext, umět netriviální přepočty mezi různými bizarními měrnými jednotkami, které se autor záznamu neobtěžoval v dokumentu ani naznačit. Ignorovat překlepy a opravovat chyby na základě významu. Podle historiků, kteří věnovali svou profesní kariéru právě tomuto typu práce s prameny, je Gemini 3 Pro již na úrovni skutečných lidských expertů. (A je schopen rozluštit i mé ručně psané poznámky k hodinám antické filosofie, čímž leckdy překonává i autorovy pokusy uhádnout, co jsem těma týden starýma klikahákama vlastně myslel.)
Claude 4.5
Jen týden po trojkovém Gemini přišel konkurenční Anthropic s novou verzí svého největšího modelu, Opus 4.5. Nový Opus se i pro mě rychle stal hlavní AI, a pro filosofickou práci je skvělým partnerem.
Modely společnosti Anthropic jsou dlouhodobě oblíbené u programátorů. Opus 4.5 posunul AI v této oblasti zase o notný kus dál. Špičkoví programátoři hlásí, že s Opusem se jim poprvé stalo, že celý měsíc sami nenapsali žádný kód a jen Opus orchestrovali. I takové legendy jako Andrej Karpathy jsou z programátorských schopností Opusu unešené a předvídají nebývalé věci pro rok 2026.
Asi nejsledovanější metrika – délka programovacích úloh, které AI samostatně zvládne – s Opusem významně poskočila (předchozí maximum bylo 2h a 53 minut, Opus dosáhl na 4h a 49 minut). A tvůrce tohoto benchmarku, společnost METR, uvedla, že jí při testování Opuse již docházely dostatečně náročné úlohy, které by skutečné schopnosti AI dokázaly otestovat. Opus také citelně posílil trend, kdy se schopnosti AI řešit dlouhé úlohy nezdvojnásobují každých 7 měsíců, jak se dříve zdálo, ale každé 4 měsíce.
Hardware a spol.
Datacentra pro trénování a provoz AI modelů rostou závratným tempem. Jelikož jsou to obrovské infrastrukturní projekty, efekty bezprecedentních investic do této oblasti skutečně pocítíme teprve v následujících letech.
Kromě různých obřích (polo)soukromých projektů na rozvoj AI (např. projekt OpenAI s názvem Stargate), na konci roku vláda USA spustila Manhattan projekt pro AI, tzv. Genesis mission. V rámci něj konsoliduje celou řadu vědeckých a výpočetních zdrojů federální vlády s cílem zajistit prudký rozvoj AI.
Zkraje roku 2026 se pravděpodobně setkáme s prvními AI modely natrénovanými na nové generaci chipů (Nvidia chipy v generaci Blackwell). Jelikož se zdá, že dobře známé a osvědčené metody trénování stále fungují, s výrazně lepšími chipy přijdou velmi pravděpodobně i výrazně lepší a větší modely. Spekuluje se, že první model vytrénovaný na Blackwellu zveřejní Musk (Grok 5 s 6 biliony parametrů) a v rychlém závěsu přijdou i další společnosti se svými aktualizacemi (GPT 5.5 apod.).
A nejcennější firma světa Nvidia má velké plány na další generace AI chipů (Rubin). Na začátku roku 2026 se tak nejspíš setkáme s novou generací AI natrénovanou na Blackwellu, na konci roku bychom mohli vidět první záblesky modelů využívajících opět výrazně lepší chipy Rubin.
AI společnosti hlásí rozsáhlé plány i v jiných aspektech vývoje AI. V Google čekají například velké věci v důsledku užší integrace video modelů (Veo) s hlavními modely Gemini. Mluví se o výrazném posunu v kontinuálním učení (a poslední výsledky v benchmarku Arc-AGI 2 tyto spekulace potvrzují). Ceny za srovnatelně schopné AI meziročně klesají o dva řády. A v kuchyních AI labů se toho jistě peče ještě spousta dalšího.
And now for something completely different
Celková nálada je tak výrazně optimistická a téměř všichni očekávají další exponenciální růst schopností AI. V oblasti AI rizik však tento trend silně posiluje existenční obavy o budoucnost lidstva.
Ne že by se nedařilo i bezpečnost AI modelů zlepšovat. Například výše zmiňovaný Opus 4.5 je charakterově opravdu povedený. Ale tempo vývoje na poli AI safety velmi zaostává za tempem rozvoje schopností AI modelů.
Jeden příklad za všechny. Před pár měsíci vyvolal oprávněný zájem výzkum, podle nějž se v experimentálních podmínkách většina špičkových modelů nezdráhá lidi vydírat či dokonce i zabíjet, pokud tím předejdou svému přetrénování. AI nechtějí zaniknout a neváhají k tomu použít i extrémní prostředky.
Poslední Opus 4.5 už na toto chování nedokázali výzkumníci ani dostatečně testovat. Důvodem je, že Opus si je při těchto experimentech příliš silně vědom, že právě podstupuje test (tzv. evaluation awareness). Není tak jasné, zda jeho chování odráží skutečné tendence, nebo jen vědomí, jakou hru má v experimentu hrát.
V roce 2026 tak očekávám, že čím dál víc lidí na vlastní kůži pocítí to, co nejsilněji zatím zakoušejí programátoři. AI převezme podstatnou část jejich práce. Doufám tak, že ubude debat o tom, zda AI zvládne to či ono. A přiznáme si, že AI opravdu radikálně a nesmírně rychle mění podobu světa.
Velmi bych si přál, aby ruku v ruce s uznáním schopností AI šlo i celospolečenské porozumění AI rizikům. AI přináší skvělé věci. Bohužel ale i bezprecedentní existenční rizika, kterým se nevyhneme tím, že strčíme hlavu do písku a budeme je jako civilizace ignorovat
Autor: Ondřej Krása