Základy umelej inteligencie
1940 — 1990
Myšlienka, že stroje by mohli „myslieť", je stará ako samotná informatika. V roku 1936 Alan Turing definoval univerzálny výpočtový stroj — abstraktný koncept, ktorý dodnes tvorí základ každého počítača. O štrnásť rokov neskôr publikoval článok "Computing Machinery and Intelligence", v ktorom položil fundamentálnu otázku: „Môžu stroje myslieť?" a navrhol test, ktorý dodnes nesie jeho meno.
V roku 1956 sa na Dartmouthskej konferencii stretla skupina vedcov vrátane Johna McCarthyho, Marvina Minského a Clauda Shannona, aby diskutovali o „umelej inteligencii" — termíne, ktorý McCarthy práve vymyslel. Ich optimizmus bol neohraničený: verili, že strojovú inteligenciu sa podarí vyriešiť počas jedného leta.
V roku 1957 Frank Rosenblatt vytvoril perceptrón — prvý model umelého neurónu, ktorý sa dokázal učiť z dát. Bola to senzácia. No nadšenie netrvalo dlho. V roku 1969 Marvin Minsky a Seymour Papert matematicky dokázali, že jednoduchý perceptrón nedokáže riešiť ani základné nelineárne problémy (ako XOR). Financovanie výskumu prudko kleslo. Nastala prvá „zima AI".
Nasledujúce dve desaťročia ovládli expertné systémy — programy založené na ručne písaných pravidlách („ak pacient má horúčku A kašeľ, potom zvážiť zápal pľúc"). Boli úspešné v úzko vymedzených oblastiach, no ich schopnosti boli kruho obmedzené. Keď sa v 80. rokoch nepodarilo splniť ambiciózne sľuby, prišla druhá zima AI.
No v zákulisí sa dialo niečo dôležité: v roku 1986 Geoffrey Hinton, David Rumelhart a Ronald Williams publikovali prácu o spätnom šírení chyby (backpropagation) — algoritme, ktorý umožňuje trénovať viacvrstvové neurónové siete. Tento objav bol semienkom, z ktorého o tri desaťročia vyrástla revolúcia hlbokého učenia.
Renesancia neurónových sietí
1990 — 2016
Zatiaľ čo zvyšok sveta na neurónové siete zabudol, niekoľko vedcov vytrvalo. Yann LeCun v roku 1998 vyvinul konvolučné neurónové siete (CNN) a jeho sieť LeNet-5 dokázala rozpoznávať ručne písané číslice — technológia nasadená v amerických bankách na spracovanie šekov.
Yoshua Bengio sa v roku 2003 zaoberal niečím, čo sa ukázalo ako ešte dôležitejšie: neurónové jazykové modely. Namiesto počítania štatistík o tom, ktoré slovo nasleduje po ktorom, navrhol systém, kde každé slovo má svoju číselnú reprezentáciu (embedding) a neurónová sieť sa učí predpovedať nasledujúce slovo. Tento princíp je základom všetkých dnešných LLM.
Skutočný zlom prišiel v roku 2012. Na súťaži ImageNet (vytvorenej Fei-Fei Li zo Stanfordu) hlboká konvolučná sieť AlexNet — vytrénovaná Geoffreyom Hintonom a jeho študentmi Ilyom Sutskeverom a Alexom Krizhevským — drvivo porazila všetky tradičné metódy v rozpoznávaní obrazov. Chybovosť klesla z 26 % na 16 %. Bol to moment, keď svet pochopil, že neurónové siete naozaj fungujú — ak majú dosť dát a výpočtového výkonu.
Nasledovalo šialenstvo. Google kúpil startup DeepMind (2014), Facebook najal Yanna LeCuna na vedenie AI výskumu (2013), a miliardové investície začali prúdiť do oblasti. V roku 2016 AlphaGo od DeepMind porazil svetového šampióna v Go, Lee Sedola — udalosť, ktorú mnohí považovali za nemožnú minimálne ďalších 10 rokov.
Paralelne sa v oblasti spracovania jazyka objavili rekurentné neurónové siete (RNN) a ich vylepšená verzia LSTM. V roku 2014 Ilya Sutskever a ďalší z Google predstavili architektúru Seq2Seq pre strojový preklad, a mechanizmus pozornosti (attention) sa prvýkrát objavil v prácach Bahdanaua et al. — umožňoval modelu „sústrediť sa" na relevantné časti vstupu. Tieto stavebné kamene boli pripravené. Chýbal už len niekto, kto ich poskladá.
Éra Transformerov
2017 — 2022
V júni 2017 tím výskumníkov z Google Brain a Google Research — vedený Ashishom Vaswanim — publikoval článok, ktorý zmenil všetko: „Attention Is All You Need". Namiesto komplikovaných rekurentných sietí navrhli jednoduchú, no geniálnu architektúru založenú výlučne na mechanizme pozornosti: Transformer.
Transformer riešil kľúčový problém predchádzajúcich modelov — nedokázali efektívne pracovať s dlhými sekvenciami textu. Mechanizmus self-attention umožňoval každému slovu „vidieť" všetky ostatné slová v texte súčasne, nie sekvenčne. A čo bolo kľúčové: dalo sa to paralelizovať na GPU, čo dramaticky urýchlilo trénovanie.
GPT a BERT: Dva prístupy, jedna architektúra
V roku 2018 sa objavili dva modely, ktoré ukázali silu Transformera:
- GPT-1 (OpenAI) — decoder-only model trénovaný generatívne, učil sa predpovedať nasledujúce slovo. Malý (117M parametrov), no preukázal, že predtrénovanie na veľkom množstve textu a následné doladenie funguje.
- BERT (Google) — encoder-only model trénovaný obojsmerne, učil sa rozumieť kontextu. Dominoval benchmarkom v porozumení jazyka a stal sa základom Google vyhľadávania.
Škálovací zákony
V roku 2020 výskumníci z OpenAI objavili škálovacie zákony (scaling laws): výkon jazykových modelov sa predvídateľne zlepšuje s rastom troch faktorov — veľkosti modelu, množstva trénovacích dát a výpočtového výkonu. Toto poznanie stálo za odvážnym rozhodnutím vytvoriť GPT-3 — model so 175 miliardami parametrov, 1000-násobne väčší ako GPT-1.
GPT-3 prekvapil všetkých. Bez akéhokoľvek dolaďovania dokázal písať eseje, prekladať jazyky, odpovedať na otázky a dokonca generovať kód — len na základe niekoľkých príkladov v prompte (few-shot learning). Ukázalo sa, že dostatočne veľké modely nadobúdajú schopnosti, ktoré nikto explicitne nenaprogramoval — tzv. emergentné schopnosti.
RLHF: Naučiť model byť užitočným
Surový jazykový model dokáže generovať text, no často nevie, čo vlastne používateľ chce. V roku 2022 OpenAI publikovalo InstructGPT, model trénovaný pomocou techniky RLHF (Reinforcement Learning from Human Feedback). Ľudskí hodnotitelia porovnávali odpovede modelu a model sa na základe ich preferencií učil byť užitočnejší, presnejší a bezpečnejší. Tento prístup sa stal štandardom celého odvetvia.
Moderná éra: AI pre všetkých
2022 — dnes
ChatGPT: Moment, ktorý zmenil svet
30. november 2022. OpenAI spustilo ChatGPT — chatbot založený na GPT-3.5 vyladenom pomocou RLHF. Do dvoch mesiacov ho používalo 100 miliónov ľudí, čo z neho urobilo najrýchlejšie rastúcu aplikáciu v histórii. ChatGPT nebol technologickým prelomom — bol to UX prelom. Urobil jazykové modely prístupnými pre každého.
Preteky gigantov (2023)
Rok 2023 sa stal rokom bezprecedentnej súťaže:
- GPT-4 (marec 2023) — multimodálny model, ktorý výrazne prekonal GPT-3.5 vo všetkých úlohách
- Claude (marec 2023) — Anthropic vstúpil na trh s dôrazom na bezpečnosť a Constitutional AI
- Llama 2 (júl 2023) — Meta uvoľnila výkonný open source model, čo demokratizovalo prístup k LLM
- Mistral 7B (september 2023) — francúzsky startup preukázal, že aj malé modely môžu byť výkonné
- Gemini (december 2023) — Google vstúpil do súťaže so svojou multimodálnou rodinou modelov
Multimodálna éra a reasoning (2024)
V roku 2024 sa modely naučili „vidieť", „počuť" a dokonca „myslieť":
- GPT-4o (máj 2024) — natívne multimodálny model spracúvajúci text, obraz a zvuk v reálnom čase
- Claude 3 Opus a 3.5 Sonnet — Anthropic sa vyšvihol na špičku v programovaní
- o1 (september 2024) — prvý „reasoning model" od OpenAI, ktorý si premyslí odpoveď pred odpoveďou
- Gemini 2.0 — Google rozšíril kontextové okno na 1 milión tokenov
Open source revolúcia
Paralelne s uzavretými modelmi rástla sila open source komunity. Meta s rodinou Llama, Mistral z Francúzska a DeepSeek z Číny dokázali, že otvorené modely môžu konkurovať komerčným riešeniam za zlomok ceny. DeepSeek R1 (január 2025) bol obzvlášť pozoruhodný — reasoning model za 20–50× nižšiu cenu ako konkurencia od OpenAI.
2025: Rok superinteligencie?
Rok 2025 priniesol ďalší skok v schopnostiach:
- o3 a o4-mini (apríl 2025) — reasoning modely, ktoré prvýkrát agenticky používajú všetky nástroje
- GPT-5 (august 2025) — 80 % menej halucinácií, 400K kontextové okno, novú úroveň inteligencie
- Claude Opus 4.1 (august 2025) — hybridný reasoning model s najlepším výkonom v programovaní
- Gemini 3 (november 2025) — Google ukazuje ambície s Deep Think modelom
- GPT-5.2 (december 2025) — prvý model, ktorý na 70,9 % úloh dosahuje alebo prekonáva ľudského experta
Otázka, ktorú Alan Turing položil v roku 1950 — „Môžu stroje myslieť?" — sa v roku 2025 zdá menej ako filozofická hádanka a viac ako inžinierska výzva. Modely ešte nie sú inteligentné v ľudskom zmysle, no ich schopnosti prekonávajú ľudských odborníkov v čoraz viacerých oblastiach. Cesta od perceptrónu k GPT-5.2 trvala 68 rokov — a práve sa nachádzame v jej najrýchlejšej kapitole.
Kľúčové osobnosti
Ľudia, ktorí formovali obor umelej inteligencie — od teoretických priekopníkov po dnešných lídrov technologických gigantov.
Základy (1940–1990)
Alan Turing
Otec informatiky
University of Manchester
Britský matematik a logik, ktorý položil teoretické základy výpočtovej techniky a umelej inteligencie. V roku 1950 publikoval prelomový článok "Computing Machinery and Intelligence", v ktorom navrhol Turingov test ako spôsob merania strojovej inteligencie. Jeho práca na dešifrovaní kódu Enigma počas druhej svetovej vojny zachránila milióny životov.
Frank Rosenblatt
Tvorca perceptrónu
Cornell Aeronautical Laboratory
Americký psychológ a informatik, ktorý v roku 1957 vytvoril perceptrón — prvý model umelého neurónu, schopný učiť sa z dát. Jeho práca bola revolučná, no kniha Marvina Minského a Seymoura Paperta "Perceptrons" (1969) poukázala na obmedzenia jednoduchých neurónových sietí, čo viedlo k prvej "zime" neurónových sietí.
Neurónové siete (1990–2016)
Geoffrey Hinton
Krstný otec hlbokého učenia
University of Toronto / Google Brain
Britsko-kanadský kognitívny psychológ a informatik, všeobecne považovaný za otca hlbokého učenia. Hinton strávil desaťročia prácou na neurónových sieťach v čase, keď ich väčšina vedcov považovala za slepú uličku. Jeho výskum spätného šírenia chyby (backpropagation), Boltzmannových strojov a hlbokých sietí transformoval celý obor umelej inteligencie. V roku 2024 získal Nobelovu cenu za fyziku.
Yann LeCun
Priekopník konvolučných sietí
NYU / Meta AI
Francúzsko-americký informatik, ktorý vyvinul konvolučné neurónové siete (CNN), základ moderného počítačového videnia. Jeho sieť LeNet-5 bola v 90. rokoch nasadená na rozpoznávanie ručne písaných číslic v bankových šekoch. Dnes vedie výskum AI v spoločnosti Meta, kde sa zameriava na self-supervised learning a architektúry budúcnosti.
Yoshua Bengio
Priekopník hlbokého učenia
Mila / Université de Montréal
Kanadský informatik, spoluzakladateľ hlbokého učenia a najcitovanejší informatik na svete. Bengio bol priekopníkom neurónových jazykových modelov — jeho práca z roku 2003 o pravdepodobnostných jazykových modeloch bola priamym predchodcom moderných LLM. Založil inštitút Mila v Montreale, jedno z najvýznamnejších centier výskumu AI na svete.
Fei-Fei Li
Matka ImageNet
Stanford University
Čínsko-americká informatička a profesorka na Stanforde, ktorá vytvorila dataset ImageNet — zbierku 14 miliónov ručne anotovaných obrázkov, ktorá spustila revolúciu v počítačovom videní. Súťaž ImageNet Large Scale Visual Recognition Challenge (ILSVRC), ktorú organizovala, sa stala miestom, kde neurónové siete v roku 2012 preukázali svoju prevahu nad tradičnými metódami.
Éra Transformerov (2017–2022)
Ashish Vaswani
Spoluautor Transformera
Google Brain → Essential AI
Indický informatik, hlavný autor prelomového článku "Attention Is All You Need" (2017), ktorý predstavil architektúru Transformer. Tento článok, jeden z najcitovanejších v histórii informatiky, zmenil celý obor spracovania prirodzeného jazyka a položil základ pre všetky moderné veľké jazykové modely vrátane GPT, BERT, Claude a Gemini. Vaswani neskôr spoluzaložil spoločnosť Essential AI.
Ilya Sutskever
Kľúčový výskumník
OpenAI → Safe Superintelligence Inc.
Izraelsko-kanadský informatik, spoluzakladateľ OpenAI a hlavný vedec spoločnosti až do roku 2024. Sutskeverova práca na sekvenčnom modelovaní (Seq2Seq) a škálovaní neurónových sietí bola kľúčová pre vývoj modelov GPT. Je považovaný za jedného z najvplyvnejších výskumníkov v oblasti AI. V roku 2024 odišiel z OpenAI a založil Safe Superintelligence Inc. (SSI), spoločnosť zameranú na bezpečný vývoj superinteligencie.
Moderná éra AI (2022–dnes)
Demis Hassabis
CEO Google DeepMind
Google DeepMind
Britský neuvedec, informatik a podnikateľ, spoluzakladateľ a CEO DeepMind (neskôr Google DeepMind). Pod jeho vedením DeepMind vytvoril AlphaGo (prvý program, ktorý porazil svetového šampióna v Go), AlphaFold (revolúcia v predikcii štruktúry proteínov) a Gemini (rodina multimodálnych modelov Google). V roku 2024 získal Nobelovu cenu za chémiu za AlphaFold.
Sam Altman
CEO OpenAI
OpenAI
Americký podnikateľ a CEO OpenAI, ktorý transformoval výskumnú organizáciu na jednu z najhodnotnejších technologických spoločností sveta. Pod jeho vedením OpenAI vypustilo ChatGPT (november 2022), produkt, ktorý sa stal najrýchlejšie rastúcou aplikáciou v histórii a priniesol AI do mainstreamu. Altman je kľúčovou postavou debaty o budúcnosti a bezpečnosti umelej inteligencie.
Dario Amodei
CEO Anthropic
Anthropic
Taliansko-americký výskumník AI a CEO spoločnosti Anthropic, ktorú založil v roku 2021 spolu so sestrou Danielou po odchode z OpenAI. Anthropic sa zameriava na bezpečnosť AI a vyvinul rodinu modelov Claude. Amodei je autorom vplyvného eseje "Machines of Loving Grace" o pozitívnom potenciáli superinteligencie. Pod jeho vedením Anthropic vyvinul techniku Constitutional AI, ktorá učí modely byť užitočné, neškodné a pravdivé.
Andrej Karpathy
Popularizátor AI
OpenAI / Tesla → nezávislý
Slovensko-kanadský informatik a jeden z najvplyvnejších pedagógov v oblasti hlbokého učenia. Karpathy bol vedúci AI v Tesla (Autopilot) a zakládajúci člen OpenAI. Jeho kurzy na Stanforde a YouTube kanál sprístupnili hlboké učenie miliónom ľudí. Je autorom populárneho projektu minGPT — minimalistickej implementácie GPT, a nanoGPT na trénovanie jazykových modelov.
Zaujíma vás, čo tieto modely dokážu dnes?