Už nerozhoduje model, ale ekosystém kolem něj
Frontier modely se na sebe dotahují. O tom, jak vám AI poslouží, dnes rozhoduje tooling, přístup k datům a otevřenost platformy — ne benchmark.
Autor: Filip Oborník
Tento článek vznikl s pomocí AI z transkriptu výše uvedeného videa. Pro maximální přesnost se podívejte na video, případně si rozbalte plný transkript níže.
Zobrazit celý transkript videa
Krásný den, vítejte u dalšího dílu Coffee Break s Filipem. Já se jmenuji Filip Poporník s projektou AI s rozumem. Doufám, že pijete taky něco dobrého. Já jsem si tady vzal opět tématicky kávu.
A v dnešním díle bych se s vámi chtěl zamyslet nad tím, že možná AI modely už nejsou to nejdůležitější ve světě AI a že mnohem víc důležitější jsou nástroje, které jim dáváme a jak jim je dáváme a taky jak mají přístup ty modely k těm datům, ergo ten ekosystém kolem toho. My jsme poslední rok, dva, tři možná už poslouchali o tom, jak vlastně AI modely jsou důležitý, soustředili jsme se na benchmarky, porovnávali jsme, když vyšel nový model, a když vyšel novej model, lepší u konkurence, tak spousta lidí přeběhlo k té konkurenci. Zkrátka, bylo to hodně o tom, jak silní ty AI modely jsou. Bavím se teď primárně o jazykových modelech.
No a posledního řekněme půl roku nebo rok, tak vnímám to, že víc a víc začíná být důležitý ne ten model jako takovej, ale ty nástroje a jaký přístup mu dáváme. Já to vidím nejvíc na Cloud Codu, kde sice jako využíváme ty nejlepší modely, to je pravda, a ten model je pořád jako základ, nemůžete mít jako slaboučkej lokální model a dát mu skvělý nástroj a očekávat jako skvělý výsledky. 5c ještě tehda, vlastně ty nástroje, tak najednou mnohem zlepšil ten výstup těch modelů, protože najednou ten model dostal možnost, jak si sbírat další kontext a jak vlastně verifikovat ty svoje výstupy, což je za mě extrémně pro ty modely důležitý. No a Claude Cott začal ukazovat, že vlastně není to jenom o tom, jaký máte model, ale zároveň o tom, jak s ním dokážete pracovat a ty nástroje mu poskytnout.
Takže tohle byl za mě jako obrovský další krok nástroje pro ty modely a dneska to je podle mě jako Alfa Omega. Nechte ty modely, aby měly nástroje na to, aby získávaly informace a zároveň měly verifikovat ty svoje výstupy, jestli jsou dostatečně dobrý. Nicméně u toho to nekončí. Jako jedna věc je to, že máte model, který umí používat nástroje a druhá věc je, že mu jeho musíte poskytnout.
A teďka. aplikace, jako či GPT a CLOD na webu teďka myslím, tak jsou do jistým jeden limitovaný, protože vy musíte napojit na ty externí aplikace, často pomocí MCP serveru a MCP servery jsou známý tím, že jsou sice skvělej přístup, jak asi jako napojit tu AI aplikaci na nějaký data a jako jednotným formatem pro ty, co nevíte, co je MCP server, tak si to představte jako takovej takový USB nebo takovou zásuvku pro AI modely. Je to prostě standardizovaný přístup, jak získat nějaký vlastně jako informace. A ty dvě služby se nikdy nemusely potkat, ale je to nějaký protokol, nějaký standard, který říká, jak se ty informace budou vyměňovat.
A na základě tady těch MCP, tak vy jste jako schopní ty informace získávat. Nicméně ty MCP servery jsou jako velice známý tím, nebo obecně spíš ten jako MCP protocol je známý tím, že jako žere hodně tokenů. Je poměrně jako token heavy a zároveň v provnání s nějakýma jako jinýma přístupama tak je ho velice pomalý. Takže vy v těch webových aplikacích jste odkázaný na to, že někdo ten MCP server vystavil, vy se nejmůžete jako napojit, případně si musíte vystavit do internetu nějaký vlastní a na ten se napojit.
A to je jako poměrně velká komplikace, ta efektivita, ty komunikace není tak jako rychlá a jste závislí na tom, co ten poskytovatel vám jako vystaví ven. Další úrovní je, že teda vy tu AI, nebo ten jako klienta toho, se kterým si povídáte, budete pouštět u sebe na počítači. To jsou ty desktopové aplikace, to je Cloud, nebo či GPT, ale opravdu ta stažená aplikace. No a tam máte trošku víc možností, protože vy jste schopný si ty MCP servery spustit u sebe na počítači.
Takže jako tady odpadá ta závislost, že musíte vlastně jako spolíhat na to, že někdo ten MCP server vystavil venku, nějaká ta firma, která ty data poskytuje, nebo nějaký nezávislý člověk, že vystavil nějaký jako server, ale samozřejmě tam má jako provozní náklady, takže pravděpodobně tady ty servery jako nebyly nikdy zadarmo. nebo jste si ho museli nasadit sami. Tady vám to odpadá, můžete si to zpustit u sebe na počítači. Často stačí jenom vložit do konfigurace vlastně to připojení k tomu MCB serveru a už ta aplikace desktopová se k tomu dokáže sama připojit.
No a potom jsme šli ještě dál a to je třeba právě Cloud Code. kterému dáváme přístup i k nějakým jako delším systémovým operacím. Je tu třeba i Cloud Cowork. Takže vlastně ta aplikace Cloud, kterou máte v počítači, tak nově pro Maxplány a ve waitlink listu v betě, myslím, že je to i pro plány, tak přidala záložku Cowork, která je Cloud Code, jenom oblečenej, tak jenom, aby vás to nezmátlo, až se do ty aplikace půjdete podívat.
Nicméně, když zůstávám u toho Cloud Codu, tak ten vlastně umí všechno, co umí ta lokální aplikace, plus ještě přidává tu možnost, že může na vašem počíteči spouštět nějaký programy. A to je za mě extrémně zajímavé, protože Opět, nějaký chatovací asistenti na webu, tady ty programy uměli spouštět taky, ale zase jste odkázaný na to, co vám OpenAI dovolí, nebo co vám Anthropic dovolí. Zkrátka nemá ten agent takovou flexibilitu, protože ty programy spouštím nějakým prostředí. Je omezený nějaký tech stack a nějakou dílku toho běhu atd.
Když to ten agent to spouští u vás na potítači, tak nejednou vlastně jako není omezený ničím. protože to běží prostě u vás, takže on může čekat klidně jako deset minut, než se to provede. To ničemu zkrátka nevadí. A to byl vlastně jako delší krok, takže vlastně jako rozšíření možností těch agentů o to, aby používali do jistý míry váš počítač, dá se říct.
A pak je ten jako největší extrém, což je vlastně jako Clawed Bot, nebo myslím, že teď se to jmenuje Open Claw, což je vlastně ten agent, který má jako komplet, komplet kontrolu nad tím serverem. nebo vaším počítačem, ale věřte mi, jako to opravdu nechcete, nechcete OpenCLO si pouštět u sebe na počítači, kde máte svoje data, jako buď to na nějakém dedikovaném, kde nemáte nic, a nebo na servru, protože tím, že on má jako neomezený přístup k vašemu počítači, tak opravdu nechcete ho pustit k tomu, aby něco dělal. My si pravděpodobně uděláme další epizodu na OpenCLO, ale já si ho vyzkouším, ale To je za mě jako ten nejvíc pokročilej, nebo nejvíc jako, vlastně jako nejmíně omezený model nebo ty jeho možnosti, protože zkrátka může dělat prakticky cokoliv. No a to je ta největší autonomie toho agenta.
Můžeme se bavit o tom, jestli je to dobře nebo špatně z pohledu nějaký bezpečnosti a tak dál, ale to nechme prozatím stranou. Takže jako jsme u toho, kdy vlastně ten ekosystém toho modelu je mnohem důležitější než ten model samotnej. Samozřejmě je důležité, aby jsme měli model, který má skvělý agentový vlastnosti, je jako dotrénovanej na ten tool use, aby uměl používat ty nástroje, je dotrénovanej, aby vlastně jako efektivně uměl plánovat úkol a tak dál, ale To si trofňuje, když začínají nový modely už bejt a v budoucnu pravděpodobně to budou umět všechny modely. To znamená, že zase ten rozdíl mezi těma modelama se jako smazává a je to spíš o tom, jak vy pak efektivně poskytnete tomu modelu ty nástroje a zároveň jako budete řídit, aby ten model se jako neutrhl z řetězu.
No a Tak to máme, ten tool use. Tady podle mě jako krásně vidět, proč ten výkonnost modelu nemusí být tak stěžejní v porovnání s tím ekosystemem, kterýmu dáte. No a teď ještě mi přijde strašně zajímavé přemýšlet nad tím ekosystémem jako nad celkem. To znamená nad tím propojením služeb, který vy už používáte, protože do OpenCLO nebo podobných, do cloud kodu.
Můžete napojit e-mail přes nějaké MCPčko nebo přes nějakého servera a dá se tam jako dostat, ale ta podpora není řekněme jako úplně ideální, protože vy ho tam jako dostanete, ale teď nemáte tu uživatelský rozhraní a je to řekněme, jako ty data dokážete do těch modelů nebo těch nástrojů dostat, ale ta práce s nima není tak ideální, protože najednou ztrácíte to UI třeba, který máte rádi, se kterým se vám dobře jako pracuje. No a tady přichází podle mě jako obrovská výhoda společnosti jako je Google a Microsoft, který mají zaběhnutý obrovský firmní ekosystémy, což je Google Workspace, kde máte maily, správu dokumentů, úložiště, Google Sheets, různý formuláře, Google Meet, meetingy a další jako věci. U Microsoftu tak je to vlastně dost podobný, tam jsou ještě Teamsy, což je jako komunikační nástroj, to je za mě taky jako obrovský mocná věc. A teď jako vy máte ten už existující ekosystém a do toho vy začnete vlastně jako zapojovat AI.
A to je za mě jako ta nejlepší výhoda, kterou tyhle dvě společnosti mají. Protože představte si to, že máte firmu, máte zahytej Google Workspace a teď najednou kvůli tomu, že chcete používat AI, tak musíte zapojovat GPT a teď si tam v každým musí napojit ty maily, A teď jako vlastně nevíte, kam to jde, protože to je jako zase u jiný společnosti, takže musíte řešit nějaké jako povolení, nějaké audity, jestli je to za vás jako v pohodě a máte jako úplně separátní oddělený systém, ty data se vám jako ukládají třeba někam jinam. a zkrátka jenom nefunguje to tak dobře. A ta adopce bude zkrátka jako pomalejší, protože ty lidi si budou muset zvykat na úplně nový systém.
Ale teď si jako představte to, že vy vlastně to máte v rámci toho vašeho ekosystému, takže pro ty vaše lidi, pro ty vaše zaměstnance se nic nemění, nebo i pro vás, že? Vy prostě používáte Gmail, jak jste ho používali do posud. Vy používáte Google Drive, jako jste ho používali do posud. Nebo vy používáte Teamsy jako do posud.
Jediné, co se změnilo je, že tam přibyla někde nějaká AI. U mailu tak například tam může do budoucna přibýt nějaký daily sumary. Google už s tím teďka experimentuje. Myslím, že se to jmenuje CC, ten experiment, kde vám vlastně schrne ty maily a řekne vám nějaký daily sumary.
Takže představte si, že přijdete do Gmailu a najednou tam vidíte daily sumary toho, nebo to schrnutí toho, co se vlastně v těch mailech událo. Tady jsou nějaké nejdůležitější maily, podle obsahu tady je tohle. A vy vlastně jako uživatel, tak i když nejste AI zběhlej, tak vy nemusíte přemýšlet nad tím, jak tady to summary, tohleto schematí udělat. Ono je to naservírované přímo pro vás, proaktivně.
To znamená, že vy přijdete do toho rozhraní a najednou už máte ty výsledky. A to je za mě jako extrémní výhoda, toho ekosystému jako celku, takže to není jenom o těch nástrojích, který musíte manuálně připojovat, ale vlastně toho, že vy ten AI model jste schopný implementovat do celého toho ekosystému, který už máte, a vlastně ty nástroje mu dáváte tak, jak vy už máte ty služby vytvořený, jste schopný docílit ty nativní zkušenosti. A podle mě díky tomuhle je ta adopce, nebo bude ta adopce pro podobný nástroje mnohem rychlejší, než je třeba pro chat GPT. A já v tomhle vidím třeba pro chat GPT jako obrovský problém, respektive pro OpenAI.
Protože vy najednou musíte měnit fungování té svojí firmy, datový toky, komunikační toky. Zkrátka potřebujete to do toho chat GPT nějak jako dostrkat. Ale když to když máte Gemini, nebo kopilota od Microsoftu, a máte to přímo v Teamsech, nebo máte to na Google Meetech, nebo máte to jako kdekoliv, tak najednou ty data tam jsou, stačí tu AI, že to řeknu blbě, jako zapnout, najednou se věci budou dít a i lidi, který dřív by... do těch GPT maximálně vlezly jednou za týden, tak najednou tu AI začnou používat aktivně, protože ty data jim jsou vlastně jako naservírovaný na základě toho, co ty aplikace používají běžně.
Takže já si z tohohle pokudu myslím, že aplikace od Google a od Microsoftu budou mít mnohem větší výhodu oproti těm klasickým nástrojům, jako je GPT. Dostáváme se ale do toho bodu, kdy já třeba osobně, tak teď pomenu tady, dobře, tohle bylo primárně jako výhoda pro adopci v nějaký firmě, kde třeba ty lidi nemusí být tolik ESB hlíd, ale já třeba preferu, aby ty systémy byly otevřený. To znamená, abych se nějak mohl připojit a ty data si třeba přechroustat před zpracovat sám. A Google je na tohle super.
Vy máte prostě přístup k těm datům, na Google Drive se přes API napojíte, napojíte se do Google Docu, napojíte se do vašeho Gmailu a dalších věcí a můžete s ním pracovat poměrně efektivně. Chce to nějaký setup, takže zase tady je trošku ta nevýhoda, ale ty data máte. A to je za mě jako obrovská výhoda. Protože, co já vždycky u těch služeb hledám, tak není jenom ten ekosystém a to pro poropojování, ale je ta flexibilita toho.
Protože ten AI svět a ty nástroje se vyvíjejí za mě jako extrémně rychlým tempem. A co já tam hledám je to, abych mohl ty nástroje vlastně jako vohnout trošku. Takže já strašně rád používám ekosystém Google, protože mi šetří spoustu času, ale zároveň chci třeba do toho Google dosku mít možnost si tak jako šahnout, něco vytáhnout, něco s tím udělat a pak si to tam zase jako vrátit. A tohle Google umožňuje a to je za mě jako super.
A to je třeba za mě prostě nejdůležitější kriterium, když vybírám, jakou AI aplikaci budu používat. Ta otevřenost, to zkrátka, abych s tím mohl zpracovat. Takže když to schrnu, z mýho pohledu, když vlastně vybírám, jaký AI nástroje, řekněme, dneska už budu používat, Minoritně je to o tom, jaký model používá. Pokud vyloženě používají nějaké blbý modely, tak to je za mě ten základ.
A to už dneska většina nástrojů běží na těch frontier modelech a troufnu si třeba, že jsou dosti srovnatelný. Jasně jsou tam nějaké nuance, vždycky se to nedá paušalizovat celek, ale nějaká pravděpodobnost. Průměrně by se dalo říci, že ty modely jsou v průměrných věcech stejný. nebo dosti podobný, takže jako pro mě ten model už není tak velký kriterium, je to spíš o tom, jak jednoduše ty nástroje mu můžu poskytnout a jak jednoduše mu můžu poskytnout ten kontext.
Jedna věc jsou věci, kdy mám absolutní svobodu, Vždycky to tam jsem schopný jako dostrkat přes to MCP a takhle používám třeba jako cohort nebo cloud kóda a používám ho skoro na všechno. Pak je ještě open cloud, který je skvělej, tam jenom to zlobylo s tím předplatným, takže zatím jsem na cloud kódu, ale chtěl bych se dostat do toho open kódu, protože zase open, máte tam tu moc nad tím, jako není to prostě, antropikuje to, tý community. Takže to je za mě lepší. No ale potom jsou ještě vlastně...
Kromě těch nástrojů, jak je jako popřipojevat, tak ještě koukám na to, jaký další nástroje nebo služby ten produkt nabízí. To znamená, že radši budu používat Gemini než JetGPT. A není to kvůli tomu, že JetGPT by byl horší. Ba naopak, JetGPT mám pořád trošku jako radši.
Ale Google má zkrátka skvělej ekosystém, který je popropojovaný a pro mě je mnohem výhodnější použít Gemini a zapojit ho do toho ekosystému jako velice jednoušení a nechat ho tam dělat svůj magic prostě v rámci toho ekosystému, protože on má velice jednoduchý přístup k těm datům verzuči GPT, který prostě musím pořád popropojovat a pořád vymyslet, jak tam ty data dostat a jak ty data dostat z něho. Takže To bylo tak nějak všechno k tomhle dílu, takové zamyšlení, ta myšlenka, kde bych měl vlastně jako vypíchnout to hlavní, tak důležitost AI modelů klesá a bude podle mě klesat a být důležitý budou ty nástroje a ten ekosystem hlavně kolem toho. A u toho ekosystemu bude hrát obrovskou roli, jak hodně ho dokážete zapojit do toho denního fungování, nebo už třeba používáte, a pro spoustu lidí i to, jak je vlastně jako otevřený, A jestli si můžete ty data nějakým způsobem vzít a pracovat s níma mimo, protože ten svět se vyvíjí tak dynamicky, že vy chcete mít možnost prostě jako experimentovat. Ale to nemusí platit jako pro všechny.
Takže to je za mě. ta hlavní myšlenka, a druhá prostě opravdu vybírejte ty systémy takovým způsobem, že vám opravdu jako sešej ty vaše problémy, tím jsem ideálně co nejblíž tomu, kde ten problém jako vzniká. Protože za mě teď největší overhead, který já u sebe vnímám, tak jako přelejvání dat zleva do prava, A ano, můžete na to psát i automatizace, ale jako každá automatizace je potenciální problém, kde se někde něco může rozbít a vy jste ten, kdo to musí řešit. Takže načítání DAS Gmailu, procesing, na upload zpátky, vytvoření draftu mailu, tak je sice jako super, ale vy jste ten, kdo musí to automatizaci jako zpravovat a řešit, kdežto pokud využijete to nativní řešení od toho Google, tak vlastně jako ten Google řeší za vás tady to pro propojování.
Takže podle mě Neříkám, že to musí být jako pravidlem, ale je dobrý se nad tím zamyslet, jestli opravdu chcete nějakou další automatizaci si správovat. A já teď jako fakt nechci promovat služby tak těch velkých společností, jo, to vůbec ne, ale přemýšlím nad tím čistě z toho mýho praktického pohledu, že jako vibe coding je super, automatizace jsou super, ale Vy chcete dělat primárně ten svůj biznis a pokud něco řeší ten problém už jako připravený a ještě je to součástí třeba nějakého vašeho balíčku, tak prostě podle mě nedává smysl dělat na to nějakou vlastní automatizaci, byť bude třeba o 5% lepší, protože to prostě musíte udržovat, pak se to rozbije, budete tomu se spravit a zkrátka Tříští to ten váš fokus od toho, na co vy se chcete soustředit. Tak to je aspoň můj pohled. Dejte mi většinu komentářů, jestli se mnou souhlasíte, nebo naopak vůbec, a na všechno si chcete dělat vlastní řešení, zkrátka budu rád za jakoukoliv diskuzi.
Ať už na YouTube, nebo na Discord komunitě AI Srozumem, kam se můžete připojit zadarmo, je to takový interaktivnější. To je pro mě, pro tenhle ten díl všechno. i. srozumem.
i. srozumem, případně v té naší Discord komunitě. Mějte se krásně, dopijte si svoji dobrou kávu nebo cokoliv co pijete a budu se těšit příště.
Poslední rok, dva, tři jsme poslouchali, jak důležité jsou AI modely. Soustředili jsme se na benchmarky, porovnávali. Vyšel nový model u konkurence — spousta lidí přeběhla. Bylo to hodně o tom, jak silný ten model je.
Posledního půl roku až rok ale vnímám, že víc a víc začíná být důležitý ne model jako takový, ale nástroje, které mu dáváme, jak mu je dáváme a jaký má přístup k datům. Ergo ekosystém kolem něj.
Nástroje udělají z modelu lepší model
Nejvíc to vidím na Claude Code. Model je pořád základ — slabý lokální model se skvělými nástroji vám skvělý výsledek nedá. Ale když Claude Code dostal nástroje (ještě v době Sonnetu 3.5), výrazně se zlepšil výstup, protože model najednou mohl sbírat další kontext a verifikovat svoje výstupy. To je pro modely extrémně důležité. Nechte modely, aby měly nástroje na získávání informací a na ověřování, jestli jsou jejich výstupy dost dobré. Dnes je to alfa omega.
Jenže jedna věc je mít model, který umí používat nástroje, druhá věc je mu je poskytnout. A tady jsou webové aplikace jako ChatGPT a Claude limitované — musíte je napojit na externí aplikace, často přes MCP server. MCP si představte jako USB zásuvku pro AI modely: standardizovaný protokol, jak vyměňovat informace mezi službami, které se nikdy nemusely potkat. Jenže MCP je známé tím, že je token-heavy a v porovnání s jinými přístupy pomalé. Ve webových aplikacích jste navíc odkázaní na to, že někdo MCP server vystavil — nebo si musíte vystavit vlastní do internetu.
Spektrum přístupů k datům
Postupuje to po škále:
- Webové aplikace závislé na cizím MCP serveru.
- Desktopové aplikace (stažený Claude, ChatGPT), kde si MCP servery spustíte u sebe — odpadá závislost na cizí infrastruktuře, často stačí vložit připojení do konfigurace.
- Claude Code a Claude Cowork (Cowork = Claude Code v obleku, nová záložka v desktopové aplikaci, v Max plánu, pro Pro plán zatím waitlist) s plným přístupem k souborům a navíc spouštěním programů u vás na počítači — agent může klidně čekat deset minut, nikomu to nevadí, není omezený cizím prostředím.
- Open Claw s neomezeným přístupem k celému počítači — extrém. Na vlastním PC s vašimi daty ho nepouštějte, jen na dedikovaném stroji nebo VPS. Dnes nejmocnější AI agent. (Podrobně jsem o něm psal samostatně.)
Takže ekosystém modelu je dnes mnohem důležitější než model samotný. Je fajn mít model s dobrými agentními vlastnostmi, dotrénovaný na tool use a plánování — ale to už nové modely umí a v budoucnu to budou umět všechny. Rozdíl mezi modely se smazává. Důležitější je, jak efektivně tomu modelu poskytnete nástroje a jak ho udržíte, aby se neutrhl z řetězu.
Strukturální výhoda Googlu a Microsoftu
Teď ještě ten ekosystém jako celek — propojení služeb, které už používáte. Do Claude Code nebo Open Claw napojíte e-mail přes MCP, ale podpora není ideální: data tam dostanete, jenže ztrácíte UI, na které jste zvyklí, práce s tím není komfortní.
A tady přichází obrovská výhoda firem jako Google a Microsoft. Mají zaběhnuté firemní ekosystémy — Google Workspace (maily, dokumenty, úložiště, Sheets, Meet), Microsoft (navíc Teams). Do toho existujícího ekosystému začnou zapojovat AI. Představte si firmu se zaběhnutým Workspace: chce používat AI a musí zapojovat ChatGPT, v každém nástroji napojit maily, řešit povolení a audity, data se ukládají někam jinam — adopce je pomalá, lidé si zvykají na nový systém. Oproti tomu: AI je v rámci vašeho ekosystému, pro zaměstnance se nic nemění, používají Gmail jako doteď. Jen tam někde přibyla AI. U mailu třeba daily summary — Google s tím experimentuje (myslím, že se to jmenuje „CC", nepotvrzeno). Přijdete do Gmailu a vidíte shrnutí toho, co se v mailech událo, nejdůležitější maily — naservírované proaktivně, nemusíte přemýšlet, jak to summary udělat. Lidé, kteří by jinak otevřeli ChatGPT jednou týdně, začnou AI používat denně, protože je v Gmailu „už zapnutá".
Pro OpenAI je v tom obrovský problém. Musíte měnit fungování firmy, datové a komunikační toky, dostrkat to do ChatGPT. Když máte Gemini nebo Copilota přímo v Teamsech nebo na Google Meetech, data tam jsou — stačí AI zapnout. Aplikace od Googlu a Microsoftu budou mít mnohem větší výhodu v adopci než ChatGPT.
Otevřenost jako kritérium
Já osobně preferuji, aby systémy byly otevřené — abych se mohl připojit přes API, data si přechroupat, předzpracovat sám a vrátit zpět. Google je na tohle super: napojíte se na Drive, do Google Docu, do Gmailu a pracujete poměrně efektivně. Co u služeb hledám, není jen ekosystém a propojování, ale flexibilita — AI svět se vyvíjí extrémně rychle a chci nástroje umět ohnout. Strašně rád používám Google ekosystém, protože mi šetří čas, ale chci si do Google Docu sáhnout, něco vytáhnout, něco s tím udělat a vrátit. To Google umožňuje. To je pro mě nejdůležitější kritérium při výběru AI aplikace.
Jak dnes vybírám AI nástroje
Model je minoritní kritérium — pokud nejede na nějakém vyloženě slabém modelu, je to základ. Většina nástrojů běží na frontier modelech a ty jsou v průměru dost srovnatelné. Spíš jde o to, jak jednoduše můžu tomu modelu poskytnout nástroje a kontext.
- Tam, kde mám absolutní svobodu, dostrkám to přes MCP — takhle používám Claude Code skoro na všechno. (Open Claw je skvělý, jen zlobilo předplatné, takže zatím jedu na Claude Code; chtěl bych se k Open Claw dostat, protože je open — máte nad tím moc, není to „antropikuje", je to community.)
- Kromě napojování nástrojů se dívám, jaké další služby produkt nabízí. Raději Gemini než ChatGPT — ne proto, že by ChatGPT byl horší (mám ho pořád trochu raději), ale Google má propojený ekosystém a je pro mě výhodnější zapojit Gemini do něj a nechat ho tam dělat svoji práci, protože má jednoduchý přístup k datům. ChatGPT musím pořád propojovat a vymýšlet, jak tam data dostat a jak je z něj dostat.
Co si z toho vzít
Důležitost AI modelů klesá a bude klesat. Důležité budou nástroje a ekosystém kolem. A vybírejte systémy tak, aby řešily vaše problémy co nejblíž tomu, kde problém vzniká. Můj největší overhead je dnes přelévání dat zleva doprava. Můžete na to psát automatizace — ale každá automatizace je potenciální problém, který musíte spravovat (a jindy jsem psal o tom, kdy se ještě vyplatí). Pokud něco řeší nativní řešení od Googlu a je to součást vašeho balíčku, nedává smysl dělat vlastní automatizaci, byť bude o 5 % lepší — tříští to fokus od toho, na co se chcete soustředit. Nepropaguji služby velkých firem, je to čistě praktický pohled. Vibe coding a automatizace jsou super, ale primárně chcete dělat svůj byznys.
Vychází z Proč AI modely už nejsou to nejdůležitější na YouTube kanálu AI s rozumem.