Závislost na AI je reálný problém. Argument proti AI to ale není
Ráno nepojede Claude a vy nemůžete pracovat. Reálná zranitelnost — ale řešení není přestat AI používat. Je to risk management ve třech vrstvách.
Autor: Filip Oborník
Tento článek vznikl s pomocí AI z transkriptu výše uvedeného videa. Pro maximální přesnost se podívejte na video, případně si rozbalte plný transkript níže.
Zobrazit celý transkript videa
Krásný den, vítejte u dalšího dílu podcastu Coffee Break s Filipem. Doufám, že pijete něco dobrého. Já tady dneska nemám kávu, mám tady upět vodu. Nicméně, i tak to téma si myslím, že bude zajímavý.
A konkrétně naše závislost na AI. Znáte to, to jsi možná v poslední době pravidelně. Přijdete ráno do práce, zapnete clouda nebo jinýho AI assistenta a on nefunguje. Teď co budete dělat?
Spolíháte na to workflow a najednou možná začínáte přemýšlet nad tím, jestli ta vaše závislost na té umělé inteligenci není tak trošku špatně. Zkrátka, těch už si to nedokážeme třeba někdy udělat hezky postaru ručně. A já to vlastně chápu, tady ten pohled. Ale myslím si, že to není tak úplně jednoduchý.
Nebo spíš černobílý. Zkrátka, my jako lidstvo jsme závislí na spoustě věcí. Energie, elektřina, ropa. Zkrátka, když tyhle věci vypadnou, tak nedokážeme normálně už pak fungovat.
Ten náš svět je tak propojený a tak závislý na těch věcech, že už zkrátka nedokážeme bez toho normálně fungovat v tom našem každodenním životě. A je to nějaká výměna toho, co nám ty technologie přinášejí za tadyctou zranitelnost řekněme. My se to snažíme řešit různýma způsobama. U elektřiny to jsou různý zálohy, to znamená, že v elektrické síti, když vypadne nějaká část, tak většinou ta zbylá elektrická síť je schopná to obsloužit a nevadí, že vypadla třeba nějaká jedna trafostanice.
Případně třeba u ropy se snažíme vymyslet nějaké alternativní pohony, elektrické auta a podobně. Ale samozřejmě jsou tam různý problémy. No a když půjdeme trošku víc do toho technologického světa, tak můžeme jít k internetu. Internet dneska pohání drtivou většinou věcí toho, co děláme.
A ta naše závislost je tam enormní. Trudno si tvrdit, že 80% firm, samozřejmě hrubý číslo, ale prostě velká většina firm, když vypadne internet, tak ty lidi můžou jít domů. nemají co prostě dělat v tu chvíli. Nejenom, že nemají, jak se spojit se svýma zákazníkama, nemají třeba v čem fungovat, jich data jsou prostě někde v cloudu, na počítači nebo na serveru a oni je nemají snažený, takže nemůžou pracovat.
Programátoři tak můžou udělat nějaký malý dílčí části, ale nestáhnou si třeba zbytek kódu, nedokážou tu aplikaci nasadit, protože je vlastně na internetu. Zkrátka vznikne jako spoustu problémů. A zase je to nějaká daň za to, co nám ten internet přináší. No a u umělý inteligence je to podle mě vlastně dost obdobný.
Není tam nic trošku jiného. Já bych si dovolil pro tady ten díl trošku odsunout na druhou kolej tou debatu o tom, jestli kvůli umělý inteligence třeba zastaráváme nebo spíš jako Nedbáváme ty naše kognitivní znalosti nebo to naše kognitivní zapojování, prostě přemýšlení. A protože to je fakt takovou na jinou debatu, jiný video, ale fakt bych se chtěl jenom dneska věnovat tradicí závislosti na ty AI jako takový v tom vlastně jako principu, v tom fungování. No a je pravda, že dneska, když ty AI systémy vypadnou a vy máte napojený třeba spoustu automatizací, tak najednou vlastně nemůžete fungovat.
A ten argument je to stejné, jak u internetu, prostě máme smluvu, tak to není optimální řešení. Samozřejmě Optimální řešení ani není to, že si řekneme, že nebudeme na AI závislí, tak ji nebudeme používat, protože to bohužel není volba. Zase nechci se pouštět do debaty, jestli to, že používáme AI, nám přináší nějaký rizika sociální, ale zkrátka, pokud my jako jednotlivci nebo firma nebudeme používat AI, tak budeme oproti ostatním pozadu. Protože ten gain, ten zisk, efektivity, kvality, práce a množství, co jsme schopni vyprodukovat, je prostě ekstrémní.
Takže ta debata podle mě není o tom, že bychom si řekli, že jeho závislost na AI je špatný, nebudeme jí používat. Ta debata je spíš o tom, jak vlastně eliminovat tady ty problémový situace, kdy uměla inteligence vypadne. To nejjednodušší řešení je mít alternativního poskytoho modelu. Dneska máme takové tři velké hráče, OpenAI, Anthropic a Google.
Všichni mají velmi mocný modely, každej se liší v nějakých samozřejmě oblastech, ale trufnu si tvrdit, že na bětšinu workflows jste schopni nasadit jiný model, jenom musíte třeba trošku upravit ty instrukce a můžete dál fungovat. Takže to je úplně takovýto základní. Prostě máme víc poskytovatelů, můžeme přepnout nástroj. No jo, ale dobře, řekněme, že odladíme i ty naše workflows pro různý modely, protože se chovají jinak, což je trošku víc práce, ale Je to vždycky vyvážení nějakého risku a toho bend or locku.
Ale si řekneme super, ale co naše data? Co když mám všechny svoje chaty v Antropiku, v cloudu, a mám tam i projekty, mám tam všechno do history konverzací. Co já s tím budu vlastně dělat? Tak tady je to vlastně obrovský problém, protože vy najednou nejste schopný přejít na GPT, protože tam máte ty data.
Pokud to máte v automatizacích, tak jenom vyměňte API klíče a to fungování bude dost podobné, ale pokud to máte takhle s těma datama, tak je to velký problém. A proto si myslím, že kromě té redundance, to znamená myslet na to, že můžu použít jiné modely, tak je důležité přemýšlet i nad svýma datama a jak uchovávám ten svůj kontext. Protože já jsem to naznačoval, nebo naznačoval jsem na to celý Coffee Break, že kontext je to nejdůležitější, co máte a je potřeba se z mýho pohledu k němu tak chovat. To znamená, že vlastně přemýšlet nad tím, aby ten můj kontext, ty všechny data byly přenositelný.
A teď dá se to zase řešit jako více způsoby. Jeden z nich je, že budete používat nějaký externí systém, třeba Notion jako knowledge base, a tam budete všechno zapisovat, nebo ClickUp, nebo prostě těch nástrojů je prostě spousta a budete to tam zapisovat a jenom přes MCPčka se napojíte v těch agentech, necháte provízt nějaké úlohy a pak zase ty data zapíšete zpátky. To je takový jako nejjednodušší, uživatelsky nejpřívětivější řešení, Nejvýhoda je, že zase jako přesouváte tady tu část odpovědnosti za ty data na někoho jinýho, třeba na ten Notion a pokud vypadne Notion, tak jste taky nahraný. Takže za mě ten nejlepší způsob, jak toto řešit a jak se toto teďka snažím řešit já, tak je mít lokálně všechny ty soubory, respektive budovat si nějakou lokální knowledge base, já to řeším pomocí Markdown souborů a složkový struktury.
Řeším to pomocí Obsidianu, kde jsem schopnej ty data logicky propojovat. Ale to není jediné řešení. Myšlenka je mít všechny vaše kontekstové data někde lokálně. A třeba pak zálohovaný na Google Disk nebo GitHub pomocí Gitu.
To už je zase detail implementační, jak tady to vyřešit. ale zkrátka mít ty vaše data pod kontrolou a aby byly vaše. A pokud je máte lokálně, tak vám nic nebrání místo klod kovorku na ně pustit třeba OpenAI Codex, nebo Gemini CLI, nebo cokoliv jinýho. A ve chvíli, kdy to vypadne, změníte toho poskytovatele a nemusíte používat třeba klod kóda, můžete použít Open Code a napojit se přes API na úplně jinýho poskytovatele.
A najednou máte i tu Agentic Harness, což je třeba vlastně ten Cover a Cloud Code. To jsou Agentic Harnesses, ty vlastně poskytujou ten Agent Loop, to je, jak funguje ten agent. Tak můžete použít třeba Open Code, což je alternativa ke Cloud Codu a ten může se připojit na jakýkoliv API jakýhokoliv AI modelu, nebo jakýhokoliv. Má samozřejmě nějakou paletu, ale obrovsky širokou.
a vy to dokážete napojit a můžete fungovat dál. Takže to je pak delší step, že se snažíte kromě toho, že máte ten váš kontext, tak i třeba používat nástrojek, který jsou takhle přenositelný. Já třeba osobně zůstávám u Cloud Codu, ale vím, že byť mám třeba Cloud MD soubory, které konfigurují, jak se ten cloud má chovat, tak ale vím, že jsem schopnej to velice jednoduše předělat, když by došlo na nejhorší a přejít třeba na Open Code, tam stačí to přejmenovat nebo nasměrovat ty konfiguráky někam jinam. Takže mám ten backup, mám to řešení.
No, takže lokální data, nebo lokální, zkrátka, mít kontrolu nad tím kontextem a zároveň umět vědět, kam tak šáhnout a jak switchnout. Je docela dobrý, si čas od času třeba vyzkoušet i nějaký jiný modele, ať víte, jak se ten váš systém chová, abyste pak nebyli překvapený při tom výpadku. No a Delší věc, delší směr, pak je, nebo delší argument je pak ještě v tom, že vlastně ty modely jsou dneska drahý, budou třeba dražší, nebo prostě zkrátka jako ten provoz najednou nebude tak levnej, nebo prostě bude obrovská, obrovský nápor na tu síť a najednou prostě ty modely nebudou dostupný, protože se to prostě přehltí těma uživatelema. A takovýhle věci, tak já si myslím, že teď ten problém reálně je, ale my do budoucna směřujeme k tomu, aby jsme měli víc lokálních modelů, to znamená provozovali to na vlastních serverech, na vlastním počítači, některý třeba i na telefonu, když byly dostatečně efektivní a mohli jsme velice jednoduše je používat bez toho, aniž by museli volat někde internet.
A tím se zbavíte tý náročnosti cenový, protože už nebudete platit per usage, ale budete platit vlastně Jenom za ten device, to zařízení, aby ten rozběh, ten model. Dneska jsou extrémně drahý, ale věřím, že za pár let prostě velmi výkonný AI modely dostaneme i fakt do takhle jednoduchýho telefonu. A pak samozřejmě elektřina, ale zase to jsou jako oddělené věci a tu závislost už tam stejně máme. Takže já si myslím, že my budeme opravdu směřovat tady k těm lokálním modelům postupně a třeba pak na jenom ty největší úkoly sebou používat ty frontier modely a když vidím ten vývoj, jak se to všechno sefektivňuje, tak tady tím směrem si myslím, že to jde.
No a pak další, ještě stepping stone můžou být modely, který se normálně v polozovkách vypálejí do silikonu, to znamená, že máte hardware a v tu chvíli ta inference je takhle, je prostě extrémně blesková. A v tu chvíli najednou zase používat takový model je mnohem jednodušší. Takže já si myslím, že ten problém tady samozřejmě je, v závislosti na AI, ale je to přechodný problém, který postupně si sedne, až ta technologie dospěje, protože Co si budeme? Uměla inteligence je tady s náma dlouho.
Četovací asistenti, kdy vyšel GPT, respektive začal být populární, tak to je pár let. A co se týče agentiku, to znamená AI agentu, tak to je tady jako posledního půl roku v nějaké použitelné podobě, takže je to velmi mladá technologie a všechny tyhle věci zkrátka musí uzrát. Je to řešitelný problém. Zkrátka myslím si, že není moudrý si říct, nebudu to třeba tolik zapojovat, protože jsou tady ty rizika, jestli opravdu myslím, že tohle dokážeme vyřešit.
Je tady spoustu otázek, spoustu proměnejch, energetická náročnost, cena pak za ty modely, to, že jsou předplatný teď dotovaný, to je všechno jako pravda, ale Myslím si, že tím, jaký je potom hlad, tak je investované velké množství finančních prostředků, energie a zaměření toho fokusu na ten problém, aby se zkrátka vyřešil. Protože nejsme jediný, jako my, uživatelé, kteří to trápí, ale trápí to i obrovské firmy, a oni budou vlastně řešit to, že chtějí ty benefity, ty umělé inteligence, ale zároveň chtějí i tu spolehlivost. A vždycky je to o takzvaném risk managementu. To znamená, že považujeme nebo spíš zvažujeme vedle sebe ty benefity, co nám to přinese a ty risky, který jsme ochotní podstoupit.
Takže, když bych to měl shodnout, závislost na umělý inteligenci je bez pochyby reálný problém, ale je to něco, co se bude řešit. Bude se to řešit redundancí, bude se to řešit lokálníma modelama nebo dokonce i těma hardwareovejma modelama vypálenýma do toho křemíku, který budou mít rychlou inferenci. Zkrátka, myslím si, že ten vývoj tam jako dospěje. Nebude to pravděpodobně za měsíc ani za dva, je to prostě běh nad dlouhou tráť, ale co my teďka děláme je, že vlastně my se učíme s tou novou technologií fungovat.
Samozřejmě toho nějaký rozumný adopci, nějak, jak se jmenujou, nebo můj YouTube kanál se jmenuje AI s rozumem, tak je to prostě zkrátka o tom vážit rizika, ale používat to, naučit se to zapojit do toho svýho workflow. Tohle byl takový kráťoučkej díl. Já jsem měl jenom takovou potřebu trošku se nad tím zamyslet nahlas, protože já tady ten argument poslední dobu slyšel fakt poměrně často a já ho fakt chápu. Je to teď reálný problém, ale nemyslím si, že je to správný argument v kontextu toho, jako nepoužívejme AI.
Je to spíš, hele, pojďme fakt nad tím přemýšlet, jak můžeme ty naše workflows a to naše zapojení AI dělat odolný vůči tady těm výpadkům, a zkrátka, aby ty naše systémy se z toho nezbláznily. Díky moc, že jste se dívali. Dejte mi větě do komentáře, ať na Spotify, YouTube nebo v komunitě na Discordu, i ať se rozumem, co se o to myslíte, jak třeba vy to řešíte. možností pochopitelně bude nespočet.
Zkrátka zajímalo by mě, jak nad tím přemejšlíte. Těch způsobů, jak to řešit, je celá řada. Samozřejmě jsou tam i další riziky, jako ta energetická náročnost, kdy ta elektrická síť by to třeba nemusela zvládat. finanční náročnost, že ty tokeny budou prostě dražší.
Těch problémů je tam samozřejmě nespočet, ale zase to, co jsem se snažil říct tady v tom díle, je, že jsme fakt na začátku, je to velmi mladá technologie, ještě není dospělá tady v tom, aby byly vyřešené všechny tyhle redundance, ale ano, všichni na to myslejí, všichni vědí, že se tohle děje a určitě budou vznikat způsoby, jak s tím vlastně bojovat. Zkrátka, dejte mi vědět, jak nad tím přemýšlíte vy, jaký na to máte názor. Jsem se snažil tady formulovat ty svoje myšlenky a spíš jako tak nějak vyjádřit fakt ten pohled na to, že nemyslím si, že je mudrý si říkat, nechcem bejt na AI závislý a v tom případě ji nebudem používat. Zkrátka, je to řešitelný problém, bude se řešit.
Díky moc, že jste se dívali. Budu se na vás těšit u dalšího dílu podcastu Coffee Break s Filipem, nebo na YouTube kanále AI s Rozumem, a nebo třeba u našeho podcastu DeepLink Show, kde nově chystáme i hosty. A různý hosty, který vlastně dělají produkty s umělou inteligencí, nebo ji nějak extrémně zapojou do toho svýho workflowu. Myslím si, že to bude velmi zajímavý.
Takže budu se na vás těšit i u podcastu DeepLink Show, který najdete pod vlastním názvem DeepLink Show na YouTube, Spotify a dalších podcastových platformách. Ještě jednou díky, že jste poslouchali nebo jste se dívali a mějte se krásně.
Argument, který v poslední době slyším pořád dokola: „Ráno přijdu do práce, Claude nepojede, a já nemůžu nic dělat. Tahle závislost je špatně. Měli bychom to umět zase postaru, ručně." Ten pocit chápu a problém je reálný. Závěr z něj ale nesedí.
Sama závislost reálná je. Závěr „tak AI nepoužívejme" z toho ale neplyne. Plyne z toho něco jiného: že má smysl stavět workflow tak, aby výpadek nebyl konec všeho. To je úplně jiný úkol než přestat AI používat — a v debatách se ten rozdíl většinou ztratí hned v úvodu.
Není to nová kategorie problému
Lidstvo je závislé na spoustě věcí. Elektřina, internet, ropa. Když vypadnou, neumíme normálně fungovat — a nikdo to neřeší tak, že přestaneme svítit nebo jezdit. Řeší se to redundancí: záložní zdroje, alternativní pohony, paralelní trasy. Cena, kterou platíme za benefity těch technologií, je zranitelnost vůči jejich výpadkům.
Internet je vlastně ten nejbližší příklad. Když dnes vypadne firmě internet, většina lidí může jít domů. Programátoři neudělají release, obchodníci nedosáhnou na CRM, marketing nepošle kampaň. Ten model už dávno akceptujeme — protože gain z internetu je tak velký, že stojí za riziko.
AI patří do stejné rodiny. Logikou „nepoužívejme to, protože to může vypadnout" by se před sto lety dala zametat ze stolu i elektřina. Na první poslech to zní rozumně, ale jakmile se zeptáte, jestli by si někdo ten návrat dobrovolně koupil, argument se rozpadne.
A je tam ještě druhá vrstva: nepoužívat AI dnes není volba. Kdo ji nepoužívá, jde pozadu — efektivita, kvalita i objem práce, který zvládne tým s AI, je extrémní. Takže debata není o tom, jestli na AI být závislý. Debata je, jak tu závislost dělat odolnou.
Tři vrstvy redundance
První vrstva je triviální: redundance modelů. Dnes existují tři velcí hráči — OpenAI, Anthropic, Google — a každý má modely, které pokryjí drtivou většinu workflows. Když jeden vypadne, přepnete na druhého. Trochu upravíte instrukce, protože každý model má své preference, a jedete dál. Tohle umí každý hned, je to otázka pár hodin přípravy.
Druhá vrstva je už zajímavější: přenositelný agentic harness. Claude Code i Claude Cowork jsou jen tzv. agentic harness — tedy obal, který drží agent loop, řídí, jak agent pracuje s nástroji a kontextem. Pod kapotou volají model přes API. A existují alternativy, které umí to samé na libovolném modelu — třeba OpenCode. Když si workflow stavíte tak, abyste věděli, jak ho přepnout, neztratíte víc než pár hodin migrace. Já osobně zůstávám u Claude Code, ale vím, že kdyby přišlo na nejhorší, přejít na OpenCode a nasměrovat ho na jiný model je otázka přejmenování konfiguráků.
Třetí vrstva je ta, kterou většina lidí podceňuje, a která rozhoduje o tom, jestli má první a druhá vůbec smysl: vlastní kontext.
Největší lock-in nejsou modely. Jsou data.
Tady je pointa, která se v debatě o závislosti většinou ztratí. Modely se přepnout dají. Co se nepřepíná snadno, jsou vaše data — historie konverzací, projekty, znalostní báze, kterou jste si v daném nástroji vybudovali. Když máte všechno v Anthropic Claude, nejste schopní jen tak přejít na ChatGPT, i když by model sám o sobě úkol zvládl.
Vendor lock-in není v modelu, je v datech.
Proč je kontext často důležitější než samotný model?
O tom, proč data a kontext rozhodují o tom, jak dobře vám AI funguje, mám samostatnou Coffee Break epizodu.

Řešení v zásadě dvě. Buď použít externí knowledge base — Notion, ClickUp, podobné systémy — a do agentů ji napojit přes MCP. Uživatelsky nejjednodušší, ale jen přesouváte odpovědnost na další systém. Když vypadne Notion, máte stejný problém, jen na jiném místě.
Nebo si vlastní kontext držíte lokálně. Já si knowledge base vedu v markdown souborech v Obsidianu, zálohuji to přes Git a Google Drive. Jakýkoli agent — Claude Code, OpenCode, Codex, Gemini CLI — se na ten samý vault umí napojit. Modely a nástroje se mění, kontext zůstává můj.
Toto je vrstva, do které se vyplatí investovat čas teď, ne až přijde výpadek.
Kam to celé směřuje
Tohle všechno řeší aktuální stav. Dlouhodobě půjde vývoj k tomu, že AI modely budou víc běžet lokálně — na vlastních serverech, počítačích, případně i telefonech. Tím odpadne většina závislosti na poskytovateli i náklady per usage; budete platit jen hardware. A v dalším kroku se objeví modely vypálené přímo do silikonu — specializovaný hardware s extrémně rychlou inferencí.
Nebude to za měsíc ani za dva, je to běh na dlouhou trať. Ale směr je jasný a peníze i fokus na něj tečou — protože stejnou závislost jako vy řeší i firmy, které chtějí AI benefity bez cloudové smyčky.
Proč bude rok 2026 patřit lokálním AI agentům?
Logické pokračování této úvahy — samostatná Coffee Break o tom, kam směřuje lokální běh modelů.

Co si z toho vzít
Argument „závislost na AI je problém, takže ji nepoužívejme" je špatně postavený. Funkční přepis té samé starosti zní jinak.
Závislost na AI je problém, takže ji řiďme. To je risk management — vážit benefity proti rizikům a stavět redundanci tam, kde to dává smysl.
Konkrétně to znamená: vědět, jaký druhý model byste pustili na svoje workflow. Vědět, jakou alternativu k vašemu agentic harness byste použili. A hlavně — držet si svůj kontext tak, aby vás žádný poskytovatel neuzamkl. To poslední je investice na měsíce a roky, ne na týdny, a vrací se každý den, ne jen ve chvíli výpadku.
Agentic AI je v použitelné podobě tady posledního půl roku. Nečekejte, že je vyřešená. Ale je řešitelná, a směr, kterým se to posouvá, je čitelný — pokud místo „nepoužívat" zvolíte „používat s rozumem".
Nejste si jistí, jak nastavit AI workflow tak, aby vás výpadek poskytovatele nezasekl? Pojďme nad tím sednout a probrat to konkrétně pro vás.
Více o konzultacíchVychází z epizody Co když AI vypadne? Závislost, kterou musíme řešit podcastu Coffee Break s Filipem a YouTube kanálu AI s rozumem.