Co je RAG (Retrieval-Augmented Generation) lidsky vysvětleno
RAG je technologie, která brání AI v halucinování nad firemními daty. Vysvětlení bez technického žargonu, srovnání s alternativami a praktické příklady, kdy ji potřebujete.
D
David Strejc
Apertia.ai
Compartir:
Když dáte ChatGPT otázku „kolik máme aktuálně skladem položky XYZ?“, dostanete buď omluvu, nebo si AI něco vymyslí. Není to její vina — nemá přístup k vašim datům. Přesně tenhle problém řeší RAG (Retrieval-Augmented Generation), technologie, která dnes pohání naprostou většinu vážných B2BAI projektů. A je to o dost jednodušší koncept, než zní jeho akademický název.
V tomto článku vysvětlíme, co RAG dělá, kdy ho potřebujete, jak se liší od fine-tuningu a jak vypadá v praxi nad firemními daty. Bez technického žargonu — tak, abyste pochopili, proč o něm mluví každý B2BAI dodavatel a kdy ho do projektu skutečně chcete.
Velké jazykové modely (LLM) jako GPT, Claude nebo Gemini umí dvě věci skvěle: generovat text a tvářit se sebejistě. Problém je, že když se zeptáte na něco, co nevědí, nepřiznají to. Místo toho si vymyslí věrohodně znějící odpověď. Tomu se říká halucinace.
Praktický příklad: Zeptáte se ChatGPT „kdy nám vyprší smlouva s dodavatelem ABC?“. ChatGPT neviděl vaši smlouvu. Tu informaci nemůže znát. Ale místo „nevím“ vám klidně vrátí konkrétní datum, číslo smlouvy a paragraf. Vše smyšlené, vše věrohodné.
V soukromém použití je to nepříjemné. V byznysu je to katastrofa. AIagent, který halucinuje, je horší než žádný AIagent — protože na základě jeho odpovědi někdo udělá špatné rozhodnutí.
2. RAG vysvětleno přes analogii — knihovník
Představte si to takhle. AI bez RAG je student, který má udělat zkoušku z dějin vaší firmy. Učil se obecnou historii světa, ale o vaší firmě nic neví. Když se ho zeptáte na konkrétní detail, buď přizná, že neví, nebo začne fabulovat.
AI s RAG je ten samý student — ale dali jste mu k ruce knihovníka. Když se zeptáte na otázku, knihovník nejdřív najde v archivu relevantní dokumenty, podá je studentovi, a student na jejich základě sestaví odpověď. Když knihovník nic relevantního nenajde, student řekne „v dostupných materiálech to není“.
To je RAG. Knihovník = vyhledávací vrstva. Archiv = vaše firemní data. Student = LLM. Místo aby si AI vymýšlela, čte si ve vašich dokumentech a odpovídá na základě nich. Proto ji v Apertii říkáme AI knihovník.
3. Jak RAG funguje technicky (krátce a srozumitelně)
Bez programátorského detailu, ale dost na to, abyste věděli, o čem mluvíte na schůzce s dodavatelem.
Krok 1: Příprava dat (děje se jednorázově + průběžně)
Vaše dokumenty (smlouvy, manuály, e-maily, ceníky, znalostní báze) se rozseká na menší kousky — typicky odstavce nebo bloky 200–500 slov. Každý kousek se převede pomocí embedding modelu na číselný vektor — matematickou reprezentaci významu textu. Vektory se uloží do vektorové databáze (Pinecone, Weaviate, Qdrant, pgvector).
Krok 2: Vyhledání (děje se při každé otázce)
Když uživatel položí otázku, otázka se stejným embedding modelem převede na vektor. Vektorová databáze najde nejpodobnější vektory — tedy úryvky textu, které jsou významově nejblíže otázce. Typicky se vrátí top 3–10 úryvků.
Krok 3: Generování (LLM dostane otázku + relevantní úryvky)
LLM dostane prompt: „Tady je otázka uživatele. Tady jsou relevantní úryvky z našich dokumentů. Odpověz na základě nich. Pokud informace není v úryvcích, řekni to.“ LLM vygeneruje odpověď.
Celé to trvá 1–3 sekundy. Pro uživatele to vypadá jako kouzlo — AI zná detaily o jeho firmě.
4. RAG vs Fine-tuning — kdy co použít
Druhá metoda, jak dostat firemní znalosti do AI, je fine-tuning — dotrénování modelu na vašich datech. Lidé to často pletou. Klíčové rozdíly:
Vysoká (vidíte, ze kterých dokumentů odpověď čerpá)
Nulová
V 90 % B2B případů chcete RAG. Fine-tuning má smysl, když potřebujete velmi specifický styl, jazyk nebo formát výstupu, který se z promptu nedá vytáhnout. Často se kombinují — fine-tuning pro styl + RAG pro fakta.
Zaměstnanec se chce zeptat „jaký máme proces na schvalování investic nad 500 000 Kč?“. AI prohledá interní směrnice, najde relevantní paragraf a odpoví s odkazem na dokument. Místo aby člověk půl hodiny prohrabával SharePoint.
Use case 2: Zákaznická podpora
¿Quiere una solución de IA personalizada?
Ayudamos a las empresas a automatizar procesos con IA. Contáctenos para saber cómo podemos ayudarle.
Respuesta en 24 horas
Consulta sin compromiso
Soluciones a medida para su empresa
Zákazník napíše „proč mi nefunguje XYZ?“. AI prohledá manuály, FAQ, historii ticketů a předchozí konverzace tohoto zákazníka. Odpoví relevantně s odkazem na konkrétní postup.
Use case 3: Právní asistent
Právník hledá, jak firma řešila podobný případ minulý rok. AI prohledá historii smluv, e-maily, soudní dokumentaci a vrátí relevantní precedenty. Manuální vyhledávání by trvalo hodiny — viz právní bot.
Use case 4: HR onboarding
Nový zaměstnanec se ptá na benefity, dovolenou, parkování. AI odpoví ze směrnic. HR agent tak ušetří personalistce desítky hodin měsíčně na opakovaných dotazech.
Use case 5: AML compliance
Compliance officer se ptá „jak jsme řešili podobný riskový profil klienta minule?“. AI prohledá historii AML rozhodnutí a doporučí postup — to je doménově specifický agent jako náš AML agent.
6. Co dělá RAG dobrým — 5 klíčových faktorů
RAG není magická pilulka. Existuje špatně postavený RAG, který halucinuje skoro stejně jako LLM bez RAG. Klíčové faktory:
1. Kvalita dokumentů
Garbage in, garbage out. Pokud máte 10 let staré, neaktualizované, duplikátní dokumenty, RAG bude vracet zmatky. Vyčištění dat je 30–40 % úspěchu projektu.
2. Strategie chunkingu
Jak rozsekat dokumenty na kousky. Špatně rozdělená smlouva — třeba uprostřed věty — znamená, že důležitá informace bude chybět v kontextu. Inteligentní chunking respektuje strukturu (kapitoly, paragrafy, tabulky).
3. Volba embedding modelu
Pro češtinu jsou rozdíly mezi modely zásadní. Modely trénované jen na angličtině v češtině podávají nižší výkon. Doporučujeme multilingvní modely typu OpenAI text-embedding-3-large nebo Cohere multilingual.
4. Reranking
Po prvním vyhledání se výsledky znovu seřadí pomocí přesnějšího (ale dražšího) modelu. Zvyšuje přesnost o 10–20 %. Standard u kvalitních RAG systémů.
5. Sledování kvality
RAG potřebuje měření. Kolik otázek mělo dobrou odpověď? Kolikrát řekl „nevím“? Kolikrát halucinoval? Bez metrik se nedá ladit.
7. Pasti, kterým se vyhněte při zavádění RAGu
Bezhlavé natlačení všech dokumentů. Méně relevantních dokumentů = lepší výsledky. Vyfiltrujte nerelevantní data.
Žádný governance. Kdo schvaluje, co se přidá do znalostní báze? Bez procesu se brzy dostanete do chaosu.
Ignorování práv. RAG musí respektovat oprávnění — finanční ředitel vidí jiná data než brigádník. Filtrujte ve vyhledávací vrstvě, ne až v prezentační.
Žádný feedback loop. Uživatel by měl mít možnost říct „tahle odpověď byla špatně“ a tato data zpětně používat ke zlepšení.
Volba špatného modelu. Embedding model určuje kvalitu vyhledávání. Levný embedding = nepřesné vyhledávání = halucinace.
Měsíční provoz roste s objemem dotazů — každý dotaz znamená vyhledávání ve vektorové DB + jedno LLM volání.
9. RAG je dnes standard, ne novinka
V roce 2023 byl RAG „nová technologie“. V roce 2026 je to standard, který používá každý vážný B2B AI projekt. Pokud vám dodavatel nabízí AI agenta nad firemními daty bez RAG, kupujete si potenciální zdroj špatných informací. Ptejte se, jakou technologii používají, jakou vektorovou DB volí a jak měří kvalitu odpovědí.
Závěr: RAG je most mezi obecnou AI a vaší firmou
RAG dělá z obecného LLM užitečný nástroj pro váš konkrétní byznys. Místo aby si AI vymýšlela, čte vaše dokumenty a odpovídá na jejich základě. Je to fundament naprosté většiny B2B AI nasazení v roce 2026 — a pokud uvažujete o vlastním AI agentovi, RAG je pravděpodobně to, co potřebujete.
V Apertii stavíme RAG systémy pro české firmy od základů — od čistění dat, přes architekturu, po monitoring kvality. Pokud chcete pochopit, co je AI agent a jak by mohl fungovat ve vaší firmě, nebo potřebujete posoudit existující RAG projekt, napište nám přes kontakt a domluvíme si konzultaci.
Pokud řešíte AI specificky pro automotive — třeba katalogy ND, servisní příručky, garanční podmínky — podívejte se na sesterský projekt AutoERP, který RAG aplikuje na automotive doménu.
Často kladené otázky (FAQ)
Nahradí RAG fine-tuning?
Ne, doplňují se. RAG řeší znalost faktů, fine-tuning styl a doménový jazyk. V naprosté většině B2B případů stačí samotný RAG. Fine-tuning přidávejte, jen když máte konkrétní důvod (specifický formát, jazyk, doménová terminologie).
Jak velkou znalostní bázi RAG zvládne?
Současné vektorové databáze zvládají miliony dokumentů bez problému. Limit není v technologii, ale v kvalitě dat. Doporučujeme začít s 500–2000 nejdůležitějších dokumentů, vyladit kvalitu, pak postupně rozšiřovat.
Kde data fyzicky leží? Není to bezpečnostní riziko?
Záleží na architektuře. Můžete mít vektorovou DB v EU cloudu (default), v ČR datacentru, nebo on-premise. LLM volání můžete směrovat přes Azure OpenAI v EU regionu nebo přes vlastní self-hosted model (Llama, Mistral). Pro citlivá data (zdravotnictví, finance) doporučujeme on-premise nebo private cloud — řešitelné, jen dražší.