J. Zahálka: Ano, přesně tak. Když má LLM správné instrukce a má nějakou množinu dokumentů, podle jejichž obsahu se rozhoduje, dá vám přesný odkaz: „Našel jsem to v tomto dokumentu na straně 12.“ Tento postup snižuje riziko tzv. halucinace. Halucinace je hodně medializovaný problém, který je reálný. Někdy, když LLM neukočírujete, začne si vymýšlet. Dělá to proto, že se vám snaží za každou cenu pomoci, a to i když ke správné odpovědi nemá dost informací. To je však věc, která se dnešními metodami dá řešit. Lze jej naučit, aby dokázal říci „Já nevím“ nebo „To si musíte udělat sami“. Dalším možným výsledkem snahy odpovědět za každou cenu je převedení konverzace na jiné téma – na takové, které LLM „umí“. V tomto ohledu dokáže být LLM velmi blízký člověku. I takovým chybám se dá předejít, a to pomocí správných instrukcí, formulovaných na základě znalosti firemních procesů a jejich pravidel. Tento přístup se označuje zkratkou RAG – retrieval augmented generation – a spočívá v tom, že vy tomu velkému jazykovému modelu dáte nějaké rozhodovací podklady, které jsou vaše vlastní. Je to vlastně jakési intelektuální vlastnictví vaší firmy, jsou to vaše procesy a způsob, jakým se rozhodujete a jakým vedete svůj byznys. A součástí těch instrukcí musí být to, že když LLM v daných podkladech nenajde řešení problému, nesmí rozhodnutí učinit. Díky přístupu RAG dokážeme změnit LLM, který má obecné znalosti, v nástroj, který dělá přesně to, co potřebujeme a jak to potřebujeme právě my.