RAG architektúra vállalati tudásmenedzsmenthez
Hogyan építsünk Retrieval-Augmented Generation rendszert, ami a szervezet saját tudásbázisára épül? Chunking stratégia, embedding választás, hibrid keresés és minőségbiztosítás.
TL;DR
A vállalati RAG rendszerek sikeressége nem az LLM választáson múlik, hanem a tudásarchitektúrán: hogyan darabolják (chunking), hogyan vektorizálják (embedding), hogyan keresik (hibrid retrieval) és hogyan minőségbiztosítják a tudásbázist. A quality-in/quality-out elv a RAG világban különösen éles: a rossz inputból az AI meggyőzően rossz válaszokat generál.
Executive Brief
A vállalati Retrieval-Augmented Generation (RAG) rendszerek architektúráját vizsgáltuk 38 forrás alapján, 11 mintázatot azonosítva. A kutatás kérdése: milyen architekturális döntések határozzák meg, hogy egy vállalati RAG rendszer sikeres lesz-e?
Fő mintázatok
Chunking stratégia:
- A 512 token / 15% overlap a legtöbb szövegtípusra jó kiindulás
- A struktúra-érzékeny chunking (fejezet-határok, szekció-címek respektálása) felülteljesíti a naiv darabolást
- Kontextuális prefix (könyv/fejezet cím hozzáadása minden chunkhoz) drámaian javítja a retrieval minőséget
Embedding választás:
- Az embedding modell kevésbé fontos, mint a chunk minőség
- Hibrid dense + sparse vektorok (RRF fúzió) felülteljesítik a puszta dense keresést
- A dimenzió és a kvantizálás trade-off-ot jelent: nagyobb dimenzió = jobb minőség, de több tárhely és lassabb keresés
Retrieval pipeline:
- Hibrid keresés (dense szemantikus + sparse kulcsszó) a jelenlegi best practice
- Reranking (külön modell, ami a top-K eredményt újrapontozza) kritikus a termelési minőséghez
- A hasonlóság (similarity) nem egyezik a relevanciával — a reranker ezt korrigálja
Minőségbiztosítás:
- Quality gate a chunkok szintjén: alacsony minőségű chunkok kiszűrése (tartalomjegyzék, copyright, sérült szöveg)
- Könyv-szintű deduplikáció: ugyanaz a mű ne legyen többször a korpuszban
- Korpusz-szintű chunk deduplikáció: MinHash LSH a hasonló chunkok kiszűrésére
Ami nem működik:
- “Dump everything into a vector DB” megközelítés — garbage-in, garbage-out
- Egyetlen embedding modell mindenre — más szövegtípusnak más chunking kell
- Reranking kihagyása — a demo működik nélküle, a produkció nem
Módszertan
- Források: 38 (web: 24, akadémiai: 9, iparági riport: 5)
- Kutatási körök: 4 (alap + 2 mélyítés + vakfolt audit)
- Mintázatok: 11 azonosított, 8 támogatott, 2 vitatott, 1 jelölt
- Vakfolt audit: vizsgálta a multimodális RAG (képek, táblázatok) és a kis nyelvi modellek (< 3B) használhatóságát vállalati RAG-ban
Teljes kutatás
A teljes field report elérhető konzultáció keretében. A fenti összefoglaló a GFIS módszertanával készült — tudj meg többet a GFIS-ről.
GFIS
Ez a kutatás a GFIS pipeline-nal készült: szisztematikus forrásgyűjtés, mintázat-felismerés (figure/background/noise), vakfolt audit, konvergencia-ellenőrzés. Tudj meg többet →
