Ugrás a tartalomra
Vállalati AI

Vállalati AI Policy — Mit Kell Szabályozni 2026-ban?

Nem compliance-dokumentum — döntési keretrendszer. Mi kerülhet AI-ba és mi nem? Ki felelős a kimenetért? Hogyan kezeljük a hallucináció kockázatát? 4 kötelező elem.

TL;DR

A legtöbb vállalati AI policy egy 30 oldalas PDF, amit senki nem olvas. A valóban hasznos AI policy egyetlen kérdésre válaszol: hogyan döntsünk, mikor és hogyan használjuk az AI-t? Ez négy kötelező elemet tartalmaz: adatosztályozás, felelősségi lánc, hallucináció-protokoll és EU AI Act megfelelőségi nyilatkozat. KKV-knak mindez egy lapra fér.


A PDF, ami a fiókban maradt

Egy ügyvédi irodánál dolgoztam tavaly. Megkérték a senior partnert, hogy írjanak AI-használati szabályzatot — mert az ügyfelek kérdezgetni kezdtek, és a szabályozói nyomás is erősödött. A partner megbízott egy külső tanácsadót. Két hét, három értekezlet, huszonnyolc oldal.

A dokumentum egyébként nem volt rossz. Pontosan lefedett mindent: mit szabad, mit nem, hogyan kell naplózni, milyen adatok kezelhetők AI-val. Az első héten mindenki kapott belőle egy nyomtatott példányt. A harmadik héten a paralegálok újra a ChatGPT-t használták ügyfélszerződésekhez — a titkos, bizalmas adatokat tartalmazó ügyfélszerződésekhez —, mert nem emlékeztek arra, mit mondott a dokumentum, és senkire sem volt hatással, hogy nem emlékeznek.

A probléma nem a policy tartalma volt. A probléma az volt, hogy a policy nem döntési eszköz volt, hanem compliance-dokumentum. A kettő között nagy a különbség.

Mi a különbség compliance-dokumentum és döntési keretrendszer között?

A compliance-dokumentum azt mondja el, mi a szabály. A döntési keretrendszer azt mondja el, hogyan gondolkodj el a helyzetben, és mihez nyúlj döntési helyzetben.

Egy egyszerű teszt: ha a kolléga holnap megkérdezi “fel tudom-e használni az AI-t ennél az ügyféllevélnél?”, megkapja-e a választ a dokumentumból három percen belül? Ha nem, akkor a dokumentum compliance-szöveg, nem használható policy.

A használható AI policy rövid, konkrét és eldönthetővé teszi a kérdést. Négy kérdést kell megválaszolnia:

  1. Milyen adatot szabad AI-ba küldeni?
  2. Ki felelős az AI által generált kimenetért?
  3. Mi a teendő, ha az AI rosszat generált?
  4. Hogyan érint minket az EU AI Act?

Az első kötelező elem: adatosztályozás

Az adatosztályozás a policy alapköve. Nem elég annyit mondani, hogy “bizalmas adatot nem szabad AI-ba küldeni” — mert mindenki mást ért bizalmas alatt.

Három szint elegendő a KKV-méretű szervezetek többségének:

Nyilvános adat: Iparági hírek, általános sablonok, nem személyes marketinganyagok. Bármilyen AI-eszközzel feldolgozható, beleértve a felhő-alapú megoldásokat.

Belső adat: Belső riportok, folyamatleírások, nem személyes üzleti adatok. Csak jóváhagyott eszközökkel, meghatározott feltételek mellett (pl. nem kerülhet be az AI betanítási adatbázisába).

Bizalmas adat: Személyes adatok (GDPR-hatály), ügyfélszerződések, pénzügyi adatok, üzleti titok. AI-ba csak akkor kerülhet, ha az eszköz adatkezelési feltételei ezt kifejezetten lefedik, és a jogi vezető jóváhagyta.

Ez az osztályozás nem jogi szöveg — egy egyoldalas táblázat, amibe bele van írva a konkrét példa: “ügyfél neve és e-mail = bizalmas”, “iparági hír = nyilvános”.

A második kötelező elem: felelősségi lánc

Az AI-generált kimenet nem felelős önmagáért. De akkor ki?

Ez az a kérdés, amire a legtöbb szervezet nem adott explicit választ — és ami miatt az AI-hibák gazdátlanul maradnak.

A policy-nak explicit választ kell adnia két szinten:

Operatív felelősség: Aki az AI kimenetet felhasználja egy feladatban, felelős annak ellenőrzéséért. A kolléga, aki AI-val ír ajánlati levelet, köteles átolvasni és jóváhagyni, mielőtt elküldi. Ha a levélben hibás adat van, az nem “az AI hibája” — az ő hibája.

Rendszer-felelősség: Aki az AI-eszközt vagy folyamatot bevezette a szervezetbe, felelős azért, hogy az eszköz megfelelő legyen az adott feladatra. Ha egy nem arra szánt eszközt használnak jogi dokumentumok generálásához, és az téves eredményt ad, a felelősség a bevezetőé.

Ez a kettős felelősségi struktúra nem büntető jellegű. Célja az, hogy ne alakuljon ki az a vákuum, ahol a hibát senki nem veszi észre — mert senki nem tudta, hogy az ő dolga lett volna észrevenni.

A harmadik kötelező elem: hallucináció-protokoll

Az LLM-ek hallucinálnak. Tényeket találnak ki, forrásokat hamisítanak, számokat tévesztenek. Ez nem hiba, amit a következő modellfrissítés majd megold — ez az architektúra lényegi tulajdonsága, ami csak mérsékelhető, de teljesen nem szüntethető meg.

A vállalati policy-nak explicit protokollt kell tartalmaznia arra az esetre, ha az AI hamis kimenetet generál:

Magas kockázatú területek megnevezése: Melyek azok a feladattípusok, ahol a hallucináció következménye súlyos? (Jogi tartalom, orvosi tanács, pénzügyi adatok, technikai specifikáció.) Ezeken a területeken az AI kimenetet kötelező emberi ellenőrzéssel hitelesíteni — nem opcionálisan, hanem folyamatba épített lépésként.

Alacsony kockázatú területek megnevezése: Ahol a hallucináció következménye kezelhető (pl. belső brainstorming összefoglalója), ott a folyamatba épített ellenőrzés túlzott teher lenne. Ezeket meg is kell nevezni, hogy a csapat ne kezelje minden AI-kimenetet azonos szintű paranoia-val.

Incidens-protokoll: Ha mégis kijut egy hibás AI-kimenet, legyen egyértelmű lépéssorozat: ki értesítendő, hogyan kerül vissza a kimenet javításra, és mi kerül a tanulságok dokumentálásába.

A negyedik kötelező elem: EU AI Act megfelelőségi nyilatkozat

Az EU AI Act 2024 augusztusában lépett hatályba, és fokozatosan élesedik. 2026-ra a legtöbb rendelkezése alkalmazandó. A KKV-knak nem kell jogászt fogadniuk — de tudniuk kell, hol állnak.

Az AI Act kockázat-alapú: az AI rendszereket kockázati kategóriába sorolja. A legtöbb KKV által használt eszköz (szöveggenerálás, adatelemzés, képgenerálás) a “minimális kockázat” vagy “általános célú AI” kategóriába esik. Ez azt jelenti, hogy különösebb engedélyre nincs szükség — de van néhány alapkövetelmény:

Transzparencia: Ha az AI-t közvetlenül ügyféllel való kommunikációban használod (pl. chatbot, AI-generált levél), az ügyfélnek tudnia kell, hogy AI-val kommunikál.

Emberi felügyelet: A magas kockázatú döntésekben (pl. hitelminősítés, felvételi döntés) az AI nem dönthet önállóan — emberi felügyelet szükséges.

Tiltott alkalmazások: Szociális pontozás, manipulatív technikák, tiltott biometrikus azonosítás — ezekre vonatkozó tilalmakat ismerni kell, még ha a cég nem is tervez ilyet.

A policy-ban elég egy egyoldalas nyilatkozat: “A cég jelenlegi AI-felhasználása ezekbe a kategóriákba esik, ezért ezeket a követelményeket kell teljesíteni.” Nem több — de ennél kevesebb már nem felelős magatartás.

Egy lap, nem harminc oldal

A jó AI policy egy A4-es lapra fér. Nem azért, mert a téma egyszerű — hanem azért, mert amit nem olvasnak el, azt nem követik.

A négy kötelező elem:

  1. Adatosztályozási táblázat (három szint, konkrét példákkal)
  2. Felelősségi lánc (operatív és rendszer-szinten)
  3. Hallucináció-protokoll (magas/alacsony kockázatú területek + incidens-folyamat)
  4. EU AI Act besorolás és az ebből következő konkrét kötelezettségek

Ezt a négy elemet egy délelőtt össze lehet rakni. A következő lépés: nem elküldeni emailben, hanem beépíteni az onboarding folyamatba, és félévente egy bekezdéssel frissíteni. Az AI policy nem projekt — hanem élő dokumentum, ami akkor hasznos, ha mindenki tudja, hol van, és mi benne.

Key Takeaways

  • A compliance-dokumentum és a döntési keretrendszer két különböző dolog — a használható AI policy az utóbbi
  • Négy kötelező elem: adatosztályozás, felelősségi lánc, hallucináció-protokoll, EU AI Act megfelelőségi nyilatkozat
  • A KKV-kra vonatkozó EU AI Act-kötelezettségek ismerhetők — a legtöbb általános célú AI-eszköz alacsony kockázatú kategóriába esik
  • A jó policy egy lapra fér: amit nem olvasnak, azt nem követik

Kapcsolódó gondolatok


Varga Zoltán - LinkedIn Neural • Knowledge Systems Architect | Enterprise RAG architect PKM • AI Ecosystems | Neural Awareness • Consciousness & Leadership What you measure changes what you build.

Beszéljünk erről

Ha ez a cikk gondolatokat ébresztett — foglalj egy 1 órás beszélgetést.

Időpont foglalás