TL;DR
Az IT/AI-projektek nem a kódon buknak el — hanem azon, hogy a szervezet nem úgy reagál, ahogy a tervben szerepel. A szervezet élő rendszer: saját reflexekkel, túlélési útvonalakkal, tabukkal és jutalmazási logikákkal. Az AI nem rendet teremt, hanem felerősít — rendet is, káoszt is, és ezt gyorsan, nagy felületen, meggyőző magabiztossággal teszi. Amíg a cég legfontosabb integrációs rétege az, hogy valaki összerakja Excelben, addig minden AI agent projekt csak automatizált kiszolgáltatottság.
A terasz, napkelte előtt
Ülök a hideg márványpadon, a görög sziget csendjében. A levegőben még ott leng a tegnap esti rozmaring illata. Előttem a tenger sötét, ólomszürke folt, de a horizonton már világosodik egy vékony, narancssárga csík. Hallom a hullámok rendületlen, lassú dobogását a sziklák alatt. Egy hajó fénye villan távolabb, apró, mozgó pont a végtelenben. A tenyeremmel a pad hideg felületét simogatom. Minden nyugodt, kiszámíthatónak tűnik. Majd a nap első sugara megérinti a vizet, és az egész táj hirtelen átalakul — fények, árnyékok, mozgások, amikre nem számítottam. A terv és az élő rendszer között ez a pillanat: amikor valami új beindul, és minden elkezd máshogy mozogni.
A terv és az élő rendszer között
Az IT/AI-projektek többsége nem technológiai okok miatt bukik el, hanem azért, mert a szervezet élő rendszerként reagál: saját immunválasszal, túlélési reflexekkel és hallgatólagos szabályokkal. Az AI ezt a működést nem javítja, hanem felerősíti — rendet is, káoszt is.
Egy IT- vagy AI-projekt indítása kívülről technológiai döntésnek látszik. A valóságban magatartásmódot ír át. Viselkedést. Új szabályokat kényszerít ki, új fogalmakat rögzít, új felelősségi határokat húz, új visszacsatolásokat épít — és közben azt feltételezi, hogy a szervezet úgy fog reagálni, ahogy a tervben szerepel.
A bukások nagy része ott kezdődik, hogy a szervezet nem „terv”, hanem élő rendszer. Saját reflexekkel. Túlélési ösvényekkel. Tabukkal. Jutalmazási logikákkal. És az élő rendszernek megvan a maga immunválasza mindenre, ami a belső egyensúlyát fenyegeti — legyen az egy új szoftver, egy új KPI vagy egy mesterséges intelligenciával megtámogatott workflow.
A digitális transzformáció nagy paradoxona az, hogy miközben az AI technológia gyorsan fejlődik, az IT- és AI-projektek nagy része mégis elbukik. A hiba ritkán a kódban van. Sokkal gyakrabban a működésben.
Az AI mint erősítő — nem mint megmentő
Az AI-t sokan úgy képzelik el, mint egy okos réteget, ami majd „rendbe teszi” a működést. A valóságban az AI erősítő. A mintázatokat, a definíciókat, a kivételeket, a kerülőutakat, a hallgatólagos szabályokat erősíti fel — mert ezekből tanul, ezekre optimalizál, ezek mentén automatizál.
Ha egy cégnél a „kész” azt jelenti a fejlesztésnek, hogy le van fejlesztve, az üzletnek azt, hogy használható, az operációnak azt, hogy monitorozható, a pénzügynek azt, hogy számlázható — akkor az AI nem fog egységes jelentést teremteni. A rendszer azt fogja csinálni, amit a szervezet valójában csinál. Nem azt, amit mond magáról.
A végeredmény ezért tűnik sokszor „furcsának”: mert a modell kíméletlen pontossággal tükrözi vissza a cég belső ellentmondásait. És ezt nagyítóval teszi.
[!important] A két forgatókönyv Rend esetén az AI rendet skáláz. Káosz esetén káoszt skáláz — és ezt nem szépen teszi, hanem gyorsan, nagy felületen, meggyőző magabiztossággal. A különbség a kettő között nem a technológia, hanem az, amire ráépül.
Milyen új hibamódokat hoz egy IT/AI rendszer bevezetése?
Egy új IT- vagy AI-rendszer bevezetése nem csak új funkciókat ad. Új kölcsönhatásokat hoz, és új hibamódokat szül.
Az új hibamódok többsége nem úgy néz ki, hogy „elromlott valami”. Úgy néz ki, hogy két dolog külön-külön működik, együtt viszont nem azt csinálja, amit várnánk. Mert az együttműködésben olyan tényezők válnak kritikussá, amik korábban el voltak maszatolva emberi pufferekkel. Időzítés, sorrend, késleltetés, jogosultság, állapotkezelés, kivételkezelés. Ki mikor látja az adatot. Mikor számít valami késznek. Ugyanaz a dátum lehet létrehozási dátum, teljesítési dátum, könyvelési dátum. Ugyanaz a státusz más csapatnak mást jelent.
A régi működésben ezek a különbségek úgy tűntek el, hogy valaki kézzel korrigált — rugalmasan, sokszor szó nélkül. Az új rendszerben a gépnek döntenie kell, és ettől a rendszer nem butább lesz, hanem következetesebb. A szervezet viszont gyakran nem következetes.
A bevezetés ilyenkor nem csak hozzáad valamit, hanem elvesz emberi mozgásteret is. Ez jó lehet, mert csökkenti a káoszt. Csakhogy a valóság kivételes, koszos, és tele van olyan mikrodöntésekkel, amelyeket eddig csendben hoztak meg emberek. Ha ezt a projekt nem tervezi bele, a kivétel nem megszűnik — hanem elköltözik. Átköltözik emailbe, chatbe, Excelbe, külön listákba, „majd én megoldom” típusú kerülőutakba.
Az új rendszer ilyenkor a hivatalos valóság lesz. Mellette pedig él egy másik valóság, ami a tényleges működést viszi. Ez a legdrágább állapot: mindenki kétszer dolgozik, és közben még vitázni is kell arról, melyik az igaz.
A szervezet nem úgy reagál, ahogy tervezték
Minden cégnek van egy hivatalos folyamata és egy valós folyamata.
A hivatalos folyamat az, ami a dokumentumokban van. A valós folyamat az, amit a cég ténylegesen csinál — amikor ég a ház, amikor gyorsan kell dönteni, amikor senki nem akar konfliktust, amikor „most ezt így oldjuk meg”, amikor „majd később rendbe tesszük”.
Egy IT/AI bevezetés a valós folyamatra érkezik meg. A valós jutalmazási rendszerre. A valós félelmekre. A valós tabukra. A valós túlélési útvonalakra. Ezért fordul elő újra és újra, hogy a projektcsapat azt hiszi, rendszert vezet be — a szervezet viszont valójában új eszközt szerez a régi működéshez.
Ha a cégnél a hősi tűzoltás a dicsőség, akkor az új rendszerből is tűzoltó eszköz lesz, és a hosszú távú rend építése háttérbe szorul. Ha a hibát büntetik, a hibák nem eltűnnek, hanem elrejtőznek — és a projekt a legfontosabb információt nem kapja meg időben. Ha a „zöld státusz” számít, akkor a dashboard státuszjelvény lesz, és a valós állapotnál fontosabb lesz a látszatállapot.
Ilyenkor nem a technológia bukik el, hanem a szervezet saját működési logikája nyeli el a bevezetést.
Az AI itt még élesebb tükröt tart. Mert az AI nem csak végrehajt — hanem mintázatot tanul. A kerülőutakat, a hallgatólagos szabályokat, a „nálunk ez így szokás” mozdulatokat is. Ha ezek automatizálódnak, a rossz működés nem csak megmarad — hanem skálázódik.
A rendszer visszarúg
Egy beavatkozásra a rendszer jellemzően ellenreakciót ad. Nem rosszindulatból, hanem mert a saját egyensúlyát védi.
Bevezetsz egy kontrollt — és megjelenik a kontroll kijátszásának kultúrája. Bevezetsz egy KPI-t — és megjelenik a KPI-játék, ahol a szám szebb lesz, miközben a valóság romlik. Bevezetsz egy új eszközt — és a szervezet megtalálja, hogyan tudja a régi szokásait továbbvinni benne.
Egy bevezetés akkor felnőtt, amikor nem meglepődik ezen, hanem belekalkulálja. Az ellenreakció nem kivétel, hanem természet. Ha nincs terv a visszarúgásra, akkor nem bevezetés zajlik, hanem remény.
Az Excel, a füstgép és az információs hatalom
A digitális transzformáció egyik legőszintébb kérdése: hol van az igaz adat, és ki tudja megmondani, hogy miért az az igaz?
Amikor erre a válasz az, hogy „Pisti összerakja Excelben”, akkor a cégnek nem adatgerince van, hanem füstgépe. Nem maga az Excel a probléma. Az a probléma, amikor az Excel nem eszköz, hanem pótlékrendszer. Amikor a vállalat legfontosabb integrációs rétege az, hogy valaki kézzel összefésüli a valóságot.
Ilyenkor a cégnek nem adatrendszere van, hanem történetei. Három fájl, három „végleges”, három különböző szám. A fájlnév önmagában diagnózis: final, végleges, mostmartényleg, final 2. A név azt jelenti, hogy nincs egyetlen forrás, nincs egyetlen fogalomkészlet, nincs egyetlen állapotmodell — és ezért a valóságot emberek pótolják.
Ez a pont, ahol az Excel több lesz hősiességnél és működési adósságnál: információs hatalommá válik. Aki az Excelt összerakja, az nem adminisztrál, hanem valóságot gyárt. Aki valóságot gyárt, az döntéseket befolyásol. Nem kell ehhez rossz szándék. Elég, hogy ő látja a kivételeket, ő ismeri a kiskapukat, ő tudja, mi a valódi szám.
A függőségnek nagyon jellegzetes íze van: a riport nem lekérdezés, hanem kérés. A szervezet nem tudja saját magát megkérdezni — csak embereken keresztül. A számok vitája nem arról szól, hogy melyik a helyes, hanem arról, hogy kinek hiszünk. Ez már nem adatvezérelt döntés, hanem bizalmi döntés. És a bizalom ilyenkor nem elvont fogalom, hanem konkrét belső hatalmi csatorna.
Adatgerinc nélkül az AI agentek halálos fegyverek
AI agentekkel most sokan úgy bánnak, mintha okos munkaerő lenne. Pedig az agent nem csak javasol — cselekszik. Folyamatokba nyúl bele. Állapotot vált. Jegyet nyit. Ügyfélnek ír. Rendelést indít. Jóváhagy. Automatizál.
Adatgerinc nélkül nincs mire ráépíteni. Egy agentnek nem „adat” kell, hanem stabil fogalmak, események, állapotok, döntési pontok és kivételkezelés. Tudnia kell, mi számít igaz forrásnak. Mi a baseline. Mi a kivétel. Mi az eszkaláció. Mi a jogosultság. Mi a „kész” definíciója. Ha ezek nincsenek rögzítve, az agent nem segít — hanem ipari méretben terjeszti a hibát.
A rossz működés eddig lassan terjedt, mert ember volt a szűk keresztmetszet. Az agent megszünteti a szűk keresztmetszetet — és ettől a káosz skálázódik.
A legveszélyesebb önáltatás az, hogy majd a modell „rendbe teszi” a valóságot. Nem fogja. A modell megtanulja a torzított valóságot, és következetesen fogja visszaadni. Ettől lesz meggyőző. És ettől lesz veszélyes.
Mi az a szemantikus biblia, és miért nélkülözhetetlen az AI-hoz?
Közös jelentés nélkül nincs stabil mérés, nincs stabil riport, nincs stabil automatizálás — és AI esetén nincs stabil tanulás.
A „szemantikus biblia” nem dísz. Infrastruktúra. Közös fogalomtár és közös jelentésszerződés. Kimondja, mit jelent a rendelés, a készlet, a foglalás, a szállítás, a lezárás, a kész állapot, a jó adat, a rossz adat, a felelős, a tulajdonos. Kimondja, mi esemény és mi állapot, mi döntési pont és mi adminisztráció. Kimondja, mi számít hibának és mi számít eltérésnek.
Amíg ez nincs, addig minden KPI értelmezési harc, minden riport vita, minden IT/AI bevezetés politikai aknamező. Ilyenkor a projekt valójában nyelvi és folyamatprojekt — csak technológiai köntösben próbálják megúszni.
Miért a visszacsatolási hurkok a működés idegrendszere?
Rendszereket nem irányítani érdemes, hanem visszacsatolásokkal életben tartani.
Egy IT/AI projekt ott bukik el, ahol a visszacsatolás lassú, zajos, vagy következmény nélküli. A legdrágább hibák tipikusan nem attól drágák, hogy bonyolultak, hanem attól, hogy későn derülnek ki. Ha a hibát ma gyártja le a szervezet, és három hónap múlva veszi észre, a korrekció ára már nem egy döntés, hanem egy új projekt.
Attól, hogy valamit feedbacknek hívnak, még nem csatoltak vissza. Visszacsatolás akkor van, amikor a valóság jelzése ténylegesen átírja a következő lépést.
Két rossz véglet szokott megjelenni. Az egyik a túl korai fixálás: azért választanak KPI-t, mert kell valami — és onnantól a szervezet azt optimalizálja, akkor is, ha rossz. A másik a sodródás: „még alakul”, ezért nincs mérés — és a narratíva lesz a valóság.
A felnőtt megoldás a kétrétegű visszacsatolás. Kell egy stabil működési hurok, ami akkor is igazat mond, amikor a cél még változik — észlelhetőség, a változtatás biztonsága, a visszaállítás képessége, a döntések átfutási ideje, a függőségek száma, a kulcsember-kitettség, a hibák lokalizálhatósága. És kell egy értékhurok, ami eleinte hipotézisalapú tanulás. A kérdés ilyenkor nem az, hogy mennyi a ROI fél év alatt, hanem az, hogy mit tanultunk, ami átírja a következő döntést.
Kulcsgondolatok
- A szervezet élő rendszer, nem terv — saját reflexekkel, tabukkal és túlélési logikákkal reagál minden beavatkozásra, függetlenül a terv szépségétől
- Az AI erősítő, nem megmentő — rendet skáláz vagy káoszt skáláz, attól függően, amire ráépítik
- Hivatalos és valós folyamat nem ugyanaz — a bevezetés a valós folyamatra érkezik, és a szervezet új eszközt csinál a régi működéshez
- Az Excel-függőség információs hatalmat teremt — aki a valóságot „összerakja”, az döntéseket befolyásol, nem csak adminisztrál
- AI agentek adatgerinc nélkül nem segítenek — ipari méretben terjesztik a hibát, mert megszüntetik az emberi szűk keresztmetszetet
- A szemantikus biblia nem dísz, hanem infrastruktúra — közös fogalomtár nélkül minden IT/AI bevezetés politikai aknamező
- A visszacsatolás akkor visszacsatolás, ha következménye van — különben csak újabb réteg a régi működés tetején
Key Takeaways
-
Az IT/AI-projektek bukásának gyökere ritkán a technológia, hanem hogy a szervezet egy élő rendszer, amely saját immunválasszal, túlélési reflexekkel és hallgatólagos szabályokkal reagál a változásra. A projekt ezt a valós működést írja át, nem a dokumentumokban szereplő ideális folyamatot.
-
Az AI nem rendet teremt vagy javít, hanem erősítőként működik: a meglévő (akár rendezett, akár kaotikus) mintázatokat, kerülőutakat és belső ellentmondásokat skálázza fel gyorsan és meggyőző magabiztossággal. Ahogy a CORPUS-ban is rámutatnak, az AI előző digitális transzformációknál mélyebb következményekkel jár.
-
Egy új rendszer bevezetése új hibamódokat hoz, ahol a külön-külön működő elemek együtt nem a várt eredményt adják. A korábban emberi pufferekkel elsimított kivételek (pl. dátumértelmezés, státusz) kritikussá válnak, mert a gépnek következetesen kell döntenie egy gyakran következetlen szervezetben.
-
A projekt sikere attól függ, hogy a valós, hivatalos dokumentumokban nem szereplő folyamatokra és jutalmazási rendszerekre épít. Ha a szervezet kultúrája a hősi tűzoltást vagy a látszatállapotot jutalmazza, az új rendszer is csak eszközzé válik a régi, nem kívánt működés fenntartására.
-
A bukás egyik legdrágább formája, amikor a bevezetett rendszer a “hivatalos” valóság lesz, mellette pedig tovább él a tényleges működést lebonyolító párhuzamos rendszer (pl. Excel, email). Ez dupla munkát és folyamatos vitát generál arról, melyik az igaz, ahogyan a projektmenedzsment hiánya is kudarchoz vezethet más területeken is.
Gyakran Ismételt Kérdések
Miért bukik el az IT/AI-projektek 90%-a, ha a technológia egyre jobb?
Mert a bukás oka ritkán a kód — és szinte mindig a működés. A szervezet nem „terv”, hanem élő rendszer, amely saját egyensúlyát védi. Amikor az AI bevezetés a szervezet valós folyamataira érkezik — a valós jutalmazási rendszerre, a valós tabukra, a valós túlélési útvonalakra —, a szervezet nem alkalmazkodik a rendszerhez, hanem az új eszközt a régi működéshez igazítja. Az AI ezt felerősíti, mert mintázatot tanul: a kerülőutakat, a hallgatólagos szabályokat, a kivételeket is. A rossz működés nem megmarad, hanem skálázódik.
Mi a szemantikus biblia, és miért nélkülözhetetlen az AI bevezetéshez?
A szemantikus biblia közös fogalomtár és jelentésszerződés — kimondja, mit jelent a szervezetben a rendelés, a „kész” állapot, a hiba, a felelős, a tulajdonos. Amíg a „kész” mást jelent a fejlesztésnek, az üzletnek, az operációnak és a pénzügynek, addig az AI nem fog egységes jelentést teremteni. A modell azt fogja csinálni, amit a szervezet valójában csinál — nem azt, amit mond magáról. Közös jelentés nélkül nincs stabil mérés, nincs stabil riport, és nincs stabil automatizálás.
Miért veszélyesebbek az AI agentek, mint a hagyományos automatizálás?
Mert az agent nem csak javasol — cselekszik. Jegyet nyit, ügyfélnek ír, rendelést indít, jóváhagy. Ha nincs mögötte stabil fogalomrendszer, egyértelmű döntési pontok és kivételkezelés, akkor a rossz működést ipari méretben terjeszti. A hagyományos automatizálásnál az ember volt a szűk keresztmetszet, ami lassította a hibaterjedést. Az agent megszünteti ezt a szűk keresztmetszetet — és ettől a káosz nem lassul, hanem felgyorsul.
Kapcsolódó gondolatok
- Immunity to Change: Miért Buknak El Az AI Projektek — a versengő elköteleződések láthatatlan immunrendszere
- Az Adoptáció-ROI Paradoxon — miért költenek a cégek többet, miközben kevesebb értéket kapnak
- A digitális kor anatómiája — amikor a technológia architektúrája a gondolkodás architektúráját formálja
Varga Zoltán - LinkedIn
Neural • Knowledge Systems Architect | Enterprise RAG architect
PKM • AI Ecosystems | Neural Awareness • Consciousness & Leadership
Your org chart is a map. Your culture is the territory. AI reads terrain, not legend.
