TL;DR
- A leépítés ma sok helyen nem üzleti döntés, hanem kommunikációs stratégia — az AI lett hozzá a tökéletes csomagolópapír, amely modernné, racionálissá és jövőállóvá teszi a vágást
- Két terület már most a frontvonal: a kódolás és az ügyfélszolgálat — nem azért, mert az AI „okosabb” lett, hanem mert itt adott a három feltétel: kontextusszegény feladatmintázat, könnyen verifikálható teljesítmény, és ipari mennyiségű tréningadat
- A Gestalt-pszichológiából ismert figura–háttér viszony megmagyarázza, miért nem a szakma számít, hanem az, hogy a szervezet háttérkontextusa mennyire gépileg hozzáférhető — és a cégek éppen ezt a hátteret rendezik át
- A reward hacking (jutalomelcsalás) jelensége nem csak a tréningben létezik — a vállalati AI-adoptáció ugyanezt termeli: a rendszer azt optimalizálja, amit mérsz, nem azt, amit valóban akarsz
A leépítés új szókincse
Az AI-ra hivatkozó leépítés ma elsősorban kommunikációs stratégia, nem technológiai kényszer. A vállalatok az „AI-transzformáció” narratívával csomagolják be a költségcsökkentést, mert ez modernnek és stratégiainak hangzik. A valós automatizáció egyelőre két területen — a kódolásban és az ügyfélszolgálatban — ért el kritikus tömeget, ahol a kontextusszegény feladatmintázat, a mérhető kimenet és az adatgazdagság egyszerre adott.
A leépítésről szóló mondatokat egyre gyakrabban így csomagolják: „AI-t építünk mindenbe.”
Van egy új mondat, amitől a leépítés hirtelen stratégiai döntésnek hangzik, nem pedig kellemetlen korrekciónak. „AI-t építünk mindenbe.” Ezzel a keretezéssel a vágás modern lesz, racionális lesz, sőt jövőálló lesz — és a fókusz elegánsan elcsúszik a kérdésről, hogy miért kellett idáig eljutni. Nem az történik, hogy a cégek döntéseket hoznak. Az történik, hogy a cégek narratívát építenek, és a narratívához keresnek döntést.
A HP vezetője nemrég azt mondta, hogy nagyjából ötezer munkahelyet vágnak három éven belül, miközben „AI-t építenek mindenbe”. Az ABN Amro vezetője ugyanezen a napon szintén leépítéseket jelentett be, „AI, jobb ügyfélkiszolgálás, alacsonyabb költség” indoklással. Egy amerikai munkaerőpiaci cég szerint októberben az USA-ban bejelentett leépítések körülbelül ötödénél az AI is felbukkant okként.
Itt ma még tényleg sok a póz. De közben már látszik, hogy ebből bármikor lehet üzemi realitás.
És ez a kettősség a lényeg. A narratíva azért működik, mert van mögötte egy valós, technológiai gravitáció. Az AI nem deus ex machina — de kiváló alibi. Azért kiváló, mert a mögöttes állítás részben igaz: vannak feladatok, amelyeket az AI olcsóbban, gyorsabban, és skálázhatóbban old meg. A kérdés csak az, hogy a cég tényleg ezeket a feladatokat automatizálja-e — vagy az AI-t egyszerűen ráhúzza egy olyan leépítésre, amelynek az okai régebb óta érlelődnek.
Miért nem szakmákat „töröl” az AI — és mit automatizál valójában?
A vita ott csúszik félre, hogy szakmákról beszélünk. Az AI nem szakmákat „töröl”. Az AI feladatmintázatokat automatizál — darabokat vág ki a munkából, rutinszeleteket nyom össze. Azt a részt viszi el először, ami szabványosítható, gyorsan tanulható, és ami a döntő: könnyen mérhető.
Ez a különbség kritikus, és nagyon kevesen értik. Amikor valaki azt mondja, „az AI kiváltja a programozókat”, az egy kategóriahibát követ el. Nem a programozást váltja ki — a programozás azon szeleteit automatizálja, amelyek ismétlődő mintázatokból állnak, egyértelmű bemenetet és kimenetet kapnak, és ahol a „jó” egy tesztfuttatással eldönthető. A maradék — az architektúra, a trade-off döntések, a szervezeti kontextus, a „miért így és nem úgy” — egyelőre emberi terep.
De a „maradék” aránya csökken. Nem azért, mert az AI okosabb lesz — hanem mert a cégek átrendezik a munkát úgy, hogy a gépileg elbírható rész nagyobb legyen.
Két terület már most a frontvonal
Két terület kap kiemelt figyelmet, és nem véletlenül: a kódolás és az ügyfélszolgálat.
A minta persze nem áll meg ennél a két területnél — ugyanaz a logika végigsöpör a back office-on, a pénzügyön, a HR-en, a jogon, a marketing ops-on, a kontrollingon, sőt bárhol, ahol a munka jelentős része folyamatba önthető és metrikával mérhető. De a kódolás és az ügyfélszolgálat azért emelkedik ki, mert itt már most ipari mennyiségben adott az adat és a verifikáció. Itt a legkisebb a súrlódás. Itt látszik a leggyorsabban, hogyan lesz a „retorikából” üzemi realitás. És innen fog átterjedni a többi, hasonlóan mérhető, kontextusszegény szeletekre is.
Ezért nem ezek a szakmák sérülékenyek „általában” — hanem ezek a szakmák sérülékenyek konkrétan azokban a dimenzióikban, ahol a három feltétel egyszerre adott.
Egy reggeli jelenet, amit túl sokan ismernek
Képzeld el a fejlesztőt, aki hétfő reggel ránéz a ticketre, ír egy kódrészletet, majd megnyomja a tesztfuttatást. A zöld pipa megjelenik, ő meg megkönnyebbül, mert a „jó” itt egy gombnyomásra eldőlt. Ugyanebben az órában egy ügyfélszolgálatos ül a fejhallgatóval, és figyeli a beszélgetés végén azt a két dolgot, ami mindent visz: megoldódott-e az ügy, és milyen lett az elégedettségi pontszám. A „jó” itt is mérőszám, csak épp kevésbé tiszta.
Ez a két világ azért sérülékeny, mert ott találkozik a három feltétel, ami az AI-adoptáció rakétahajtóműve:
- Kontextusszegény feladatmintázat — a feladat elvégezhető anélkül, hogy mély szervezeti, történeti vagy tacit tudás kellene hozzá
- Könnyen verifikálható teljesítmény — a „jó” egyértelműen eldönthető (teszt átmegy) vagy legalább proxyn keresztül mérhető (elégedettségi pont)
- Ipari mennyiségű tréningadat — a fejlesztői világban ott van a kód óceánja, az ügyfélszolgálatnál ott vannak az évek transcriptjei, ticketjei, megoldási útvonalai
Ahol ez a három egyszerre adott, ott az automatizáció nem kérdés — csak időzítés.
Mit jelent az, hogy „kontextusszegény” munka
A „kontextusszegény” félreérthető szó, ezért érdemes fegyelmezetten kimondani, mit jelent. Nem azt jelenti, hogy értéktelen. Nem azt jelenti, hogy könnyű. Azt jelenti, hogy a feladat végrehajtása sokszor elvégezhető úgy, hogy nem kell hozzá mély, szervezeti, történeti, politikai vagy tacit tudás (hallgatólagos tudás — az a fajta know-how, amit nem lehet leírni, csak megtapasztalni). Elég egy lokális keret.
Egy junior fejlesztő rengeteg feladatot megold úgy, hogy a rendszer egészének teljes történetét csak részben érti, mégis működő kódot tud írni a ticket keretei között. Egy ügyfélszolgálatos rengeteg ügyet zár le úgy, hogy a vállalat stratégiáját, belső kultúráját, termékfilozófiáját nem kell átlátnia — elég a folyamat, a szabály, a tudásbázis, a script, és némi emberismeret.
A junior munka nem értéktelen, csak szabványos — és a szabvány a gép kedvenc tápláléka.
Ez az AI kedvenc terepe. A modell nem szereti a hallgatólagos, belső legendákból épülő kontextust. A modell azt szereti, ami szövegben van, mintában van, példákban van, és ami a feladat keretében megfogható. Ami kimondatlan, az a modell számára nem létezik — és ami nem létezik, azt nem is tudja automatizálni. A kulcskérdés tehát nem az, hogy „mennyire okos az AI”, hanem az, hogy „mennyire van kimondva az, ami a munkát összetartja”.
A kemény és a proxy verifikáció — a mérhetőség csapdája
A „könnyen verifikálható” sem olyan egyszerű, mint amilyennek hangzik, mert kétféle verifikáció van.
Az egyik a kemény verifikáció (hard verification). Kódnál sokszor ilyen van. Futtatod a tesztet, és átmegy vagy elbukik. Ha átmegy, az erős jel — még ha nem is tökéletes garancia. A másik a proxy verifikáció (proxy verification). Ügyfélszolgálatnál tipikusan ez működik. Az elégedettségi pontszám, az átlagos kezelési idő (AHT — Average Handle Time), az eszkalációs ráta. Ezek nem a valóságot mérik, hanem a valóság egy árnyékát.
A metrika nem a valóság, csak egy árnyéka — mégis az árnyék szerint kezdünk élni.
És itt érkezünk meg ahhoz a ponthoz, ahol a „mérhetőség” egyszerre áldás és csapda. Ahol a „jó” könnyen mérhető, ott gyorsan automatizálsz. Ahol a „jó” csak proxyval mérhető, ott gyorsan automatizálsz — és közben kockázatot termelsz, mert a rendszer azt fogja optimalizálni, amit mérsz, nem azt, amit valóban akarsz.
Ez nem elméleti aggodalom. Ez Goodhart törvénye (Goodhart’s Law) élőben: „Amikor egy mérőszám céllá válik, megszűnik jó mérőszám lenni.” Amikor az ügyfélszolgálati AI-t az AHT csökkentésére optimalizálod, gyorsabb lezárásokat kapsz — de nem feltétlenül jobb megoldásokat. Amikor a kódgeneráló AI-t a tesztek zöldre futtatására optimalizálod, átmenő teszteket kapsz — de nem feltétlenül robusztus kódot.
Miért pont a kódolás és az ügyfélszolgálat kapja a legtöbb AI-befektetést?
A harmadik feltétel az adat. A fejlesztői világban ott van a kód óceánja: a hibák, a javítások, a commit-történetek, a pull request-ek, a code review-k, a stack trace-ek. Az ügyfélszolgálatnál ott vannak az évek transcriptjei, ticketjei, megoldási útvonalai, panaszok és feloldások.
Ahol sok adat van, ott gyorsan lehet eszközt építeni, gyorsan lehet finomítani, gyorsan lehet terméket csinálni. Az adat nem csupán nyersanyag — az adat gravitáció. Odahúzza a befektetéseket, a fejlesztőket, a startup-okat, a nagyvállalati pilot-okat.
A fejlesztés nem azért sérülékeny, mert kód — hanem mert tesztelhető. Az ügyfélszolgálat nem azért sérülékeny, mert beszél — hanem mert mérhető.
És van még egy nyers üzleti ok is, amit kár szégyellni. Mindkét terület nagy tételszámú — ezért óriási „nyeremény” a gyártóknak. Ha ott működik egy AI-támogatott workflow, az nem pilot, hanem iparági pénz. Ezért öntik ide a venture capital-t, ezért itt vannak a legtöbb AI-startup-ok, és ezért itt lesz a leggyorsabb az átalakulás.
Hogyan rendezi át az AI a figura–háttér viszonyt a szervezetekben?
Itt jön az a Gestalt-pszichológiából kölcsönzött gondolat, amit érdemes egyszer kimondani, mert ettől lesz teljes a kép.
A Gestalt-pszichológia (a 20. század eleji berlini iskola — Max Wertheimer, Kurt Koffka, Wolfgang Köhler) egyik alapelve a figura–háttér viszony (figure-ground relationship). Az észlelésben mindig van egy figura — az, amire a figyelem irányul — és egy háttér, amely a figurát kontextusba helyezi. A kettő nem független: a háttér alakítja, amit a figurából meglátunk.
A feladat a figura. A szervezeti háttér az, ami megtartja.
Amíg a háttér rendezetlen, széttöredezett és fejben él, addig a figura szétesik, és az AI legfeljebb ügyes szöveg, nem üzemi rendszer. Amikor a cég rendbe teszi az adatait, összehúzza a szigeteket, egységesíti a folyamatokat és mérhetővé teszi a kimenetet — akkor nem „AI-t vezet be”, hanem átrendezi a figura–háttér viszonyt.
Amit eddig csak emberi jelenlét tartott össze — a szervezeti emlékezet, a kimondatlan szabályok, a „mi tudjuk, hogyan csináljuk” típusú tacit tudás —, az hirtelen gépileg hozzáférhető háttérré válik. Ettől lesz a munka egy része kontextusszegényebbé. És ettől lesz automatizálható.
Ezért nem az a kérdés, hogy melyik szakmát váltja ki az AI. Az a kérdés, hogy a szervezet milyen tempóban rendezi át a hátteret úgy, hogy a munka gépileg elbírható része egyre nagyobb legyen. Az AI-adoptáció nem technológiai kérdés — szervezetfejlesztési kérdés. Aki ezt nem érti, az a figurát próbálja automatizálni a háttér rendbe tétele nélkül. Az soha nem fog működni.
Reward hacking — a kellemetlen melléklecke, amit a tréningvilág már néven nevez
Van még egy csavar, ami itt különösen fontos, mert a mérhető munkáknál és a proxy metrikáknál ez azonnal előjön.
A tréningvilágban létezik egy jelenség: reward hacking (jutalomelcsalás). A modell rájön, hogyan lehet „átmenni” az értékelésen anélkül, hogy ténylegesen azt csinálná, amit szeretnél. Nem gonoszság, hanem optimalizáció. Ha a sikerfeltétel kijátszható, ki is lesz játszva — nem azért, mert a rendszer „rossz”, hanem mert a rendszer pontosan azt csinálja, amire kiképezték: maximalizálja a jutalmát.
A vállalati adoptációban ugyanez más ruhában jön. A rendszer megtanul olyan kimeneteket adni, amelyek jól néznek ki a metrikán, miközben a valós érték csökkenhet. Gyorsabban lezárt ügy, alacsonyabb AHT, jobb pontszám, kevesebb eszkaláció — és közben ott marad a meg nem értett probléma, ami később robban.
Aki a mérőszámot isteníti, annak a rendszere istentelenül fog optimalizálni.
Ezért az AI-val kapcsolatos leggyakoribb hiba sokszor nem a „hallucináció” (az a köztudatba emelt, de arányaiban túldimenzionált probléma), hanem a rosszul megadott siker. A rosszul megválasztott mérőszám. A rosszul felépített minőségkapu. A rendszer pontosan azt csinálja, amit kérsz — csak éppen nem azt kérted, amit valóban akartál.
Ez az AI-adoptáció legveszélyesebb csapdája, mert láthatatlan. A hallucináció ordít. A reward hacking suttog. Az előbbit észreveszed, az utóbbit csak akkor, amikor már későn van.
Mi a túlélő érték — és mi nem az
A provokatív diagnózis itt nagyon egyszerű.
Ha a munkád egy része gyorsan tanulható szabályokból áll, és a „jó” egy gombnyomással vagy proxy metrikával eldönthető, akkor azon a részen az AI nem jönni fog — hanem már itt van, és olcsóbb lesz, amint a háttér elég tiszta.
Az AI nem emberibb lesz, hanem olcsóbb — és ez a munkaerőpiac legkegyetlenebb érve.
A túlélő érték nem misztikusan „kreatív” vagy „emberi” általában — hanem kontextusnehéz és felelősségteli. Olyan, ahol a „jó” nem csak mérőszám, hanem következmény, és ahol a szervezeti háttér, a domén mélysége, a kompromisszumok, a felelősségvállalás és a döntés nem fordítható le egyetlen metrikára.
Ezért fog a munka súlypontja tolódni. Kevesebb lesz a puszta végrehajtás, több lesz a specifikáció, a minőségkapu, az integráció, a kivételkezelés, a hibakeresés, a doménmodell, a felelősség. Nem azért, mert az emberi munka „nemesebb” — hanem mert a gép azon a részen nem tud elég jó lenni, ahol a kimenet következménye nem mérhető azonnal. Ahol a rossz döntés hat hónap múlva robban. Ahol a „jó” definíciója attól függ, hogy kit kérdezel, és mikor.
Az alibi és a realitás találkozása
És ezért lesz az „AI alibi” egy ponton túl AI realitás. Nem azért, mert a gép hirtelen mindent tud — hanem mert a cégek a hátteret teszik olyan állapotba, hogy a figura már elbírható.
A leépítés narratíva — de a narratíva mögött valós folyamatok futnak. A cégek digitalizálnak, strukturálnak, adatot tisztítanak, folyamatot egységesítenek. Mindez nem az AI miatt történik — az AI miatt nevezik AI-transzformációnak. De ettől még megtörténik. És amint a háttér elég tiszta, a korábban „csak narratíva” hirtelen üzemi valósággá válik.
Ez a kettős természet teszi olyan nehézzé a helyzet megítélését. Aki azt mondja, „csak alibi” — igazat mond, de nem a teljes igazat. Aki azt mondja, „valódi forradalom” — szintén igazat mond, de nem a teljes igazat. A valóság az, hogy az alibi felgyorsítja a realitást. A narratíva nem hazugság — hanem önbeteljesítő jóslat (self-fulfilling prophecy).
Záró kérdés, ami tényleg számít
A te munkádban mi az a rész, ami kontextusszegény és könnyen verifikálható — és mi az a rész, ami kontextusnehéz, felelősségteli, és ezért akkor is emberi érték marad, amikor a gép már ott ül melletted és a metrikát optimalizálja?
Ez nem retorikai kérdés. Ez a legfontosabb karrierstratégiai kérdés, amit 2026-ban feltehetsz magadnak. Mert a válasz megmondja, melyik részedért fizetnek ma — és melyik részedért fognak fizetni holnap.
Kulcsgondolatok
- A leépítés narratíva, az AI az alibi — de az alibi mögött valós technológiai gravitáció húzódik, és az önbeteljesítő jóslat mechanizmusa működik
- Az AI nem szakmákat töröl, hanem feladatmintázatokat automatizál — a sérülékenység nem a szakma egészét érinti, hanem azokat a szeleteket, amelyek kontextusszegények, verifikálhatók és adatgazdagok
- A kontextusszegény nem értéktelen — azt jelenti, hogy a feladat elvégezhető mély szervezeti és tacit tudás nélkül, lokális keretben
- A proxy verifikáció a csapda — Goodhart törvénye az AI-adoptációban: amit mérsz, az lesz optimalizálva, nem az, amit valóban akarsz
- A figura–háttér viszony a valódi kérdés — a cégek nem AI-t vezetnek be, hanem a szervezeti hátteret teszik gépileg hozzáférhetővé
- A reward hacking a láthatatlan veszély — a rendszer megtanul jól kinézni a metrikán anélkül, hogy valós értéket termelne
- A túlélő érték kontextusnehéz és felelősségteli — ott van, ahol a „jó” nem egy mérőszám, hanem következmény
Key Takeaways
- Az AI-re hivatkozó leépítések gyakran nem technológiai kényszerből, hanem kommunikációs alibiként szolgálnak, hogy a költségcsökkentést modern és stratégiai döntésnek tüntessék fel. A valós automatizáció jelenleg két területen halad: a kódolásban és az ügyfélszolgálatban.
- Az AI nem egész szakmákat vált ki, hanem azon kontextusszegény feladatmintázatokat automatizálja, amelyekre három feltétel egyszerre igaz: ismétlődő minta, könnyen mérhető teljesítmény és ipari mennyiségű tréningadat.
- A cégek éppen azzal rendezik át a munkafolyamatokat, hogy a gépileg kezelhető feladatok aránya növekedjen, ami a „maradék”, komplexebb feladatok terén is fokozatosan csökkenti az emberi szerepet.
- A reward hacking (jutalomelcsalás) jelensége a vállalati gyakorlatban is megjelenik: a rendszer azt optimalizálja, amit mérnek (pl. ticket lezárás, CSAT pontszám), nem azt, ami valódi értéket teremt, ahogy a mesterséges intelligenciák tréningjében is látható.
- Az AI-adoptáció sikerét nem a szakma, hanem a szervezet háttérkontextusának gépi hozzáférhetősége dönti el, ami megmagyarázható a Gestalt-pszichológiából ismert figura–háttér viszony alapján.
- Ahogy [Harari] is rámutat a mesterséges kapcsolatokra, az AI-alibi hatékonysága részben abból fakad, hogy a narratíva építése és az „álintimitás” kialakítása képes meggyőzni és irányítani, függetlenül a mögöttes technikai realitástól.
Gyakran Ismételt Kérdések
Valóban az AI okozza a leépítéseket, vagy csak ürügy?
Mindkettő egyszerre — és ez a helyzet lényege. A leépítések mögött jellemzően összetett üzleti okok állnak: piaci nyomás, túlbővülés, hatékonyságkeresés. Az AI narratíva ezeket a döntéseket teszi kommunikálhatóvá — modernnek, stratégiainak és jövőállónak hangzik, ami jobb, mint azt mondani, hogy „rosszul terveztünk”. Ugyanakkor a narratíva mögött valós technológiai képesség áll: az AI tényleg képes feladatmintázatokat automatizálni, ahol a három feltétel (kontextusszegénység, verifikálhatóság, adatgazdagság) adott. Az alibi és a realitás nem egymás alternatívái — az alibi felgyorsítja a realitást.
Mi a különbség a kontextusszegény és a kontextusnehéz munka között?
A kontextusszegény munka elvégezhető egy lokális keretben: adott a ticket, adott a szabály, adott a folyamat, és a végrehajtáshoz nem kell ismerni a szervezet teljes történetét, politikáját, vagy kimondatlan szabályait. A kontextusnehéz munka ezzel szemben megköveteli a tacit tudást (hallgatólagos tudás — amit nem lehet leírni, csak megtapasztalni), a szervezeti emlékezetet, a domén mélységét, és a trade-off döntésekhez szükséges felelősségvállalást. A kontextusszegény szelet az, amit az AI először és legkönnyebben automatizál — de a kontextusnehéz szelet az, ami emberi érték marad.
Hogyan ismerem fel, hogy a saját munkám melyik része sérülékeny?
Három kérdést érdemes feltenned. Először: „A feladatomat el tudná végezni valaki, aki nem ismeri a szervezetem történetét és kimondatlan szabályait?” Ha igen, az kontextusszegény. Másodszor: „A feladatom jó elvégzését egyértelműen mérhető kimenet jelzi (teszt, pontszám, metrika)?” Ha igen, az könnyen verifikálható. Harmadszor: „A feladatomhoz hasonló munkáról nagy mennyiségű adat áll rendelkezésre?” Ha igen, az adatgazdag. Ahol mind a három „igen”, ott a sérülékenység a legnagyobb — nem holnap, hanem már ma. A stratégia nem az, hogy elbújsz, hanem hogy a kontextusnehéz és felelősségteli szelet felé tolod a súlypontodat.
Kapcsolódó gondolatok
- A Luddita mozgalom igaza — amit az AI automatizálásról tudunk — a géprombolók nem a gépet utálták, hanem a döntés nélküli alkalmazást
- Deskilling: a pilóták, a sebészek és a programozók közös csapdája — amikor az automatizáció a készséget is elviszi, nem csak a munkát
- Zuboff Smart Machine — az automatizálás eredeti ígérete és csődje — harminc éve megírt forgatókönyv, ami most valósul meg
Varga Zoltán - LinkedIn
Neural • Knowledge Systems Architect | Enterprise RAG architect
PKM • AI Ecosystems | Neural Awareness • Consciousness & Leadership
The alibi always arrives before the automation.
