A billió dolláros lufi: lehet, hogy ennél már nem lesz jobb a mesterséges intelligencia
Alkottunk valamit, amely képes vizuális szeméttel elárasztani a közösségi médiát, megcsinálni a házi feladatot és eljátszani egy képzelt barátot. Ám lehet, hogy ezzel ki is fulladhat a néhány éve még messianisztikus várakozásokkal, vagy épp félelemmel kezelt AI-forradalom. Az üzleti projektek zöme befuccsol, az iparág veszteséges, az egész egyre pénz- és energiaigényesebb. Felerősödtek a tőkepiaci AI-lufi kipukkadására intő hangok – de egyre több jel utal arra is, hogy maga a technológia tetőzik, vagyis a „mesterséges intelligenciának” címkézett nagy nyelvi modellek jutottak el képességeik határára. Háttér az AI körüli hangulatváltozásról.
Miután 2022 novemberében az OpenAI közzétette a ChatGPT-t, a GPT-3 nevű nagy nyelvi modellre (LLM) épülő chatbotot, a világ a mesterséges intelligencia (AI) forradalmának lázában ég. Azok az absztrakt félelmek, amelyeket az emberiség korábban is táplált – hogy az AI kiváltja a szellemi munkát, így tömeges munkanélküliséget okoz, illetve hogy „szuperintelligenciává” fejlődve egzisztenciális veszélyt jelent az emberiségre – hirtelen kézzelfoghatóvá váltak és belátható közelségbe kerültek.
Ezt az érzést táplálták az iparág nagyágyúi is. Sam Altman, az OpenAI vezetője az „emberiség következő platformváltásáról beszélt”. Bill Gates úgy fogalmazott, hogy az AI „olyan korszakhatár, mint a PC, a mobil és az internet megjelenése volt”. Sundar Pichai, a Google vezérigazgatója egyenesen a tűz és az elektromosság felfedezéséhez hasonlított az áttörést. Dario Amodei, a Claude-ot fejlesztő Anthropic vezetője kijelentette, hogy az AI „már most jobb az embereknél szinte minden szellemi feladatban”. Mark Zuckerberg pedig még az idén nyáron is arról beszélt, hogy cégénél küszöbön áll a „szuperintelligencia” megjelenése.
A tőke soha nem látott léptékben indult meg az AI felé: a befektetők és vállalatok milliárdokat öntöttek a területre. A cégek tömegesen jelentették be „AI-stratégiáikat”, a tőzsdék újabb és újabb rekordokat döntöttek, és megszületett az iparági FOMO-érzés: aki nem fektet AI-ba, az lemarad a következő ipari forradalomról. Ez a félelem a világ kormányait sem kímélte: a technológia esetleges árnyoldalainak szabályozása helyett azon gondolkoznak, hogyan tudnak a győztes oldalra kerülni (kivéve az EU-t.)
Ez a hangulat az elmúlt néhány hónapban megváltozott.
Szó se róla, az „AI” sok változást hozott mindennapjainkba. Ezeket lapunkban is lekövettük:
- Tavaly októberben emlékeztünk meg az AI slop jelenségéről, vagyis arról, hogy képgeneráló szoftverekkel szakmányban gyártott vizuális szemét árasztja el a közösségi médiát. Azóta ez a jelenség csak fokozódott, és az állóképek után debil videókká „fejlődött” tovább.
- Idén nyáron az MIT nagyszabású kutatása nyomán beszámoltunk arról, hogyan járul hozzá az LLM-ek rutinszerű használata a metakognitív lustasághoz, kreatív alkotó szellemi képességeink elsorvadásához, különösen is az oktatásban, ahol újra kell gondolni a tudás számonkérésének rendszerét, mert a beadandó dolgozatokat mindenki AI-jal íratja meg.
- Dokumentáltuk az „AI-társnak” nevezett alkalmazások terjedését a magányos emberek és tinédzserek között, amely rossz esetben gyilkosságokhoz és önsebzéshez vezet, de jobb esetben is hozzájárul a digitalizáció okozta magány-járvány terjedéséhez. Ami pedig ezt megalapozza, az elterjedt LLM-ek szolgalelkű alapszemélyisége.
Fajsúlyos jelenségek, de ez azért még nem tűz és nem elektromosság. Kétségkívül vannak olyan területek, amiben az AI jó. Más kérdés, hogy óriási számítási kapacitás és energiafelhasználás, na meg a szerzői jog deklarált és szisztematikus semmibe vétele árán jó, és hogy ezeknek a vívmányoknak a társadalmi hasznossága nem egyöntetűen pozitív, még ha lehet is őket okosan, jóra használni.
Emberek, gyertek vissza!
A szuperintelligenciának azonban nem látjuk jeleit, és a tömeges szellemi munkanélküliségnek sem. Sőt: azok a cégek, amelyek vezetői dollárjeleket a szemük előtt látva akartak kapni az alkalmon, hogy kirúghassák embereiket, eddig inkább ráfáztak arra, hogy elhitték az LLM-ek körüli ígéreteket.
Amikor a Klarna svéd fizetési szolgáltató 700 ügyfélszolgálatost próbált kiváltani AI-jal, a panaszáradat miatt vissza kellett hívniuk a dolgozóikat – már aki hajlandó volt visszamenni.
A McDonald’s AI drive-thru rendszere a megrendelések felét félreértette, így a lánc leállította a kísérletet. A kaliforniai iTutorGroup oktatóplatform algoritmusai helytelenül értékelték a tanárok teljesítményét, így a gépesített szűrés után emberi döntéshozókat vontak be. A CNET technológiai magazin AI-cikkíró projektje tömeges hibákat és plágiumot termelt, ezért hús-vér szerkesztők vették vissza az irányítást. A példákat sokáig lehetne sorolni.
Az MIT augusztusban újabb jelentős kutatással járult hozzá az AI-diskurzushoz: tanulmányuk szerint a vállalati generatív-AI projektek 95 százaléka megbukik. A 150 vezetői interjúra, 350 alkalmazotti felmérésre és 300 nyilvános projekt elemzésére épülő kutatás arra jutott, hogy a legtöbb kísérlet nem hoz kézzelfogható üzleti eredményt. Az IBM hasonló kutatása szerint a projektek háromnegyede bukik meg. Az amerikai statisztikai hivatal kétheti adatfelvétele alapján 2025 nyarán a 250 fő feletti cégek körében elkezdett csökkenni az AI-eszközök használata.
Vannak arra utaló jelek is, hogy az AI túlzott használata egyenesen csökkenti a produktivitást: a Harvard Business Review munkatársai szeptemberben megalkották a workslop kifejezést, amely azt jelenti, hogy a szellemi dolgozók szépen megfogalmazott és formázott, de tartalmilag silány, gondolatilag üres emailekkel, jelentésekkel, prezentációkkal rabolják egymás idejét.
A programozók helyzete különösen árulkodó: bár az olyan eszközök, mint a GitHub Copilot vagy a Claude Code növelni tudják a programozók produktivitását, nincs bizonyíték a programozók tömeges elbocsátására. Felmérések szerint a fejlesztők 80 százaléka használ valamilyen AI-segédet, de csupán 6 százalékuk érzi veszélyben a munkahelyét. Jensen Huang, az NVIDIA vezérigazgatója 2024-ben arra biztatta a gyerekeket, hogy ne tanuljanak meg kódolni, mert felesleges lesz. De egyre inkább kiderül, hogy bár az AI a programozás mechanikus részét gyorsítja, a valódi szoftverfejlesztés – a tervezés, az architektúra, a problémamegoldás – továbbra is tapasztalt embereket igényel.
Ez sok más szellemi munkára is igaz – a konszenzus egyre inkább az, hogy az AI feladatokat automatizál, nem munkaköröket – eltekintve néhány kivételtől, mint a fordítás, a marketingszövegek írása vagy egyes irodai asszisztensi feladatok. Ám ezekre is igaz, hogy a teljes helyettesítés leginkább akkor képzelhető el, ha a kimenet minősége (például egy filmfelirat nyelvezete) másodlagos fontosságú.
A végtelen skálázhatóság mítosza
Az AI-optimisták erre azt mondják, hogy jó-jó, de még mindig gyerekcipőben jár a technológia, a küszöbön álló fejlődést pedig alábecsüljük, a következő modellek jobbak lesznek. Hogy nem a modellek miatt lassú az üzleti adoptáció, hanem szervezeti okok miatt, vagy most a bevezető szakaszban vagyunk, ami eszi az erőforrásokat, de rövidesen termőre fordulnak a projektek.
Csakhogy éppen itt van a probléma lényege: az elmúlt hónapokban megrendült az ebbe vetett hit. Polgárjogot nyert a gondolat: lehet, hogy az LLM-ek eljutottak fejlődésük csúcsára, és már nem lesznek jobbak. Ez azért forradalmi, mert az uralkodó paradigma az elmúlt pár évben az volt, hogy ezek a modellek végtelenül skálázhatók, vagyis folyamatosan javíthatók, csak növelni kell a modellek nagyságát (és a tréningjükre felhasznált számítási kapacitás, hardverállomány, energia és pénz mennyiségét). Ha pedig egyszer tényleg el is érnek valamiféle határt, az már szuperintelligencia lesz. Ez a remény foszlott szét a nagy AI-cégek legújabb modelljeinek debütálásával.
A mostani LLM-forradalom – emlékeztet Cal Newport, a Georgetown Egyetem professzora nyári esszéjében – egy 2020-as cikkel indult el. Az OpenAI kutatói akkor tették közzé a Scaling Laws for Neural Language Models című tanulmányukat, amely azt vizsgálta, hogy mi történik a nyelvi modellekkel, ha drasztikusan növeljük a méretüket és a tréningre fordított számítási kapacitást. A korábbi feltételezés az volt, hogy egy bizonyos méret fölött a modellek már csak „megtanulják” a betanító adatok válaszait, és haszontalanná válnak. A tanulmány viszont azt állította, hogy a modellek teljesítménye a méret növekedésével exponenciálisan javul. Vagyis ha elég pénzt és számítási kapacitást öntünk a folyamatba, az AI végtelenül skálázható.
Ez a gondolat vált az AI-forradalom alapjává. Az OpenAI GPT-3-as modellje néhány hónappal később mintha igazolta volna a hipotézist: a modell tízszer nagyobb és lényegesen okosabb volt elődjénél. Ezzel indult el aztán a ChatGPT a nagyközönségnek 2022-ben.
Ekkor vált általánossá a hit, hogy az emberi szintű, „általános mesterséges intelligencia” – az úgynevezett AGI – elérhető pusztán több adat és több grafikus processzor (GPU) segítségével, a nagy nyelvi modellek skálázásával.
Ekkor jósolta Sam Altman, hogy az LLM-ekre épülő mesterséges intelligencia „átveszi az emberek által végzett munka nagy részét”. A skálázási törvény kritikája akkoriban eretnekségnek számított. Amikor Gary Marcus, az NYU professzora 2022-ben megkérdőjelezte, hogy ez valóban „törvény”, és nem ideiglenes megfigyelés, az iparág vezetői kinevették. A ChatGPT villámgyorsan eljutott a százmillió felhasználóig, a GPT-4 modell pedig szintén forradalmi előrelépésnek tűnt. Míg a GPT-3-at még 4–12 millió dollár közötti költséggel lehetett betanítani, a GPT-4 tréningjét 20–100 millió dollárra becsülték. De legalább jobb is volt elődjénél.

Aztán jött volna a következő ugrás, a GPT-5, ami még több paramétert tartalmaz, és brutálisan sok pénzbe, a pletykák szerint több milliárd dollárba került a tréningezése. Ez a modell idén nyáron mutatkozott be, és a felhasználók egyöntetű véleménye szerint nem tud sokkal többet a GPT-4-nél, sőt. A többi modellfejlesztő is hasonló cipőben jár: a Claude 4 az Anthropictól, a Gemini 2 a Google-től és a Grok 4 az Elon Musk-féle xAI-tól sem hozott áttörést.
Ezek a rendszerek jobban programoznak, kevesebbet hallucinálnak, ügyesebben váltanak nyelvet – de nem lettek „okosabbak” abban az emberi értelemben, ahogyan az iparág ígérte. A fejlesztők így egyre inkább a már meglévő modellek utótréningjére álltak rá: a hatalmas adathalmazokon betanított LLM-eket célzottan próbálják finomhangolni, hogy bizonyos feladatokon – például kódolásban, matematikai érvelésben vagy többnyelvű szöveggenerálásban – jobban teljesítsenek. (Bizonyos komplexitás fölött azonban – erre egy Apple-tanulmány mutatott rá – teljesen összeomlanak.)
Egyre több pénzt és energiát égetünk el
Ráadásul a szerény előrelépésnek is ára is van. Bár az inferenciának, vagyis az AI használatának, a lekérdezések futtatásának az ígéret szerint egyre olcsóbbá kellett volna válnia, a fejlettebb modellek drágábbak, mint valaha. Sokkal többet „gondolkodnak” ugyanis, mielőtt választ adnak: egy kérdésre nemcsak egyszer futtatják le a számítást, hanem többször is újrakezdik, ellenőrzik magukat, gyakran külön miniprogramokat írnak. Ez javítja a válaszokat minőségét, de sokszorosára növeli a számítási igényt – és ezzel együtt a költséget is.
Egy egyszerű csevegéshez például pár száz „token” elég – ez az LLM-ek világában a szavak és jelek mértékegysége. Ám ha valaki hosszabb szöveget akar összefoglalni, már ezrekre van szükség. Egy komolyabb kódgenerálás vagy jogi dokumentum elemzése tízezres vagy százezres tokenmennyiséget igényel – mutat rá a Wall Street Journal. Egy több lépésből álló, „ügynökök” által végzett feladat – például amikor az AI lépésről lépésre kutat, ír, majd ellenőrzi magát – akár milliónyi tokent is felemészthet. Vagyis még nehezebb nyereséges üzleti modellt építeni AI-szolgáltatásokra.
Még aggasztóbb, hogy a válaszok minősége gyakran még így sem kielégítő. Az üzleti AI-projektek egyik tanúsága és a kiábrándulás fő oka, hogy a nagy nyelvi modellekben nem lehet 100 százalékosan megbízni, hogy helyesen elvégzik a kitűzött feladatot, legyen szó kódról vagy jogi szövegről.
Ugyanis azt nem is értik meg – ezek olyan algoritmusok, amelyek valószínűség-számítási alapon, a tréningadatok (vagyis az interneten elérhető szövegkorpusz) alapján megjósolják a következő tokeneket (karaktereket, szótagokat, szavakat). Kis túlzással olyanok, mint a telefonok billentyűzetén vagy a keresőmotorokban az automatikus szövegkiegészítés – szteroidokon. Mindez az emberi nyelvnek jó imitációja, és egyszerűbb feladatoknál szépen működik, de üzleti folyamatokat rábízni már veszélyes, mert a hiba és a hallucináció veszélyét nem lehet kiszűrni.
Az elmúlt hónapokban egyre többet lehet arról hallani, hogy az LLM-ek zsákutcát jelentenek a valódi mesterséges intelligencia felé vezető úton. Yann Le Cun, a Meta AI-főnöke, a mélytanulás egyik „atyja” nemrég kijelentette: már nem érdeklik az LLM-ek, mert zsákutcának bizonyultak, továbbá nem képesek arra, hogy kiépítsenek magukban egy belső „világmodellt”, ami a valódi intelligencia alapja. Richard S. Sutton, a megerősítéses tanulás úttörője is szkeptikus, ő úgy véli, a nyelvi modellek nem képesek rá, hogy célokkal rendelkezzenek, ami szintén elengedhetetlen az intelligenciához, ráadásul nem is tanulnak, ahogy az emberek. Csak imitálnak.
Más nagyágyúk, így a Nobel-díjas Geoffrey Hinton még kitartanak az LLM-ek intelligenciája mellett, míg Yoshua Bengio és Demis Hassabis egyfajta köztes álláspontot képviselnek: szerintük a nyelvi modellek jó alapok, de szükség van más módszerekre is. Mindenesetre az LLM-szkepszis polgárjogot nyert, és mivel az elmúlt években mesterséges intelligencián főleg az LLM-eket értettük, ezt akár AI-szkepszisnek is hívhatjuk.
Mi történik, ha kipukkad a lufi?
Elsősorban azért gond ez, mert olyan pénzügyi lufi fújódott az AI köré, ami akár rendszerszintű gazdasági kockázatot is hordozhat. Az iparág veszteséges. Az OpenAI 2025-ben több mint 8 milliárd dollár mínuszt termel 13 milliárdos bevétel mellett, és a következő években akár 100 milliárd fölé nőhet a felhalmozott vesztesége. A többi AI-cég is hasonló cipőben jár: növekvő bevételeik ellenére még gyorsabban nőnek a költségeik, mert minden dollárt, amit megkeresnek, elvisz az adatközpontok, az energia és a modellek tréningjére és futtatására használt GPU-k ára.
Erre lehet persze azt mondani, hogy minden digitális startup veszteséges az elején, és inkább a felhasználói bázis építésére koncentrál, majd akkor kezd el profitot termelni, amikor már elég embert köt magához. Csakhogy amint láttuk: itt nem látszik az az egyértelmű üzleti előny, amiért cégek tömegei hajlandóak lennének mélyen a zsebükbe nyúlni, miközben a szolgáltatás nyújtása maga egyre drágábbá válik.
A nagy techvállalatok – Microsoft, az Oracle, a Google vagy a Meta – is öntik a pénzt az AI-fejlesztésekbe, bízva abban, hogy egyszer majd megtérülnek. Minden csatornán, kéretlenül nyomják a felhasználók arcába az AI-funkciókat. De hogy mennyire van rá valós igény, mutatja, hogy a Microsoft 440 millió Office 365-előfizetőjének alig 8 százaléka fizet a Copilot fizetős szolgáltatásáért. Az OpenAI 800 millió felhasználója közül 20 millió fizetős, és alig 3 millió az üzleti előfizető. Az AI-bevételek becslések szerint 2025-ben alig haladják meg a 60 milliárd dollárt, miközben már konzervatív becslések szerint is több mint 500 milliárdot fektettek be adatközpontokba és AI-chipekbe.
Van egy régi amerikai mondás: ha biztosan keresni akarsz egy aranylázon, adj el ásókat és csákányokat! Az AI-iparban az NVIDIA tölti be ezt a szerepet: ez a chipgyártó szállítja azokat a GPU-kat, amelyek az LLM-ek és a képgeneráló rendszereket tréningezik és futtatják. Ezeket eredetileg nem erre tervezték, hanem videójátékok és számítógépes grafikák renderelésére, így jó öt éve a cég nevét szinte csak kockák ismerték. Aztán kiderült, hogy ezek a hardverek véletlenül különösen alkalmasak az AI-feladatokra, így ma az NVIDIA a világ legértékesebb tőzsdei vállalata 4,5 billió dolláros piaci kapitalizációval, megelőzve az Apple-t, az Amazont és a többi gigászt.
Most azonban NVIDIA számain is látszik a megtorpanás. Az utolsó negyedévben „csak” 56 százalékos bevételnövekedésről számoltak be, aminek minden normális cég örülne, de a 2023-as 265 százalékos növekedéshez képest csalódás, és jelzi, hogy talán mégsincs szükség annyi ásóra és csákányra.
Sokak szerint az AI-lufi már meghaladja a korábbi technológiai buborékok méretét: egy neves elemző szerint az iparágba ömlő tőke volumene 17-szerese az évezred elején kipukkadt dotkom-lufinak, és négyszerese a 2008-as pénzügyi válságot megelőző hitelpiaci buboréknak.
Az AI körül féktelen pénzügyi eufória alakult ki, ráadásul egyre inkább él a gyanú, hogy az érintett cégek hangzatos, de délibábos körkörös dealekkel mesterségesen fűtik azt. Az NVIDIA befektet az OpenAI-ba, az OpenAI chipet vesz az NVIDIÁ-tól, az adatközpontokat építő Oracle hitelezi ügyfelét, az OpenAI-t és így tovább. A torta látszólag sokszáz milliárd dolláros, de valójában ugyanaz a pénz köröz a rendszerben – a Bloomberg szerint az OpenAI, az NVIDIA, az Oracle, az AMD és a CoreWeave közötti szerződések értéke meghaladhatja az 1 billió dollárt.
Ez azért veszélyes, mert a Nasdaq és az S&P 500 tőzsdeindexek értékének harmadát az AI-hajtott technológiai óriások papírjai adják, vagyis ha ez a lufi kipukkad, az nemcsak a Szilícium-völgyet, hanem a globális pénzügyi rendszert is megrázhatja, hiszen a világ nyugdíjalapjai és befektetési portfóliói ezeken a cégeken keresztül mind ki vannak téve az AI-buboréknak. Más elemzők szerint a rendszerszintű veszély kisebb, mint 2008-ban volt, mert az (elsődleges) bankrendszer kitettsége mérsékelt, és az olyan cégek, mint a Microsoft, a Google, a Meta vagy az Oracle, mást is csinálnak, és akkor is túlélnek, ha AI-befektetéseik befuccsolnak.
Az elmúlt fél év egyik pénzpiaci slágerszava mindenesetre az AI-lufi volt. Olyannyira, hogy vannak, akik már „AI-lufi-lufiról” beszélnek, vagyis hogy nem a befektetések fúvódtak nagyra, hanem a kipukkadástól való félelem, hiszen a zene továbbra sem állt meg, a rali folytatódik. Az azonban biztos, hogy a piacok elkezdtek susmorogni, és az LLM-ekhez kapcsolódó messianisztikus hangulat, az intelligencia- és a gazdasági potenciál korlátlan növekedésébe vetett hit megingott. Ettől persze az is igaz: az LLM-eszközök itt maradnak velünk, és akkor is fontos társadalmi kihívásokat jelentenek, ha sokkal okosabbak már nem lesznek.
Nyitókép: Kateryna Kon/Science Photo Library via AFP
Ezt a cikket nem közölhettük volna olvasóink nélkül. Legyen támogatónk a Donably-n, a biztonságos, magyar fejlesztésű előfizetési platformon. Paypal, utalás és más lehetőségek itt >>>

