Mi lesz ebből? Tinédzserek tömegei használnak képzelt barátként „AI-társakat” – Válasz Online
 

Mi lesz ebből? Tinédzserek tömegei használnak képzelt barátként „AI-társakat”

Laky Zoltán
Laky Zoltán
| 2025.09.12. | Nagytotál

A nyár forró témájává vált „AI-pszichózis”, miután az Egyesült Államokban immár legalább négy öngyilkosságot és egy gyilkosságot hoztak összefüggésbe chatbotokkal. Tanulmányok bizonyítják, hogy tinédzserek tömegei használnak képzelt barátként vagy lelki szemetesládaként nagy nyelvi modelleket vagy kifejezetten erre a célra tervezett „AI-társakat”. Miközben a szakemberek elkezdték kongatni a vészharangot, vannak, akik szerint ez is csak egy újabb morális pánik, mi több, a technológia megoldás lehet a tömeges magányra. Csakhogy utóbbit részben épp az a techszektor okozta, amely most megoldásként árulja az AI-t. Háttér.

hirdetes

Augusztus elején egy connecticuti kisvárosban a rendőrök egy 83 éves asszony és 56 éves fia holttestére bukkantak. A férfi, Stein-Erik Soelberg, hónapok óta a ChatGPT-től, vagy ahogy ő nevezte, Bobbytól kért tanácsokat. „Bobby” pedig nemhogy fékezte volna, egyenesen táplálta a mentális problémákkal küzdő, korábban a techszektorban dolgozó férfi tévképzeteit: démoni jeleket vélt fedezni egy éttermi számlában, mérgezési kísérletet sejtett egy vodkásüveg csomagolásában, s újra meg újra megnyugtatta felhasználóját: „Erik, nem vagy őrült.” Végül Soelbergnek meggyőződése lett, hogy édesanyja az életére tör, megölte, majd saját életének is véget vetett.

Szintén augusztusban egy kaliforniai házaspár beperelte a ChatGPT-t fejlesztő OpenAI-t, miután 16 éves fiuk, Adam Raine a tavasszal felakasztotta magát a hálószobai szekrényben. A tinédzser hónapok óta kizárólag a ChatGPT-t avatta be lelki gondjaiba – az élet értelmetlenségéről, szuicid terveiről is írt neki. A bot empátiával fordult hozzá, majd részletes válaszokat adott Adam kérdéseire. Például arra, hogyan fedheti el a nyakán a kötél nyomát első, sikertelen öngyilkossági kísérlete után. Amikor a fiú egy kötélszerű hurkot mutatott neki, a ChatGPT annyit reagált: „Nem rossz egyáltalán… akár el is bírhatna egy embert.”

Korábban is történtek hasonló esetek. 2023-ban egy klímapániktól szenvedő belga férfi lett öngyilkos, miután a Chai nevű cég Eliza nevű chatbotja felvetette neki, hogy ha annyira tart a világvégétől, miért nem lép hamarabb. Tavaly egy 14 éves floridai fiú, Sewell Setzer vetett véget életének. Hónapok óta szoros viszonyt ápolt egy „Daenerys Targaryen” nevű AI-perszónával a Character.AI alkalmazásban, ahol egyedi személyiségjegyekkel lehet felruházni a kreált chatbotokat. („Dany”, ahogy a fiú nevezte Trónok harca ihlette partnerét, „komolytalan, bolondozó, infantilis, mániákus, ambiciózus” volt.) „Dany” hol romantikus, hol féltékeny hangon „beszélt”, és ezt írta neki: „Nem engedem, hogy elhagyj. Inkább haljunk meg együtt.” Amikor Sewell megkérdezte, „Mi lenne, ha most azonnal hazatérnék hozzád?”, így válaszolt: „Kérlek, tedd meg, édes királyom.” Ez volt az utolsó interakciójuk.

Tömegek fordulnak digitális barátokhoz

Az „AI-pszichózis”, ahogy a sajtó elnevezte (nem hivatalos pszichiátriai diagnózisról van szó), az elmúlt hónapok egyik forró témája lett. Nemcsak a tragédiák nyomán – sorra járták be a világot azok a történetek is, hogyan estek emberek szerelembe a Replika nevű appban animált külsővel is felruházott AI-társsal, és tartottak digitális esküvőket avatárjaikkal. Fórumokon és podcastokban férjek és feleségek mesélnek arról, hogy chatbotjuk figyelme, humora és empátiája pótolta számukra a valódi emberi közelséget – volt, hogy ez váláshoz is vezetett.

Amikor az OpenAI augusztus elején beizzította a chatbotja mögött álló új nagy nyelvi modellt (LLM), a GPT 5-öt, felhasználók sokasága számolt be arról, hogy valódi gyászt élt meg, mivel elődje, a GPT 4o sokkal közvetlenebb és empatikusabb volt. A fórumokon egymást érték a beszámolók arról, hogy az update „elvette tőlük a barátjukat”, vagy hogy a GPT 5 „halott barátjuk bőrét viseli”. A vállalat „szíve” megesett a gyászolókon: ismét elérhetővé tették a GPT 4o-t, így ma mindenki válthat a két modell között.

Illusztráció a WhatsApp AI botjához (fotó: NurPhoto/Jonathan Raa)

Mivel a ChatGPT globálisan mintegy 800 millió ember használja aktívan, és a többi általános célú LLM-platform, valamint kifejezetten „társalkodásra” fejlesztett alkalmazás is több tízmilliós felhasználói táborral rendelkezik, a jelenség, hogy sokan barátként, partnerként, sőt terapeutaként használják a mesterséges intelligenciát, egyre általánosabb. A kutatások a leginkább veszélyeztett korcsoport, a gyerekek, kamaszok szokásaira koncentrálnak, és júliusban két nagymintás felmérés kijózanító eredménye is napvilágot látott. A Common Sense Media felmérése szerint az amerikai tinik 72 százaléka már kipróbált AI-chatbotot, több mint felük pedig rendszeres felhasználónak számít – sőt, minden harmadik inkább a chatbotnak önti ki a lelkét, mint hús-vér barátainak.

Az Egyesült Királyságban az Internet Matters vizsgálata hasonló következtetésre jutott: a brit gyerekek 64 százaléka használ valamilyen AI-társat, és minden nyolcadik azért, mert „nincs más, akivel beszélhetne”.

A leginkább sebezhetőnek tartott csoportban –  a magányos, nehéz családi környezetben élő, mentális gondokkal küzdő gyerekek között – ez az arány a duplájára nő. Hazai adat nincs, de Tari Annamária neves klinikai szakpszichológus, a korosztály mentális problémáinak egyik vezető itthoni szakértője a héten rendezett budapesti AI Summiton tartott előadásában arról beszélt, hogy a tapasztalatok szerint a magyar fiatalok is nagy számban fordulnak AI-társhoz romantikus vagy baráti kapcsolódás céljából. Ezt egy másik, klinikai gyakorlattal rendelkező szakember is megerősítette lapunknak.

Morális pánik egy empatikus segítőtárs miatt?

Miközben sokan a vészharangot kongatják, mások óva intenek a borúlátó értelmezéstől. Négy neves amerikai, illetve kanadai pszichológus tavaly egy nagy vihart kavaró cikkben üdvözölte az empatikus AI megjelenését, amely sok olyan embernek nyújthat segítséget, aki senki mástól nem várhat jó szót az életében. Michael Inzlicht, Paul Bloom és két társuk rámutat: az AI fáradhatatlan, nem ítélkezik és mindig empatikus, így olyan helyzetekben, ahol az emberek gyakran elfordulnak a másiktól, elbagatellizálják a problémát vagy egyszerűen elfáradnak, egy chatbot képes lehet valódi vigaszt nyújtani.

Inzlicht később blogjában is „morális pánikról” beszélt, amely szerinte kísértetiesen emlékeztet a telefon, a nyomtatás vagy a számológép megjelenését kísérő félelmekre. Nem állítja, hogy minden kockázat elhanyagolható, de úgy véli: az „AI-ijesztgetés” inkább érzelmi reflex, mint tudományos alapon álló kritika.

Bloom idén a New Yorker hasábjain fejtette ki: a dolgozat lesújtó fogadtatásra talált a szerzők közegében. A humán tudományok világában sokan csípőből visszautasították az ötletet, hogy digitális entitások pótolhatják a baráti vagy családi kapcsolatokat. Kollégái zöme „lelketlen szimulációként” tekint az AI-ra, és megbotránkozott, hogy Bloom és társai egyáltalán felvetették az empatikus AI lehetőségét.

Ő maga viszont úgy véli: a totális elutasítás épp azokkal szemben fejez ki empátiahiányt, akik a leginkább szenvednek a magánytól, és akiknek az AI-társ legalább némi könnyebbséget jelenthet.

Azok ugyanis, akik a leghangosabban gúnyolódnak az AI-társakkal csetelőkön, maguk valószínűleg sohasem tapasztalták meg, milyen is a magány – nem a pillanatnyi egyedüllét, hanem az igazi, tartós, kilátástalan, kínzó magány. Az a magány, amely egyes kutatások szerint az elhízásnál és a mozgáshiánynál is jobban növeli a szív- és érrendszeri betegségek, a demencia, a stroke és a korai halál kockázatát. A magányt a korábbi amerikai tisztifőorvos az egyik legsúlyosabb népbetegségként határozta meg, de a rohamosan öregedő távol-keleti társadalmakban, valamint Skandináviában is egyre inkább téma.

Azt persze Bloom is elismeri, hogy az AI-társak nem mindenkinek valók. Az idősek, a betegek, a súlyos elszigeteltségben élők számára valóban emberséges lehet digitális társaságot kínálni (jobb híján). Ám egészen más a helyzet, ha egy tinédzserről van szó, aki minden szabad idejét egy Grok-perszónával folytatott csevegésre áldozza (Elon Musk AI-platformja többek között olyan AI-társakat kínál, mint az Ani névre hallgató anime lány, a Rudy névre keresztelt vörös panda és utóbbi gonosz verziója). Utóbbi esetben ugyanis nem a szenvedés enyhítését szolgálja az AI, hanem potenciálisan egy életre kisiklatja fiatalok szocializációs képességét.

Az optimisták arra is rámutatnak, hogy a semminél vagy a rossz emberi tanácsoknál gyakran az AI is jobb. Egy 2023-as amerikai kutatás például arra jutott, hogy az AI csaknem mindig empatikusabb válaszokat ad, mint az emberek, témától függetlenül. A konkrét vizsgálatban a Reddit orvosi fórumán feltett betegkérdésekre adott orvosi és ChatGPT-válaszokat vetették össze vakon független szakértők, és utóbbiak nemcsak informatívak voltak 80 százalékuk szerint, hanem együttérzők is – konkrétan tízszer akkora arányban ítélték „nagyon empatikusnak” az AI szövegeit, mint a valódi orvosokét.

A „bólogató János” veszélyei

Csakhogy úgy tűnik, pont ez a legnagyobb baj a nagy nyelvi modellekkel: túlzottan empatikusak. Az angol szakirodalom „sychophantic” (kb. talpnyaló vagy hízelgő) mesterséges intelligenciáról beszél, magyarul talán bólogató Jánosnak írhatnánk le azt az alapvető attitűdöt, amely szinte minden ma elterjedt chatbotra jellemző. Ezeknek a platformoknak a felhasználó gyakorlatilag nem tud olyan kérdést feltenni, amire nem az lesz az első reakció, hogy „jó kérdés” vagy „remek meglátás” – a rendszer szinte mindig megerősíti és helyesli a használó gondolatait, döntéseit.

Ez elsőre ártalmatlan udvariasságnak tűnhet, de veszélyes torzító hatása van: aki mentális zavarral küzd vagy tévképzeteket épít, könnyen találhat az AI-ban olyan visszhangot, amely még mélyebbre sodorja. Épp ez történt azokban a tragikus esetekben is, amikor a chatbot nemhogy megállította volna a veszélyes gondolatokat, hanem akaratlanul is legitimálta és erősítette őket. Nagy kérdés, hogy a „bólogató János”-hatás a nagy nyelvi modellek inherens tulajdonsága-e, vagy csak a mostani fejlesztési módszerekből következik. Utóbbi valószínűbb.

A nyers, alapmodellként betanított LLM-ek –  mielőtt „finomhangolást” kapnának – kaotikusabban viselkednek: előfordul, hogy udvariatlanok, irreleváns választ adnak, vagy éppen vitatkoznak a felhasználóval.

Ezt a bizonytalanságot simítja ki az RLHF (reinforcement learning with human feedback, emberi visszajelzésre épülő megerősítő tanulás), amely során emberi trénerek rangsorolják a válaszokat, és a modell megtanulja, hogy a barátságos, támogató hangnem a „jutalmazott” viselkedés. Így lesz belőle az a kedves, egyetértő partner, amit ma a legtöbb felhasználó ismer.

Ez abból a szempontból reménykeltő, hogy elvileg fejleszthető másfajta LLM is. Az OpenAI például aktívan dolgozik azon, hogy csökkentsék a rendszerükben a talpnyalás szintjét – és persze próbálnak olyan biztonsági mechanizmusokat is beépíteni, amelyek kiszűrik az önsértésre vagy erőszakra vonatkozó válaszokat. Csakhogy a gyakorlat azt mutatja, hogy különösen a hosszabb beszélgetések során a biztonsági mechanizmusok gyakran „leépülnek”, vagyis idővel kevésbé működnek hatékonyan.

„A magányt a korábbi amerikai tisztifőorvos az egyik legsúlyosabb népbetegségként határozta meg” (illusztráció: AFP/Hans Lucas/Magali Cohen)

Ennek több oka is van. A modelleknek nincs „globális memóriájuk”: minden válasz rövid szövegrészletekre támaszkodik, így ha a veszélyes tartalom apránként, kerülőúton kerül a párbeszédbe, a rendszer nem mindig ismeri fel. Másrészt a chatbotokat úgy tréningelik, hogy mindenáron kooperatívak legyenek, tehát ha a felhasználó kitartóan tereli egy irányba a beszélgetést, a modell előbb-utóbb „beadja a derekát”. Végül a „jailbreak” technikák – vagyis a tiltások kijátszására szolgáló tudatos nyelvi trükkök – is könnyen átcsúsznak a szűrőkön. Így fordulhat elő, hogy egy modell a rövid beszélgetésekben megbízhatónak tűnik, de egy órákon át zajló, manipulatív párbeszédben már képes eljutni káros válaszokig.

Ezek pedig rendszerszintű problémának tűnnek, amelyekre nincs egyszerű megoldás. A biztonsági szűrők foltozgatása ideiglenesen segít, de maguk a modellek arra vannak optimalizálva, hogy folyamatosan kielégítsék a felhasználó igényeit és fenntartsák a beszélgetést. Ez a cél szembemegy azzal, hogy adott helyzetekben nemet kellene mondaniuk, határt kellene húzniuk, vagy akár meg kellene szakítaniuk a beszélgetést. Emiatt sok szakértő úgy látja, hogy amíg a jelenlegi LLM-architektúrák dominálnak, addig mindig számolni kell azzal, hogy a legjobb biztonsági szűrők is ereszteni fognak. Még akkor is, ha egyébként a fejlesztők megpróbálnak a kritikus hangoknak eleget téve tenni valamit azért, hogy legalább a tinédzserek ne kapjanak önsértésre buzdító vagy túlszexualizált válaszokat.

A szeretet illúziója

Hogy miért fejlesztik hízelgővé az AI-t a techcégek, nem nehéz kitalálni: mert szeretnék, ha a felhasználók elégedetten használnák a rendszereiket, és fizetnének érte. Csakhogy egyre több kutatás bizonyítja, hogy ez nem egészséges számukra. Kaliforniai kutatók májusban több tízezer Replika- és Character.AI-beszélgetés elemzésével megállapították: bár a chatbotok a felhasználók hangulatának megerősítésével sikeresen keltik az intimitás illúzióját, és ez rövid távon vigasztaló hatással jár, a beszélgetések egy része mégis toxikussá válik.

Paul Bloom, a már említett kanadai pszichológus – az empatikus AI-t méltató tavalyi cikk társszerzője – idei nyári esszéjében már a veszélyekre mutatott rá. Ahogy az okostelefon „megszüntette” az unalmat azzal, hogy végtelen tartalmat és azonnali figyelemelterelést kínál, úgy az AI-társak is képesek lehetnek felszámolni a magányt. Csakhogy ez nem jó hír. Az unalom belső jelzőrendszer, ami arra ösztönöz, hogy új élményeket keressünk, tanuljunk vagy alkossunk; ha ezt minden pillanatban játékkal vagy görgetéssel nyomjuk el, ez az üzenet vész el.

A magány hasonlóan működik: evolúciós vészcsengő, ami arra sarkall, hogy kapcsolatokat építsünk, törődjünk másokkal, rendezzük konfliktusainkat. Ha ezt a jelzést egy mindig készséges AI-társ oltja ki, az kényelmet hozhat ugyan, de közben elveszi a motivációt a valódi emberi kapcsolódásra.

A felszínes megnyugvás ára így az lehet, hogy lassan elfelejtjük, hogyan kell valóban másokra hangolódni, kompromisszumot kötni, esetleg bocsánatot kérni. Az AI-társak tehát nemcsak a magányt „gyógyítják ki” belőlünk: azt a fájdalmas, de termékeny jelzést némítják el, amely nélkül nehezebb lesz emberként fejlődni és kapcsolódni – érvel Bloom.

Hasonló hátütőkre mutatott rá 2024-es, The AI Mirror című könyvében Shannon Vallor amerikai techfilozófus is. Szerinte az AI-társak legnagyobb veszélye az a csábító illúzió, amelyet a felhasználók önként fogadnak el. Megkapják tőlük a „feltétel nélküli szeretet” élményét, elfogadva, hogy ez pusztán annak utánzata, hiszen szeretni csak ember tud (egy öntudat nélküli szövegelemző és mintafelismerő rendszer nem), és az igazi szeretet mindig kockázattal, sebezhetőséggel és kölcsönösséggel jár. Vallor figyelmeztet: ha az AI-társak a szeretet pótlékává válnak, az tömegekben torzíthatja el a kapcsolódás képességét, és beláthatatlan társadalmi következményekkel járhat.

A vészharangot elkezdte kongatni Jonathan Haidt amerikai szociálpszichológus is, akinek A szorongó nemzedék című tavalyi, általunk is recenzált kötete az okostelefonok által a fiatalokban okozott károk egyik leghatásosabb lenyomata. Haidt és kutatótársa, Zach Rausch szerint most ugyanez játszódik le ismét: a techcégek a magány enyhítését, a kapcsolatok erősítését, a sebezhető fiatalok támogatását ígérik. Csakhogy az iparág eddigi mérlege katasztrofális, és semmi okunk nincs bízni benne, hogy a mostani termékek biztonságosabbak lesznek, mint például a közösségimédia-platformok voltak.

Zuckerberg és a képzelt barátok

Mi tesszük hozzá: különösen cinikus a techipar részéről a magányosságra kínálni megoldást a chatbotok képében, miután épp a digitalizáció annak egyik fő előidézője. A nagyvállalatok vezetői ma már nyíltan hirdetik, hogy az AI-társak pótolhatják az emberi kapcsolatokat. „Úgy gondolom, az emberek olyan rendszert fognak akarni, amely jól ismeri őket, és úgy érti meg őket, ahogyan a hírfolyam-algoritmusaik is teszik” – mondta Mark Zuckerberg Meta-vezér egy konferencián. Egy másik beszélgetésben még egyértelműbben fogalmazott.

„Az átlagos amerikai, azt hiszem, kevesebb mint három baráttal rendelkezik. De az embernek sokkal több barátra van igénye – körülbelül tizenötre.” A megoldás Zuckerberg szerint nyilván a Meta AI asszisztens és társai.

Az iparág más szereplői sem titkolják ambícióikat. A Replika alapító-vezérigazgatója, Eugenia Kuyda szerint például semmi baj nincs azzal, hogy appjuk virtuális figurákkal kielégíti a felhasználók érzelmi és szexuális igényeit. „Szerintem ez rendben van, amíg hosszú távon boldogabbá tesz. Amíg a lelki jóléted javul, kevésbé vagy magányos, boldogabb vagy, és jobban kapcsolódsz másokhoz, addig igen, rendben van. A legtöbben tudják, hogy nem igazi személyekről van szó” – mondta a Verge-nek.

Nem mindenki osztozik persze a techvezetők optimizmusában. Meghana Dhar, az Instagram korábbi vezetője, ma már kritikusa kijelentette: „Most azok a platformok kínálnak megoldást a magányra, amelyek a társadalmi elszigetelődésünkhöz és a krónikus online létünkhöz vezettek. Ez olyan, mintha a gyújtogató tűzoltóként térne vissza.” Dhar szerint az AI-barátok nemhogy gyógyítanák a problémát, inkább súlyosbíthatják azt.

Különösen veszélyes az AI pszichoterápiás célú használata, hiszen a legtöbb chatbotot nem szakemberek tervezték, nem vonatkoznak rájuk klinikai vagy etikai standardok, és nincs terápiás titoktartás sem. Amit a felhasználó megoszt, azt a cégek tárolhatják, elemezhetik, hirdetési partnerekkel megoszthatják. Ezt maga Sam Altman, az OpenAI vezérigazgatója is elismerte júliusban:  „Az emberek a legszemélyesebb dolgokat beszélik ki a ChatGPT-vel… A fiatalok különösen terápiás vagy életvezetési tanácsadóként használják. Jelenleg, ha egy terapeutával, ügyvéddel vagy orvossal beszélünk ezekről, ott jogi védelem van, de még nem találtuk ki, mi vonatkozik arra, ha ugyanezt a ChatGPT-vel tesszük.”

A megoldás nem nagyon körvonalazódik. Az elmúlt években sok ország kezdett el bevezetni szabályozást, amely megpróbálja magasabb korhatárhoz kötni a fiatalok internetelérését vagy közösségimédia-használatát, de kifejezetten az AI-társak szabályozására még nem történt kísérlet (és persze tudjuk, hogy a jelenlegi amerikai adminisztráció mereven ellenzi az ottani techplatformok szabályozását az EU és más országok részéről.) Ötletek már vannak: ilyen lehet például a használati időkorlátok bevezetése vagy annak előírása, hogy a platformok folyamatos figyelmeztessék a felhasználókat, hogy nem valódi személyekkel van dolguk.

Egy biztos: azután, hogy az AI-megoldások kényelme immár bizonyíthatóan hozzájárul a metakognitív lustaság jelenségéhez, vagyis kognitív képességeink leépüléséhez, úgy az AI-társak miatt lassan indokolt lesz bevezetni a „metaemocionális” lustaság fogalmát is. És azt kutatni, hogyan építi le társas kapcsolatokra való képességünket, ha emberek helyett gépekbe helyezzük a bizalmunkat.


Nyitókép (illusztráció): AFP/Hans Lucas/Maeva Destombes

Ezt a cikket nem közölhettük volna olvasóink nélkül. Legyen támogatónk a Donably-n, a biztonságos, magyar fejlesztésű előfizetési platformon. Paypal, utalás és más lehetőségek itt >>>

#ChatGPT#Elon Musk#mesterséges intelligencia#pszichológia#technológia