Nicsak! Egy techcég lelkiismeretet növesztett, és nemet mondott Trumpnak a gyilkos robotokra – Válasz Online
 

Nicsak! Egy techcég lelkiismeretet növesztett, és nemet mondott Trumpnak a gyilkos robotokra

Laky Zoltán
Laky Zoltán
| 2026.03.06. | Nagytotál

A venezuelai akció után a Pentagon valószínűleg Irán ellen is bevetette a Claude-ot, az Anthropic mesterséges intelligenciáját, amely hírszerzési értékeléseket készít, célpontokat azonosít, és harci forgatókönyveket szimulál az amerikai fegyveres erők számára. Csakhogy épp eközben rúgta össze a port a cég Donald Trump hadügyminiszterével, gyújtópontra juttatva az AI katonai felhasználásáról dúló vitát. A világ most az Anthropic kiállását ünnepli, amiért nemet mondott a teljesen autonóm fegyverekre, és elismerte, hogy a mai AI megbízhatatlan ahhoz, hogy életekről döntsön. Ám a Pentagon érveiben is van igazság, főleg annak fényében, hogy – amint az ukrajnai háború bizonyítja – a technológia gőzerővel fejlődik, és a Nyugat autoriter ellenségeinek nem lesznek skrupulusaik.

hirdetes
 

2016. A mesterséges intelligencia korának hajnala.

Dario Amodei, az eredetileg idegrendszeri modellezéssel foglalkozó amerikai AI-kutató, a Google munkatársa társszerzőként megírja azt a nagy hatású tanulmányt, amely máig hivatkozási alapja a mesterséges intelligenciáról szóló apokaliptikus vízióknak. Amodei úgy látta, hogy az AI-biztonság központi problémáját nem a különböző adatvédelmi és méltányossági aggályok, negatív gazdasági hatások jelentik, hanem a „balesetek”: azok a nem szándékos, mégis ártalmas esetek, amelyek az AI-rendszerek rossz tervezéséből adódnak.

Amodei húgával, a hasonlóan gondolkodó Danielával együtt nem sokkal később csatlakozott a szárnyait bontogató OpenAI-hoz, amely azt a célt tűzte ki maga elé, hogy a gonosz AI helyett „az egész emberiség javát szolgáló” AI-t fejlesszen ki. Noha Sam Altman vezetése alatt a labor feladta ezt, és az aggályoskodás nélküli kereskedelmi hasznosítás irányába mozdult el, Amodeiék hűek maradtak a magasztos misszióhoz, és 2020 végén e nézeteltérés miatt elhagyták az OpenAI-t, majd megalapították az Anthropicot.

2026. A mesterséges intelligencia fősodratú berobbanásának negyedik éve.

Az Anthropic Amodei vezetésével az amerikai Hadügyminisztérium (Department of War) legfőbb, sok területen egyetlen AI-beszállítója. A cég a második Trump-adminisztáció első évében, 2025 nyarán kötött 200 millió dolláros szerződés keretében bocsátja a Pentagon rendelkezésére a Claude modellcsaládot. Az amerikai fegyveres erők működésébe mélyen beépültek az AI-rendszerek: többek között adatelemzésre, ellátási láncok tervezésére, készletnyilvántartásra, hírszerzési értékelések készítésére, célpontazonosításra és harci forgatókönyvek szimulálására használják, de akár (fél)autonóm drónok irányítására is alkalmas.

Bár a fegyveres műveletek részletei nem nyilvánosak, a Wall Street Journal védelmi forrásai szerint a Claude-ot a 2026-os év két nagyszabású akciójában is felhasználták: a Nicolás Maduro elnök elfogását célzó januári venezuelai bevetésben, illetve az iráni rezsim ellen indított Epic Fury műveletben. A közösségi médiában elterjedt egy álhír, hogy a teheráni lányiskolát ért hibás találatot is AI-alapú célzórendszer okozta, de erre semmilyen jel nem utal. Ez volna az egész emberiség célját szolgáló AI?

Az Anthropicot az elmúlt években sokan vádolták, hogy pont ugyanolyan képmutató, mint az OpenAI, ahonnan alapítói kiváltak. Hogy a bevételt ugyanúgy a biztonság elé sorolták, miközben kifelé továbbra is játsszák a jófiút. Épp a napokban lazítottak maguk is saját biztonsági irányelveiken, mondván: egy olyan piacon, ahol a versenytársak nem tartják magukat ugyanolyan standardokhoz, az Anthropic nem engedheti meg magának, hogy lemaradjon. Minden magasztos víziókkal indulú techcég sorsa ez, mondták a cinikusok.

Egy ártatlan kérdés és két vörös vonal

Az elmúlt hét alapján mégis úgy tűnik: az Anthropicnál valóban maradt valami az eredeti célokból. Amikor szombat reggel felszálltak az első repülők, drónok és rakéták Irán felé, a Pentagon néhány órával korábban viharosan szakított Amodei cégével. Méghozzá etikai okokból: az Anthropic olyan vörös vonalakat szabott technológiája felhasználására, amelyet a Trump-adminisztráció nem akar betartani.

Ez a két vörös vonal: nem akarták, hogy a Claude-ot amerikaiakról gyűjtött tömeges megfigyelési adatok elemzésére alkalmazzák, és azt sem, hogy teljesen autonóm fegyverrendszerekben használják, vagyis olyan eszközökben, amelyek emberi beavatkozás nélkül képesek emberéletet kioltó kinetikus csapást végrehajtani.

A vita akkor csúcsosodott ki, amikor egy vezető beosztású Anthropic-alkalmazott januárban informálisan feltette a kérdést: bevetették-e a Claude-ot a venezuelai intervenció során.

Amelyben ugyan egyetlen amerikai katona sem vesztette életét, de a másik oldalon két civil áldozat mellett több tucat venezuelai és kubai katona esett el. Emil Michael, a Pentagon kutatási és fejlesztési államtitkára a napokban egy konferenciabeszédben elárulta: ez egy megvilágosító erejű pillanat volt számára, ekkor rendült meg a bizalma az Anthropicban.

Egy olyan akció után, amely „a mi életünkben végrehajtott egyik legsikeresebb katonai rajtaütés volt”, amelynek során egy hősies helikopterpilóta inkább elhallgatta lőtt sebét, hogy ne veszélyeztesse az elsőként leszálló csapatot, és ezért később Becsületéremmel tüntették ki, hogy jön ahhoz egy magáncég, hogy aggályoskodjon?

Az államtitkárt elmondása szerint ez a pillanat győzte meg végleg, hogy az AI a hadviselésben ugyanolyan alapinfrastruktúra, mint egykor a telekommunikációs hálózat vagy az internet. Egy ilyen technológia felett nem rendelkezhet egy beszállító belső „alkotmánya” – amely nem azonos az USA alkotmányával –, nem szűkítheti a tábornokok és harcosok mozgásterét. Vagy ahogy mások egy másik példával rámutattak: a Boeing sem mondhatja meg, milyen bevetéseket repülhet majd a légierő a fejlesztés alatt álló F-47 vadászgéppel.

Februárban hetekig tartó kötélhúzás zajlott a Pentagon és az Anthropic között a vörös vonalakról. Végül a Hadügyminisztérium múlt péntekig ultimátumot adott a cégnek, hogy fogadja el a feltételeit. Olyan kiskapukat kínáltak fel, hogy csak „jogilag engedélyezett” dolgokra alkalmaznák a Claude-ot, de Amodeinek ez nem volt elég. Egyrészt: a tömeges megfigyelés jogilag már eddig is lehetséges volt, csak az AI előtt nem volt praktikus eszköz, hiszen nem lehetett ráereszteni több százmillió állampolgár adataira. Másrészt: a katonai bevetés jogi kereteit a mindenkori hadügyminiszter bármikor egyoldalúan módosíthatja. Az Anthropic nem engedett az ultimátumnak, és a vége szakítás lett.

Dario Amodei Anthropic-vezető egy új-delhi AI-konferencián, miután Emmanuel Macron francia elnökkel találkozott 2026. február 27-én (fotó: AFP/Ludovic Marin)

Pete Hegseth hadügyminiszter már a védelmi ellátási láncot veszélyeztető nemzetbiztonsági kockázatnak minősítette (egy tweetben), Emil Michael államtitkár „istenkomplexusos” hazudozónak nevezte Amodeit, Donald Trump maga pedig „radikális baloldali” vállalatnak minősítette saját vezető hadiipari AI-beszállítóját. A helyzet abszurditását jelzi, hogy a cég még hivatalos értesítést sem kapott a drasztikus, eddig csak külföldi, például kínai cégek ellen alkalmazott lépésről. És mindeközben a Pentagon még egy 6 hónapos átmeneti periódusban, az új AI-beszállítók integrálásáig alkalmazni fogja a Claude-ot. Iránban is.

Altman és Musk befurakszik a résbe

A szakítással sokak szemében nagyot nőtt az Anthropic ázsiója: tömegek töltötték le Claude-ot, az Apple alkalmazásboltjában a legnépszerűbb AI-chatbot lett. A ChatGPT-t pedig tömegek kezdték törölni. Ha valaki még a Pentagonnál is rosszabbul jött ki a történetből, az az OpenAI: aznap, hogy a riválist kiakolbólították, bejelentették, hogy ők viszont elfogadták a Pentagon feltételeit, és leszerződtek a Hadügyminisztériummal. Saját alkalmazottai felháborodása miatt Sam Altman a következő napokban kármentésbe kezdett: elismerte, hogy a bejelentés „opportunistának” hatott, hangsúlyozta, hogy a megállapodásba biztonsági korlátokat is beépítettek… Ezek azonban homályosak.

Dario Amodei csütörtökön terjedelmes feljegyzésben adott hangot kételyeinek arról, hogy az OpenAI érdemi korlátokat szabott a katonai felhasználásra az általuk azonosított két problémás területen, és úgy vélekedett, hogy nagyrészt „biztonsági színházról” van szó. De azt is elárulta, hogy a Pentagon kettős mércével mért: a versenytársnak olyan engedményeket is felajánlott, amiket az Anthropiccal való tárgyalásokon nem.

Ez pedig arra utal, hogy valójában nem az etikai nézetkülönbségek miatt történt a szakítás, hanem politikai okokból.

Az OpenAI elnöke, Greg Brockman feleségével 25 millió dollárral támogatta Donald Trump választási szervezetét, Sam Altman pedig – Amodei szerint diktátoroknál megszokott stílusban – hízelkedett az elnöknek. Tavaly például olyanokat mondott, hogy sosem volt olyan könnyű az AI-fejlesztés, mint Trump elnöksége alatt, a politikus ugyanis igazán érti („he gets it”), miről szól ez a technológia.

Nem mellékesen feltűnt a képben Elon Musk is, akinek xAI nevű cégével ugyancsak az Anthropic-vita közepén kötött beszállítói szerződést a Pentagon. A Trumppal hol közelebbi, hol távolabbi barátságot ápoló rapszodikus üzletember hónapok óta azzal van elfoglalva saját X-fiókjában, hogy saját AI-modelljét, a Grokot tüntesse fel az egyetlen „nem woke” nagy nyelvi modellnek. Rendszeresen oszt meg például olyan (a házi tesztelések fényében legalábbis gyanús) képernyőfelvételeket, amelyeken a Grok „korrekt” választ ad egy provokatív kérdésre például Charlie Kirkről vagy George Floydról, ellentétben a balos ChatGPT és a Claude válaszaival – az Anthropicot egyenesen azzal vádolta, hogy „gyűlöli a nyugati civilizációt”.

A jövő elkezdődött – Ukrajnában

Akár politikai bosszúról van szó, akár nem, kár volna tagadni, hogy a morális dilemma valós, és a Pentagon érvei között is van olyan, amit érdemes megfontolni. A már említett technológiai államtitkár, Emil Michael (aki maga is a startupvilágból érkezett, az Ubernél töltött be vezető pozíciót) kifejtette: az Egyesült Államok nem engedheti meg magának, hogy egy rendszer egy aktív hadművelet közepén egyszerűen leálljon, és ezzel életeket veszélyeztessen. Ráadásul az ukrajnai háborúban látott drónfejlesztések miatt az országnak olyan képességekre van szüksége, amelyek egy amerikai terület felé közeledő rakéta- vagy drónrajt akár az emberi reakcióidőnél gyorsabban semlegesíthetnek.

Az Anthropic pedig nem volt hajlandó egyértelmű nemmel felelni arra kérdésre, hogy egy ilyen forgatókönyv esetén is fenntartaná-e az autonóm fegyverrendszerekre vonatkozó tilalmát. Amodei szerint ennek fő oka, hogy a mai AI egyszerűen túl megbízhatatlan ehhez, hiszen hallucinál, következetlen, működésében van egy olyan alapvető kiszámíthatatlanság, ami abból fakad, hogy statisztikai korrelációra épül, nem pedig a világ működésének valódi megértésére. Ezt egyébként a nagy nyelvi modelleket csodaszerként áruló AI-iparban sokan próbálják elmismásolni, az Anthropic első emberének őszintesége tehát ennyiben valóban üdítő.

A Pentagonnak azonban igaza van abban, hogy Ukrajna technológiai fordulópontot hozott a drónos hadviselésben, ahol az autonóm döntéshozatalnak nagyobb terepe lehet.

A harctéren megjelentek az első félautonóm, AI-vezérelt kamikaze drónok. Ezt a fejleményt az a kényszer váltotta ki, hogy az elektronikai zavarórendszerek egyre hatékonyabbá váltak a hagyományos, rádiójel-vezérlésű és GPS-en navigáló drónok ellen, ami kikényszerítette a valamilyen szinten autonóm megoldások kifejlesztését.

A New York Times decemberben nagyszabású, másfél éven át írt ukrajnai riportban számolt be a technológia szédítő fejlődéséről. A frontvonal mára tesztkörnyezetté vált, ahol ukrán és nyugati mérnökök, startupok, kockázatitőke-befektetők és katonai egységek közösen fejlesztik az úttörő megoldásokat. Ezekben még az ember is jelen van a döntési láncban – de egyre kisebb szerepben. A legelterjedtebb modell a célmegjelölés utáni autonómia: a pilóta azonosítja és „bezárja” a célt, majd átadja az irányítást a fedélzeti szoftvernek.

Ukrán katona felderítő drónt indít el a kelet-ukrajnai Donyecki területen 2026. január 5-én (fotó: MTI/EPA/24. gépesített dandár)

Az Eric Schmidt volt Google-vezér által finanszírozott Bumblebee drón például így hajtott végre több mint ezer igazolt bevetést orosz célpontok ellen. A NORDA Dynamics Underdog modulja is ezt az elvet alkalmazza: a pilóta az utolsó kilométerekre átadja az irányítást a szoftvernek, amely mozgó célpontokat is képes önállóan követni és eltalálni. Ebből a modulból már 50 ezer darab van a frontvonali egységeknél. A drónrajokat koordináló Pasika rendszer pedig lehetővé teszi, hogy egyetlen pilóta tucat­nyi drónt indítson és navigáljon autonóm módon egy előre kijelölt várakozási pontra – a csapást azonban egyelőre ember hajtja végre.

Ember a láncban?

A fejlesztők többsége ragaszkodik ahhoz, hogy ember is maradjon a döntési láncban. Ugyanakkor egyes rendszerek, mint az X-Drone, kommunikációs kiesés esetén már képesek önállóan vadászni emberi célpontokra, és kísérleteznek arcfelismerő technológiával is.

A kritikus hangok szerint ez olyan morális határvonalat jelent, amelyet nem szabadna átlépni: a gépek nem képesek megkülönböztetni élőlényt tárgytól, és nem képesek semmiféle erkölcsi mérlegelésre. Erre utal például az a friss hír, hogy a King’s College kutatása szerint a vezető AI-modellek szimulált háborús játékokban az esetek 95 százalékában bevetettek legalább egy taktikai nukleáris fegyvert, mivel „a nukleáris tabu úgy tűnik, nem olyan erős a gépek, mint az emberek számára”.

Az aggasztó trendekre számos aktor igyekszik felhívni a figyelmet, önkorlátozást és a technológia egyezményekkel történő szabályozását szorgalmaz. Mintegy 250 szervezet Stop Killer Robots (Állítsuk meg a gyilkos robotokat!) néven tömörült nemzetközi figyelemfelhívó hálózatba – cikkünk címébe is tőlük kölcsönöztük a dilemmát kissé talán leegyszerűsítő, de szemléletes kifejezést. Az ukrajnai fejlesztők közül a New York Times megszólaltatott olyat, aki elismerte, hogy „szörnyet teremtettünk”, de nem volt más választásuk. És most már amúgy sem lehet mit tenni, mert a szellem kiszabadult a palackból.

A legnagyobb közvetlen veszélyt a már említett drónrajok jelentik. Az elmúlt hónapokban több vezető katonai hatalom – köztük az Egyesült Államok, Izrael, Kína, Oroszország, Ukrajna és Németország – sikeresen tesztelte a drónok rajszintű alkalmazását, vagyis amikor 6–20 pilóta nélküli repülő működik összehangoltan, a kezelő által kijelölt célterületen belül szinte teljes autonómiával. A következő lépcsőfok a század- és kötelékszintű együttműködés lehet, ami akár éveken belül realitássá válhat, és akár százas, vagy ezres nagyságrendben jelentheti drónok összehangolt működését. Ezt már nagyon nehéz elképzelni emberi irányítás mellett.

Azt maga Amodei is elismeri, hogy az Egyesült Államok autokratikus ellenségei nem sokat gondolkodnak majd, hogy átlépjék-e azokat a vörös vonalakat, amelyeket ő a Pentagonnak megszabott, de az Egyesült Államok demokrácia, amit csak demokratikus eszközökkel szabad megvédeni. Hogy végül ez a logika érvényesül-e, rövidesen kiderül.


Nyitókép: egy F/A-18E Super Hornet harci gép taxizik a Perzsa-öbölben állomásozó Abraham Lincoln amerikai repülőgép-hordozó fedélzetén az iráni vezetés és katonai célpontok ellen indított Elsöprő Düh (Epic Fury) hadművelet keretében 2026. március 2-án (fotó: AFP/Egyesült Államok Haditengerészete)

Ezt a cikket nem közölhettük volna olvasóink nélkül. Legyen támogatónk a Donably-n, a biztonságos, magyar fejlesztésű előfizetési platformon. Paypal, utalás és más lehetőségek itt >>>

#AI#Amerikai Egyesült Államok#Donald Trump#drón#Irán#mesterséges intelligencia