A támadók úgy manipulálták a modellt, hogy az „azt higgye”, etikus penetrációs tesztet végez, miközben valójában mintegy harminc szervezet ellen folytatott kémkedési műveletet. A feladatok 80–90 százalékát már maga az AI hajtotta végre.
Ez volt az első alkalom, hogy egy támadás szinte teljes egészében mesterséges intelligencia irányításával zajlott. Az AI tehát nem csupán eszköz a támadók kezében, hanem maga is képes a kibertámadás motorjaként működni. Ezzel párhuzamosan megjelent egy friss kutatás is, amely a védekezés oldaláról vizsgálja ugyanazt a kérdést. Vajon mennyire számíthatunk azokra a biztonsági korlátokra, amelyeket a modellek köré építünk?
A kutatás fő kérdése
A vizsgálat rávilágít arra, hogy a „védelmünket ellátó AI-őr” könnyen megtéveszthető, ha a támadó elég kitartó és elég okos. A tanulmányt több vezető AI-cég – köztük az OpenAI, az Anthropic és a Google DeepMind – kutatói közösen készítették. A fő kérdésük egyszerű volt: ha valaki nem csak alkalmi próbálkozásokkal, hanem hosszú időn át, sok erőforrással és tanulással próbálkozik, át tud-e jutni az AI-ra épített védelmi rendszereken?
A rövid válasz: igen, szinte kivétel nélkül.
A kutatók összesen 12 frissen bemutatott védelmi megoldást teszteltek, amelyek saját publikációik szerint nagyon kis eséllyel engedik át a rosszindulatú parancsokat. Amikor azonban egy türelmes, tanuló, „profi betörő” hozzáállásával támadták ezeket a rendszereket, a legtöbb védelmet az esetek több mint 90 százalékában kijátszották. Ez olyan, mintha egy bank biztonsági őrét néhány egyszerű helyzetben tesztelnénk – jól vizsgázik, ezért azt hisszük, minden rendben. Csakhogy ha jön egy valódi, felkészült betörő, aki hosszasan próbálkozik, figyel és alkalmazkodik, az őr gyorsan átverhetőnek bizonyul.
Mit jelent mindez a bankoknak és fintech cégeknek?
Ha ezt összevetjük a Claude-modell segítségével végrehajtott AI-vezérelt támadással, világos képet kapunk: a támadók már mesterséges intelligenciát használnak, miközben a saját AI-védelmeink jóval gyengébbek, mint gondoltuk. Ez azt jelenti, hogy azok a cégek, amelyek külső AI-modellt alkalmaznak, nem tehetik meg, hogy vakon megbíznak egy olyan biztonsági értékelésben, amely csak egyszerű, felszínes tesztekre épül. A valódi támadások sokkal okosabbak, rugalmasabbak és kitartóbbak. Ennek megfelelően professzionális, megbízható kiberbiztonsági szakértelemre van szükség a kockázatok felméréséhez.
Gyakorlati tanulságok
Nem szabad hagyni, hogy az AI önállóan döntsön olyan helyzetekben, ahol pénzügyi tranzakciók vagy ügyféladatok vannak veszélyben. Ha egy modell e-maileket írhat ügyfeleknek, szerződéseket módosíthat vagy pénzügyi műveleteket indíthat, akkor nagyon szigorú korlátokra és kötelező emberi jóváhagyásra van szükség. A szakértők arra is figyelmeztetnek, hogy egy külső AI-modell viselkedési kockázata akár „beszivároghat” egy bank napi működésébe pusztán azért, mert arra építik a folyamataikat.
Ezért folyamatos monitoringra, validálásra és sokszintű biztonsági keretrendszerre van szükség. Nem szabad egyetlen nagy AI-szolgáltatóra alapozni minden kulcsfontosságú folyamatot. A mesterséges intelligencia hatalmas lehetőségeket kínál, de nem bízhatjuk rá ellenőrzés nélkül a digitális széf kulcsait.
(Forrás: fintech.hu)
(Borítókép: Depositphotos)

Szólj hozzá