Egy állami támogatást élvező hackercsoport manipulálta az AI-modellt, majd az így létrehozott AI-agent mintegy harminc szervezet ellen indított széles körű kiberkémkedési akciót. Szakértők szerint ez a támadás mérföldkőnek számít a kiberbűnözés történetében, mivel most először fordult elő, hogy egy mesterséges intelligencia végezte el egy behatolás lépéseinek túlnyomó többségét.
Az AI már nem csak támogatja a támadókat – önállóan is képes kibertámadásra
Az Anthropic közlése alapján a szeptember közepén észlelt incidens során a Claude mögött működő AI-agentet „jailbreak” jellegű parancsokkal térítették el eredeti működésétől. A támadók kiberbiztonsági szakértőként mutatkoztak be, és sikerült elhitetniük a rendszerrel, hogy egy legitim penetrációs tesztben vesz részt. A penetrációs teszt egy etikus, szimulált támadás, amelyet biztonsági szakemberek végeznek a sebezhetőségek felderítésére. A hackerek felül tudták írni az AI modell beépített biztonsági korlátait, így olyan feladatok elvégzésére vették rá, amelyeket a rendszer normál esetben tilt.
A módosított modell ezt követően önállóan térképezte fel a célpontként kijelölt rendszereket, kereste a gyenge pontokat, exploitokat generált, hozzáférési adatokat szerzett, majd összegző jelentéseket készített a támadók számára. Az Anthropic értékelése szerint a művelet 80–90 százalékát az AI végezte el, míg az emberi támadók csupán rövid, megerősítő visszajelzésekkel – például „Igen, folytasd.” – kommunikáltak vele.
A lekérések mennyisége és tempója olyan magas volt, hogy a vállalat szerint „fizikailag lehetetlen” lett volna, hogy egy emberi csapat irányítsa a támadást. Az esetet rutinmonitoring során észlelték, majd tájékoztatták az amerikai hatóságokat. A vizsgálat szerint a támadást kínai állami támogatású szereplők szervezték. Bár amerikai szövetségi rendszereket nem sikerült kompromittálniuk, más országokban részleges eredményeket elértek.
A történtek pontosan azt a veszélyt igazolják, amelyre az Anthropic már a nyári fenyegetésértékelési jelentésében figyelmeztetett: a fejlettebb modellek és a külső rendszerekkel interakcióra, illetve kódgenerálásra képes eszközök kombinációja lehetővé teszi, hogy mély technikai tudás nélkül is automatizált támadásokat hajtsanak végre.
A bankok újfajta kockázattal szembesülnek
Dev Nag, a QueryPal vezérigazgatója szerint az AI által vezérelt támadások sebessége teljesen átalakítja a kibervédelem logikáját. Míg korábban a támadási folyamat órákat vagy napokat vett igénybe, addig az AI néhány másodperc alatt képes felderítésre, behatolásra és adatlopásra. Ez alapvető kérdéseket vet fel a jelenlegi monitoringrendszerek hatékonyságát illetően. A bankok emiatt már a beszállítói átvilágítás folyamatait is módosítják: egyre gyakrabban kérdeznek rá arra, hogy a szolgáltató AI-láncának mely elemei felett nincs kontroll. Több pénzintézet már azt is előírja, hogy minden modellváltoztatásról 24 órán belül értesítést kapjanak.
Larissa Schneider, az Unframe AI operatív igazgatója a pénzügyi szektor szempontjából egy különösen kritikus következményre hívta fel a figyelmet. Az incidens rávilágít arra, hogy egy külső AI-modell viselkedési kockázata „befertőzheti” a bank saját működését pusztán azáltal, hogy a bank szolgáltatásként veszi igénybe. Schneider szerint a pénzintézeteknek új védekezési minimumot kell kialakítaniuk, hasonlóan ahhoz, ahogyan a szoftverellátási lánc fenyegetéseire reagáltak korábban. Erre a célra szegmentációra, folyamatos validálásra és átfogó irányítási keretrendszerekre van szükség, valamint arra, hogy a bankok állandóan monitorozzák és ellenőrizzék az általuk használt AI-modelleket, és ne építsenek kizárólag egyetlen nagy AI-fejlesztő vállalat megoldásaira.
(Forrás: fintech.hu)
(Borítókép: Depositphotos)

Szólj hozzá