Az OpenAI új alkalmazásbiztonsági megoldást mutatott be, amely mesterséges intelligencia segítségével azonosítja a szoftverprojektekben meglévő sérülékenységeket.

A Codex Security nevű eszköz célja, hogy mélyebb kontextust építsen fel a fejlesztési környezetről, így összetettebb biztonsági problémákat is képes legyen feltárni, miközben mérsékli a hamis riasztások számát. Az OpenAI blogbejegyzése alapján a rendszer egyelőre research preview, vagyis kutatási előzetes fázisban érhető el. A megoldás korábban Aardvark néven volt ismert, amikor tavaly októberben még zárt bétatesztként futott.

Az OpenAI az alkalmazásbiztonság szolgálatában

A Codex Security egyik legfontosabb célkitűzése, hogy támogassa a biztonsági ellenőrzési folyamatokat abban, hogy lépést tudjanak tartani az egyre gyorsabb szoftverfejlesztési ütemmel. Az elmúlt években a generatív AI és az úgynevezett agentic, vagyis ügynökalapú rendszerek jelentősen felgyorsították a kódírást, ami új kihívások elé állítja a biztonsági auditokat.

Az OpenAI szerint a rendszer a legfejlettebb AI-modellek ügynökalapú érvelési képességeit ötvözi automatizált validációs folyamatokkal. Ennek köszönhetően a platform nagy megbízhatóságú biztonsági megállapításokat, valamint konkrét javítási javaslatokat tud adni a fejlesztőcsapatok számára.

A cél az, hogy a mérnököknek ne kelljen tömeges fals riasztásokkal foglalkozniuk, hanem azokra a sérülékenységekre összpontosíthassanak, amelyek tényleges kockázatot hordoznak. Ez összességében gyorsabb és biztonságosabb szoftverkiadásokat tehet lehetővé.

OpenAI: elsőként a vállalati ChatGPT-felhasználók férhetnek hozzá

Az OpenAI múlt hét pénteken kezdte el a Codex Security kutatási előzetes verziójának bevezetését. A szolgáltatás jelenleg a ChatGPT Enterprise, Business és Edu ügyfelek számára hozzáférhető a Codex webes felületén. A vállalat az első hónapban ingyenes hozzáférést biztosít, hogy a szervezetek kipróbálhassák az új megoldást.

Új korszak jöhet a kiberbiztonságban

A Codex Security megjelenése egy tágabb iparági trend részeként értelmezhető. Egyre több olyan AI-first kiberbiztonsági platform jelenik meg, amely nem csupán passzívan reagál a riasztásokra, hanem proaktívan kutat a sérülékenységek után a kódban, a konfigurációkban vagy akár a rendszerek működésében.

Ezek a rendszerek automatikusan is képesek lehetnek védekező lépések megtételére, ami különösen fontos egy olyan időszakban, amikor a támadók is egyre fejlettebb AI-eszközöket vetnek be. Az olyan technológiák, mint az ügynökalapú mesterséges intelligencia vagy a polimorf kártevők, jelentősen felgyorsítják a kibertámadásokat, miközben a csalók számára is alacsonyabbá teszik a belépési küszöböt.

Az AI egyszerre jelent támadási és védelmi eszközt

A Világgazdasági Fórum friss felmérése szerint 2026-ban a mesterséges intelligencia a kiberbiztonsági stratégiák egyik legmeghatározóbb tényezőjévé válhat. A megkérdezett vezetők 94 százaléka úgy látja, hogy az AI egyszerre erősíti a támadók és a védekezők képességeit. A generatív AI terjedése ráadásul jelentősen növeli a támadási felületet is, ami új típusú védelmi stratégiák kialakítását teszi szükségessé.

Az autonóm védekezés irányába mozdul a piac

A vállalatok és a befektetők egyre nagyobb figyelmet fordítanak az autonóm hibajavító rendszerekre. Ezek a megoldások bizonyos sérülékenységtípusok esetében akár teljes mértékben kiválthatják az emberi beavatkozást. Más területeken az AI az incidensek gyorsabb azonosítását és priorizálását segítheti, így a biztonsági szakemberek nagyobb hangsúlyt helyezhetnek a stratégiai döntésekre és az összetettebb problémák kezelésére.

Az új paradigma középpontjában a sebesség áll. Amikor az AI-vezérelt támadások folyamatos ciklusokban zajlanak, az emberi reakcióidő önmagában már nem bizonyul elegendőnek. Éppen ezért a jövő kiberbiztonsági rendszereinek képesnek kell lenniük arra, hogy legalább olyan gyorsan reagáljanak, mint maguk a támadások.

(Forrás: fintech.hu)

(Borítókép: Depsotihptots)


Ha tetszett a cikk:

és kövess minket a Facebookon!



Szólj hozzá

Vélemény, hozzászólás?