A mesterséges intelligencia fejlődése az elmúlt években elképesztő sebességre kapcsolt. Ma már nemcsak szövegeket ír, képeket elemez vagy kódot generál, hanem egyre összetettebb technikai problémák megoldására is képes. Ebbe az új korszakba illeszkedik az Anthropic legújabb fejlesztése, a Claude Mythos, amelyet 2026 áprilisában mutattak be, és amelyet a vállalat saját megítélése szerint annyira erősnek és kockázatosnak tart, hogy nem teszi nyilvánosan elérhetővé.
Mi az a Claude Mythos?
A Claude Mythos — más néven Mythos Preview — az Anthropic kísérleti, csúcskategóriás mesterséges intelligencia modellje. Az elérhető dokumentációk szerint ez nem egyszerűen egy újabb chatbot vagy nyelvi modell, hanem egy olyan rendszer, amely különösen fejlett logikai következtetésre, kódolási feladatokra, hibafeltárásra és kiberbiztonsági elemzésekre képes.
A modell jelentőségét az adja, hogy már nem csupán általános támogató eszközként értelmezhető, hanem olyan specializált AI-ként, amely komoly szerepet kaphat a vállalati technológiai környezetben is — különösen ott, ahol a szoftverfejlesztés és az
információbiztonság stratégiai jelentőségű.

Miben különleges?
A Mythos egyik legmegdöbbentőbb tulajdonsága, hogy a leírás szerint képes volt korábban ismeretlen, úgynevezett zero-day sebezhetőségek azonosítására jelentős operációs rendszerekben és webböngészőkben. A dokumentum egy különösen látványos példát is említ: a modell állítólag egy 27 éve rejtve maradt hibát fedezett fel az OpenBSD rendszerben.
Ez azért figyelemre méltó, mert a zero-day hibák olyan biztonsági rések, amelyeket a gyártók és a védelmi szakemberek még nem ismernek, ezért különösen veszélyesek. Ha egy AI képes ilyeneket tömegesen feltárni, az egyszerre jelenthet óriási segítséget a védekezésben — és komoly fenyegetést is, ha rossz kezekbe kerül.
A dokumentum emellett kiemelkedő benchmark-eredményeket is említ: a Mythos 93,9%-ot ért el az SWE-bench kódolási teszten, és 97,6%-ot az amerikai matematikai olimpia feladatain. Ezek a számok azt sugallják, hogy a modell nemcsak technikai
hibakeresésben, hanem magas szintű problémamegoldásban is rendkívül erős.
Miért nem érhető el a nagyközönség számára?
Az Anthropic döntése, hogy nem adja szabadon a felhasználók kezébe a Mythost, a dokumentum szerint elsősorban biztonsági okokra vezethető vissza. A vállalat úgy ítélte meg, hogy a modell támadó potenciálja túl nagy: képes lehet olyan exploitok, vagyis támadókódok megtervezésére, amelyekkel kiberbiztonsági rendszereket lehetne kijátszani.
Ez a döntés jól mutatja, hogy az AI fejlődésével már nem csupán az a kérdés, mire képes egy modell, hanem az is, hogy milyen környezetben és milyen kontroll mellett szabad használni. A Mythos esete azért különösen érdekes, mert itt az innováció és a kockázat szinte teljesen kéz a kézben jár.
Mi az a Project Glasswing?
A Mythost az Anthropic egy zárt program, a Project Glasswing keretében kezeli. Ebben a kezdeményezésben csak kiválasztott partnerek férhetnek hozzá a modellhez, méghozzá kifejezetten védelmi célokra. A cél nem az, hogy új támadási módszereket hozzanak létre, hanem hogy a kritikus infrastruktúrák üzemeltetői időben felismerjék és kijavítsák a gyenge pontokat.
A dokumentum szerint a program indulásakor 12 kiemelt partner kapott hozzáférést, köztük olyan óriásvállalatok, mint az Amazon Web Services, a Google, a Microsoft és az Apple, valamint kiberbiztonsági szereplők, például a CrowdStrike és a Palo Alto Networks. Rajtuk kívül további több mint 40 szervezet is részt vesz a programban, különösen olyanok, amelyek a világ digitális infrastruktúrájának működését támogatják.
Az Anthropic emellett jelentős pénzügyi támogatást is biztosít a résztvevőknek: a dokumentum 100 millió dollárnyi felhasználási keretet és 4 millió dollárnyi közvetlen támogatást említ nyílt forráskódú biztonsági szervezetek számára.
Mit jelent ez a kiberbiztonság jövője szempontjából?
A Mythos egyik legfontosabb tanulsága, hogy a mesterséges intelligencia immár nemcsak a produktivitást javító eszköz, hanem kiberbiztonsági tényező is. Egy ilyen modell felgyorsíthatja a sebezhetőségek feltárását, a rendszerek technikai feltérképezését és a támadási láncok megtervezését. Ez nem feltétlenül jelenti azt, hogy az AI önálló hackerré válik, de azt igen, hogy a támadók és a védők egyaránt sokkal hatékonyabban dolgozhatnak vele.
Ez új minőséget jelent a korábbi AI-eszközökhöz képest. Míg a korábbi modellek jellemzően egy-egy kérdésre válaszoltak, az új generációs rendszerek már több lépésben gondolkodó, célorientált, részben automatizálható folyamatok támogatására is alkalmasak lehetnek. Ez a vállalati világban különösen fontos, mert a kockázat már nem egyetlen hibás válaszból fakad, hanem abból, hogy a modellek komplex technikai műveletek részeivé válnak.
Miért fontos ez a vállalatvezetőknek?
A dokumentum egyik legerősebb üzenete, hogy a Claude Mythos nem pusztán technológiai érdekesség, hanem vezetői szintű stratégiai kérdés. Az ilyen rendszerek ugyanis egyre kevésbé kezelhetők kizárólag IT- vagy fejlesztési témaként. Használatuk összefonódik a kockázatkezeléssel, a compliance-szel, az információbiztonsággal és az üzleti felelősséggel is.
Különösen azoknak a szervezeteknek kell komolyan venniük ezt a fejleményt, amelyek saját szoftverrel, összetett digitális infrastruktúrával, érzékeny ügyféladatokkal vagy erősen szabályozott iparági környezetben működnek. Ide tartoznak a technológiai cégek mellett a pénzügyi, egészségügyi, ipari és kritikus infrastruktúrához kapcsolódó szereplők is.
Hogyan lehet felkészülni?
A dokumentum szerint a felkészülés első lépése annak felismerése, hogy az AI használata ma már biztonsági kérdés is. Ennek megfelelően érdemes erősíteni a secure development gyakorlatokat, a sérülékenységkezelési folyamatokat, a kódreview minőségét, a penetrációs tesztelést, a belső hozzáférés-kezelést, valamint az AI-eszközök használatára vonatkozó belső szabályozást. Ugyanilyen fontos a logolás, a monitorozás és az érzékeny adatok védelme.
A másik kulcsfontosságú tanulság, hogy a biztonsági csapatoknak nemcsak védekezniük kell az AI által erősített fenyegetésekkel szemben, hanem nekik maguknak is használniuk kell az AI-t védelmi célokra. A jövőben valószínűleg azok a vállalatok lesznek előnyben, amelyek nemcsak hozzáférnek fejlett modellekhez, hanem képesek azokat felelősen, kontrolláltan és stratégiailag jól beépíteni a működésükbe
2026.04.21.
