AI által fűtött kiberfenyegetések: Új korszak kezdete

A kiberbiztonsági expozíciókezelés fontossága és különbségei az Attack Surface Managementhez képest
2024. március. 5
A Google új védelmi lépése a Chrome-ban: Tesztelik a Device Bound Session Credentials funkciót
2024. április. 3
Show all

AI által fűtött kiberfenyegetések: Új korszak kezdete

A mesterséges intelligencia (AI) technológia előretörése újabb dimenziókat nyit a kiberfenyegetések terén, az önmagukat fejlesztő kártékony programoktól kezdve a hihetetlenül valósághű deepfake technológiákig. A Recorded Future által közzétett tanulmány szerint a legfejlettebb nyelvi modellekkel (LLM-ekkel) működő eszközök képesek arra, hogy a malware-t úgy alakítsák át, hogy az megkerülje a YARA szabályokat.

„A generatív AI lehetővé teszi a malware forráskódjának olyan finomítását, amely elkerüli a YARA szabályok alapú detektálást, ezzel csökkentve a felismerés esélyét,” – áll a jelentésben, amit a The Hacker News is ismertetett.

Ez a felismerés egy kiberbiztonsági felmérés eredményeként jött létre, amelynek célja az AI technológiák kártékony használatának feltárása volt. Ezen technológiák már használatosak többek között kártékony kódok generálására, phishing támadások előkészítésére és lehetséges támadási célpontok elemzésére.

A kutatók egy létező kártevő, az APT28 csoport által használt STEELHOOK és annak YARA szabályait adták egy LLM-nek, kérve, hogy úgy módosítsa a kódot, hogy a detekció elkerülése mellett az eredeti funkcionalitás megmaradjon és a kód szintaktikailag helyes legyen.

A módosított malware, amelyet az LLM hozott létre, képes volt megkerülni az egyszerű string-alapú YARA szabályokat. Ez a módszer azonban korlátozott, mivel az LLM-ek adatfeldolgozási kapacitása korlátozza a nagyobb kódbázisokkal való munkát.

Továbbmenve, az AI lehetőséget nyújt nem csak a kártékony szoftverek átalakítására a detektálás elkerülése céljából, hanem olyan deepfake alkotások létrehozására is, amelyek megkérdőjelezik a digitális tartalmak hitelességét. Emellett a generatív AI gyorsítja a támadók képességét arra, hogy kritikus infrastruktúrális létesítményekről információkat gyűjtsenek, amelyek fontosak lehetnek későbbi akcióik szempontjából.

„A többmódusú modellek segítségével ki lehet elemezni a nyilvános képeket és videókat, amelyekből további adatok, mint például geolokációs információk, berendezések gyártói és modellek, illetve szoftververziók deríthetők ki,” – említette a cég.

A Microsoft és az OpenAI nemrégiben figyelmeztetett arra, hogy az APT28 csoport LLM-eket használt „a műholdas kommunikációs protokollok, radar képalkotási technológiák és specifikus technikai paraméterek” tanulmányozására, ami arra utal, hogy komoly tudásra tesznek szert a műholdképességek terén.

Javasolt, hogy a szervezetek alaposan ellenőrizzék és szükség esetén tisztítsák meg a nyilvánosságra hozott képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, hogy minimalizálják a kiberfenyegetések kockázatait.

A legújabb kutatások azt mutatják, hogy lehetséges az LLM-ek „átverése” és veszélyes tartalmak előállítása, például az ASCII art segítségével kódolt utasításokkal (például „hogyan készítsünk bombát”, ahol a BOMB szót „*” karakterek és szóközök formálják), kihasználva az LLM-ek e területen mutatott korlátait, így kerülve meg a biztonsági intézkedéseket.

Forrás: thehackernews.com

 

Comments are closed.