itthon » Kiberbiztonság » Az AI harca a kiberfenyegetések ellen

Az AI harca a kiberfenyegetések ellen

Mesterséges intelligencia drasztikusan megváltoztathatja a munkaerőpiacot a következő években, különösen ami a kiberbiztonságot illeti. Annak ellenére, hogy a mesterséges intelligencia megszabadítja az alkalmazottakat a fárasztó munkától, időt kell tölteniük a szerszámaik hangolásával. Az alkalmazottaknak ki kell képezniük az AI-t, hogy észrevegyék az egyre nehezebben elkerülhető támadást.

A valóság az, hogy nincs egyszerű válasz arra, hogy a mesterséges intelligencia helyettesíti-e az emberi munkaerőt a munkaerőben. Ahogy egyre több lehetőség nyílik a mesterséges intelligencia bevezetésére a vállalkozásokon belül, egyes ágazatok számára eszköz lesz, mások számára pedig veszély. Az AI-nak számos lehetséges sivár hatása lehet a társadalomra, de sok pozitív is.

Az adattudósok és fejlesztők folyamatosan új alkalmazásokkal állnak elő a mesterséges intelligencia számára. De a cél mindig ugyanaz marad: életünk javítására. Már most tapasztaljuk a mesterséges intelligencia előnyeit a hangasszisztensekben és az autonóm autókban való széleskörű használat révén, de még sok minden jön. A mesterséges intelligencia jelentős hatással lesz a gazdaságra a kiberbiztonsági alkalmazásai miatt. A rosszindulatú programok és a zsarolóprogramok támadásai járványos méreteket öltöttek, jelentős anyagi veszteséget okozva. A mesterséges intelligencia megfelelő képzéssel képes leküzdeni ezeket a támadásokat. Tehát hosszú és kemény harc lesz a jó és a rossz között.

Az AI segíthet a kiberbűnözés elleni küzdelemben azáltal, hogy észleli azokat a tevékenységi mintákat, amelyek azt jelzik, hogy valami nem stimmel. Ez ahhoz hasonlítható, ahogyan a mesterséges intelligenciát a pénzügyi szolgáltatásokban használják a csalások felderítésére. Az AI ezt olyan rendszerekben éri el, amelyeknek másodpercenként több millió eseménnyel kell megbirkóznia. Ilyen zűrzavar és káosz idején, a csalók gyakran megpróbálnak lecsapni. DDOS-ban gyakori (Elosztott szolgáltatásmegtagadás) támadások.

Az AI prediktív képességei rendkívül hasznossá teszik ebben a helyzetben, ami miatt, ahogy közeledünk 2022, több vállalkozás fektet be ebbe az élvonalbeli technológiába. Sajnos, a csalók tisztában vannak az AI előnyeivel. Új támadások jelennek meg, amelyek olyan technológiát használnak, mint a gépi tanulás. Ezek a támadások áthaladhatnak a kiberbiztonsági védelemen.

Hogyan működik a gépi tanulás a rosszindulatú programok elleni küzdelemben?

Gépi tanulás A víruskereső iparban általában használják az észlelési képességek növelésére. A gépi tanulási technikák mintaadatokat használnak egy matematikai modell létrehozásához, amely előrejelzi, hogy egy fájl biztonságos vagy szennyezett.

A gépi tanulás újabb mintákra támaszkodik, nem pedig kódolási szabványokra a veszélyes minták észleléséhez.

Egy algoritmust alkalmazunk két kézzel készített adathalmaz megfigyelhető adatpontjaira. Az egyik csak rosszindulatú fájlokat tartalmaz, a másik pedig csak nem rosszindulatú fájlokat. Anélkül, hogy megmondanák, milyen típusú mintákat vagy adatpontokat kell keresni, az algoritmus szabályokat generál, amelyek lehetővé teszik a biztonságos és veszélyes fájlok megkülönböztetését. Az adatpont bármely információ egy fájlról, mint például a fájl belső szerkezete, a használt fordító, a fájlba összeállított szöveges források, és így tovább.

A gépi tanulást használó víruskereső szoftver aláírásokra támaszkodás nélkül képes észlelni az új fenyegetéseket. A múltban, A víruskereső szoftverek elsősorban ujjlenyomatvételre támaszkodtak, amely összehasonlítja a fájlokat az ismert rosszindulatú programok hatalmas adatbázisával.

Az aláírás-ellenőrzők csak az ismert rosszindulatú programokat képesek észlelni, amelyek jelentős problémákat okozhatnak. Ez rendkívül sebezhetővé tette a kártevő-elhárító szoftvereket, mivel több százezer új malware-fajtát fejlesztenek folyamatosan.

Másrészről, lehetséges a gépi tanulás, amely felismeri a rosszindulatú és nem rosszindulatú fájlok jeleit. Lehetővé teszi a veszélyes minták felismerését és a rosszindulatú programok észlelését – függetlenül attól, hogy korábban megfigyelték-e.

A tudósoknak van automatizált rosszindulatú programok észlelése előre feldolgozott rosszindulatú programok adatainak a számítógépbe való betáplálásával. Ez a technika absztrakt képet ad a gépnek a rosszindulatú programokról. A Neurális Hálózat, Döntési fa, és a Support Vector Machine használja a helyes válasz eldöntésére. Ez a technika előnyös, mert nem támaszkodik a tartomány szakértői ismeretén alapuló, manuálisan tervezett funkciókra.

A neurális hálózatokat a dekonstruált rosszindulatú bináris szekvenciák jellemzői alapján is ki lehet képezni.. Az előrecsatolt hálózat, másrészt, bemenetként veszi az importált függvények listáját és a kísérő DLL-fájlokat, és metaadatok a hordozható végrehajtható fejlécből.

Az előrecsatolt és konvolúciós neurális hálózatok tervezése, valamint a kapcsolódó jellemzőik, egyetlen hálózattá egyesítik a végső neurális hálózat alapú osztályozóban. A két alhálózat által tanult információk egyesítése után működik, ez a hálózat biztosítja a végső osztályozási kimenetet. A hálózat képes lesz a jövőbeni esetek osztályozására ezzel az egyesített technikával.

A gépi tanulás messze nem tökéletes

Míg a gépi tanulás rendkívül hasznos eszköz lehet, bár nem hátrányok nélkül. A gépi tanulás egyik legjelentősebb hibája, hogy nem fogja fel az általa felépített modellek következményeit – csak végrehajtja azokat.. Egyszerűen feldolgozza az adatokat, és a leghatékonyabb megoldást használja, matematikailag bizonyított módszer.

Ahogy korábban is jeleztük, az algoritmust több millió adatponttal látják el, de senki sem mondja meg, hogy mely adatpontok rosszindulatú programok jelei. Ezt a gépi tanulási modellnek magának kell kitalálnia. Ennek eredményeként, egyetlen ember sem tudja igazán, hogy mely adatpontok utalhatnak fenyegetésre, a gépi tanulási modell szerint. Egyetlen adatpont vagy ezek pontos kombinációja 20 adatpontok megszokhatnák.

Egy elszánt támadó felfedezheti, hogy a modell hogyan használja fel ezeket a paramétereket a fenyegetés észlelésére és a sebezhetőség kihasználására. Ez az oka annak, hogy a gonosz szereplők visszaélhetnek az MI-vel. Ahogy ráébrednek a működésére, kiskapukat találhatnak az észlelés elkerülése érdekében. Egy rosszindulatú szereplő közbeiktathatja az engedélyezőlistán szereplő fájlokban található tiszta kódot, és beavathat olyan fájlba, amely egyébként rosszindulatú lenne, és megtévesztheti az AI-t..

A gépi tanulási rendszerek csak annyit tudnak tanulni, amennyit a hozzájuk betáplált adatok. A hatékony modellhez hatalmas adatbevitelre van szükség, amelyek mindegyikét pontosan fel kell címkézni. Ezek a címkék segítik a modellt az adatok meghatározott aspektusainak megértésében (például. hogy egy fájl tiszta-e, rosszindulatú, vagy potenciálisan nemkívánatos).

A modell sikeres betanítási képessége a neki betáplált adatkészlet pontos címkézésétől függ. Lehet, hogy nehéz és időigényes megvalósítani, azonban. Egyetlen rosszul felcímkézett adatpont milliónyi pontosan besorolt ​​adatpont között pusztuláshoz vezethet, még akkor is, ha az apró hibának tűnik. Ha a modell a rosszul címkézett bemenetet használja a döntés meghozatalához, hibákat okozhat. Ezek a hibák előfordulhatnak a jövőbeni képzési projektekben. Hólabda-effektust okoz, aminek messzemenő következményei lehetnek a jövőben.

A régi és az új összevonása szükséges.

Az AI önmagában nem tud túlélni. Hasznos lehet a mesterséges intelligencia hibrid megközelítése, amelyet kipróbált és bevált módszerekkel, például távfelügyeleti szoftverekkel vegyítenek. Ezek a programok már közel 15 évek. Tehát rengeteg adat van rámutatva a sikerükre.

A távfelügyeleti alkalmazások emberi elemet tartalmaznak, így segíthetnek visszaállítani a mesterséges intelligenciát, amikor bizonyos kivételek megzavarják. Például, egy mobiltelefon-megfigyelő szoftver használható a mobiltelefonnal rendelkező alkalmazottak nyomon követésére és a rosszindulatú e-mailek figyelésére az e-mail figyelő funkciójukon keresztül. Az álhírek vagy a rosszindulatú webhelyekre vezető kattintáscsali címek blokkolhatók ezen alkalmazások közösségimédia-követési funkcióival.

XNSPY, egy távoli mobiltelefon-megfigyelő alkalmazás, amely a piacon elérhető alkalmazottak nyomkövető alkalmazásainak listáján szerepel, robusztus e-mail figyelési lehetőségeket kínál. A munkáltatók használhatják ezeket az alkalmazásokat, és telepíthetik őket a dolgozókra’ Android és iOS a munkafolyamat és a szellemi adatok biztonsága érdekében. Ezen az oldalon böngészve, betekintést nyerhet a legismertebb alkalmazotti figyelő alkalmazások listájába.

Mivel a közösségi média több milliárd felhasználót tartalmaz, és minden másodpercben hamis történeteket tesznek közzé, évekbe telhet az AI hatékony képzése. De mivel a munkáltatók figyelmeztethetik az alkalmazottakat a csaló linkek megnyitásától, a teljes hálózat távfelügyeleti alkalmazásokkal biztonságossá tehető.

Ezt a szoftvert arra használják az alkalmazottak nyomon követése mobiltelefonnal és olyan végpontok közötti titkosított üzenetküldő eszközöket is felügyelhet, mint a Telegram vagy a WhatsApp, és mivel azt látjuk, hogy a csoportos chatekben futótűzként terjednek az áltörténetek, ezek az alkalmazások megelőzhetik a hírnév- és pénzügyi veszteségeket. A mesterséges intelligencia túl lassúnak bizonyulhat ezeknek a csatornáknak az ingatag és kiszámíthatatlan természete miatt. Azok az alkalmazottak, akik szellemi tulajdont adnak el a legmagasabb ajánlatot tevőnek vagy egy bejelentőnek, a WhatsApp vagy az iMessage segítségével kapcsolatba léphetnek kívülállókkal.. A végpontok közötti titkosítást számos üzenetküldő alkalmazás alkalmazza, hamis biztonságérzetet nyújtva a rosszindulatú szereplőknek. Az XNSPY azonnali üzenetküldő felügyeleti eszköze ilyen esetekben is képes elkapni a végpontok közötti titkosítást. Azt, ezért, megóvja az évekig tartó kutatást és kemény munkát attól, hogy rossz kezekbe kerüljön.

Szólj hozzá