У дома » Кибер защита » Борбата на AI срещу кибер заплахите

Борбата на AI срещу кибер заплахите

Изкуствен интелект може драстично да промени пазара на труда през следващите години, особено що се отнася до киберсигурността. Въпреки че AI освобождава служителите от досадна работа, те трябва да отделят време за настройка на инструментите си. Служителите трябва да обучат AI да забелязват атака, която става все по-трудна за избягване.

Реалността е, че няма прост отговор дали изкуственият интелект ще замени човешките работници в работната сила. Тъй като възникват повече възможности за внедряване на AI в бизнеса, ще се превърне в предимство за някои сектори и заплаха за други. Има много възможни мрачни ефекти от ИИ върху обществото, но и много положителни.

Учените и разработчиците на данни непрекъснато измислят нови приложения за AI. Но целта винаги остава същата: да подобрим живота си. Вече изпитваме някои от предимствата на AI чрез широкото му използване в гласови асистенти и автономни автомобили, но предстои още много. AI ще повлияе значително на икономиката поради приложенията си в киберсигурността. Атаките със злонамерен софтуер и ransomware придобиха епидемични размери, причинявайки значителни финансови загуби. AI може да се бори с тези атаки чрез подходящо обучение. Така че това ще бъде дълга и тежка битка между доброто и злото.

AI може да помогне в борбата с киберпрестъпността чрез откриване на модели на активност, които сигнализират, че нещо не е съвсем наред. Това е сравнимо с това как изкуственият интелект се използва във финансовите услуги за откриване на измами. AI постига това в системи, които трябва да се справят с милиони събития всяка секунда. По време на такива времена на смут и хаос, измамниците често се опитват да ударят. Това е често срещано в DDOS (Разпределен отказ от услуга) атаки.

Предсказуемите умения на AI го правят невероятно полезен в тази ситуация, поради което, докато се приближаваме 2022, повече фирми ще инвестират в тази авангардна технология. за жалост, измамниците са наясно с предимствата на AI. Появяват се нови атаки, които използват технология като машинно обучение. Тези атаки могат да преминат през защитата на киберсигурността.

Как работи машинното обучение в борбата срещу зловреден софтуер?

Машинно обучение обикновено се използва в антивирусната индустрия за увеличаване на възможностите за откриване. Техниките за машинно обучение използват примерни данни, за да създадат математически модел, който предвижда дали даден файл е безопасен или замърсен.

Машинното обучение разчита на по-нови модели, а не на стандарти за кодиране, за да открие опасни модели.

Алгоритъм се прилага към наблюдаемите точки от данни на два ръчно конструирани набора от данни. Единият съдържа само злонамерени файлове, а другият само незловредни файлове. Без да ви бъде казано какви типове модели или точки от данни да търсите, алгоритъмът генерира правила, които му позволяват да прави разлика между безопасни и опасни файлове. Точка от данни е всяка част от информацията за файл, като вътрешната структура на файла, използвания компилатор, текстови ресурси, компилирани във файла, и така нататък.

Антивирусният софтуер, който използва машинно обучение, може да открие нови заплахи, без да разчита на сигнатури. В миналото, антивирусният софтуер разчита предимно на пръстови отпечатъци, който сравнява файлове с масивна база данни с известен зловреден софтуер.

Проверките за подпис могат да открият само известен зловреден софтуер, който може да причини значителни проблеми. Това направи софтуера против злонамерен софтуер изключително уязвим, тъй като постоянно се разработват стотици хиляди нови разновидности на злонамерен софтуер.

От друга страна, възможно е обучение на машинно обучение за разпознаване на индикации за злонамерени и незлонамерени файлове. Позволява му да разпознава опасни модели и да открива зловреден софтуер – независимо дали е наблюдаван преди.

Учените имат автоматизирано откриване на зловреден софтуер чрез подаване на предварително обработени данни за зловреден софтуер към компютъра. Тази техника предоставя на машината абстрактен изглед на зловреден софтуер. Невронната мрежа, Дърво на решенията, и Support Vector Machine го използват, за да решат правилния отговор. Тази техника е изгодна, защото не разчита на ръчно проектирани функции, базирани на експертни познания за домейна.

Невронна мрежа може също да бъде обучена, като използва характеристики от последователности от злонамерени двоични файлове, които се деконструират. Предаващата мрежа, от друга страна, приема като вход списък с импортирани функции и придружаващи DLL файлове, и метаданни от преносимия изпълним хедър.

Дизайнът на предната и конволюционната невронна мрежа, както и свързаните с тях характеристики, се комбинират в една мрежа в крайния класификатор, базиран на невронни мрежи. След комбиниране на информацията, научена от двете подмрежи, работи, тази мрежа доставя крайния изход за класификация. Мрежата ще може да класифицира бъдещи случаи, използвайки тази комбинирана техника.

Машинното обучение далеч не е перфектно

Докато машинното обучение може да бъде много полезен инструмент, макар и не без недостатъци. Един от най-съществените недостатъци на машинното обучение е, че то не схваща разклоненията на моделите, които изгражда – то просто ги изпълнява. Той просто обработва данни и прави преценки, като използва най-ефективните, математически доказан начин.

Както беше посочено по-рано, алгоритъмът получава милиони точки от данни, но никой не му казва кои точки от данни са признаци на зловреден софтуер. Това е нещо, което моделът на машинно обучение ще трябва да разбере сам. В резултат на това, никой човек никога не може наистина да знае кои точки от данни биха могли да предполагат заплаха, според модела на машинно обучение. Единична точка от данни или точна комбинация от 20 може да се използват точки от данни.

Решителен нападател може да открие как моделът използва тези параметри, за да открие заплаха и да използва уязвимостта. Ето защо подлите актьори могат да злоупотребяват с AI. Като осъзнаят как функционира, те могат да намерят вратички, за да избегнат откриването. Злонамерен актьор може да вмъкне чист код, открит във файловете в белия списък, и да го вмъкне във файлове, които иначе биха били злонамерени и да подмами AI.

Системите за машинно обучение могат да учат само толкова, колкото са данните, подавани към тях. Един ефективен модел изисква масивни входни данни, всеки от които трябва да бъде етикетиран точно. Тези етикети помагат на модела да разбере специфични аспекти на данните (e.g. дали даден файл е чист, злонамерен, или потенциално нежелани).

Капацитетът на модела да се обучава успешно зависи от точното етикетиране на набора от данни, подаден към него. Може да е трудно и да отнеме много време за постигане, въпреки това. Една-единствена неправилно обозначена точка от данни сред милиони точно класифицирани точки от данни може да доведе до опустошение, дори ако изглежда като незначителна грешка. Ако моделът използва неправилно етикетирания вход, за да вземе решение, може да причини грешки. Тези грешки може да продължат в бъдещи проекти за обучение. Това предизвиква ефект на снежна топка, който може да има дълбоки последици в бъдеще.

Необходимо е обединяване на старо и ново.

AI не може да оцелее сам. Хибриден подход на AI, смесен с изпитани и тествани методи като софтуер за дистанционно наблюдение, може да бъде от полза. Тези програми съществуват от близо 15 години. Така че има много данни за техния успех.

Приложенията за отдалечено наблюдение имат човешки елемент, така че могат да помогнат на AI, когато бъде озадачен от определени изключения. Например, софтуер за наблюдение на мобилни телефони може да се използва за проследяване на служители с мобилни телефони и за наблюдение на подозрителни имейли чрез тяхната функция за наблюдение на имейли. Фалшивите новини или примамки за кликване, водещи до злонамерени уебсайтове, могат да бъдат блокирани чрез възможностите за проследяване на социалните медии на тези приложения.

XNSPY, приложение за дистанционно наблюдение на мобилен телефон, представено в много списък с приложения за проследяване на служители, налични на пазара, предлага стабилни възможности за наблюдение на имейл. Работодателите могат да използват тези приложения и да ги инсталират на работниците’ Android и iOS за защита на техния работен процес и интелектуални данни. Като разглеждате тази страница, можете да намерите представа за списъка с най-известните приложения за наблюдение на служители.

Тъй като социалните медии съдържат милиарди потребители и всяка секунда се публикуват фалшиви истории, ще отнеме векове, за да се обучи AI ефективно. Но тъй като работодателите могат да предупредят служителите да не отварят измамни връзки, цялата мрежа може да бъде защитена чрез приложения за дистанционно наблюдение.

Този софтуер се използва за проследяване на служители с мобилни телефони и също така може да наблюдава инструменти за криптирани съобщения от край до край като Telegram или WhatsApp, и тъй като виждаме тенденция на фалшиви истории, разпространяващи се в груповите чатове като горски пожар, тези приложения могат да предотвратят репутационни и финансови загуби. AI може да се окаже твърде бавен, за да защити тези канали поради тяхната променлива и непредсказуема природа. Служителите, продаващи интелектуална собственост на предложилия най-висока цена, или на лице, подало сигнал за нередности, могат да се свържат с външни хора, използвайки WhatsApp или iMessage. Криптирането от край до край се използва в няколко приложения за съобщения, предоставяйки на злонамерените участници фалшиво чувство за сигурност. Инструментът за наблюдение на незабавни съобщения на XNSPY може да прихване криптиране от край до край и в такива сценарии. то, следователно, предпазва години на изследвания и упорит труд от попадане в неподходящи ръце.

Оставете коментар