Генеративният изкуствен интелект (AI) е технологията, която печели най-голямо внимание в последната година. ChatGPT, Dall-E, Vall-E и други AI модели за обработка на естествен език (NLP) издигнаха лекотата на използване и точността на изкуствения интелект на ново ниво и го направиха достъпен за широката публика.
Въпреки че има безброй потенциални ползи от технологията, има и зловредни такива. Тя може да се използва за разработване на злонамерени кодове и по-ефективни кибератаки.
Какво обаче означава това за киберсигурността и как можете да се защитите срещу кибератаки, осъществени с помощта на генеративен изкуствен интелект?
Неблагоприятни употреби на генеративен AI
Генеративните AI инструменти имат потенциала да променят начина, по който се разработват и изпълняват кибернетични заплахи, пише Forbes. Със способността да генерират човешка реч и написан сякаш от човек текст тези модели могат да се използват за автоматизиране на създаването на фишинг имейли, атаки чрез социално инженерство и други видове злонамерено съдържание.
При достатъчно прецизно формулирани заявки генеративният изкуствен интелект може да пише и зловреден код. Нови методи на атака също могат да се автоматизират. Например AI модел, обучен върху набор от данни за известни уязвимости, може да се използва за автоматично генериране на нов код, който може да се използва за насочване към тези уязвимости.
Това не е нова концепция и е правено и преди с други техники, като например fuzzing, които също могат да автоматизират разработването на различни видове кодове.
Едно потенциално въздействие на генеративния AI върху киберсигурността е способността на участниците в заплахите бързо да разработват по-сложни и убедителни атаки. Например генеративен AI модел, обучен върху голям набор от данни за фишинг имейли, може да се използва за автоматично генериране на нови, изключително убедителни фишинг имейли, които са по-трудни за откриване.
Освен това генеративните AI модели могат да се използват за създаване на реалистично звучаща реч за използване при базирани на телефона атаки чрез социално инженерство.
Трябва да се подчертае, че генеративните AI модели не са злонамерени по своята същност и могат да се използват и за полезни цели в киберсигурността. Например генеративни AI модели могат да се използват за автоматично генериране на нови контроли за сигурност или за идентифициране и приоритизиране на уязвимостите за коригиране.
Трябва обаче да се внимава с генерираните от AI кодове. Генеративните AI системи се обучават чрез разглеждане на съществуващи примери за код. Вярването, че AI ще генерира код според спецификацията на заявката, не означава, че кодът е създаден на базата на най-добрите библиотеки. Често на генерираният от изкуствен интелект код му липсва контекст за това как този код би функционирал във вътрешната среда на компанията.
Откриване на атаки с код от генеративен изкуствен интелект
Важно е да се отбележи, че няма жизнеспособен начин да се каже точно дали атаката е разработена от генеративен AI, или не. Крайната цел на генеративния AI модел е да бъде неразличим от реакцията или съдържанието, което човек би създал.
Няма значение дали дадена атака е разработена с помощта на изкуствен интелект, или не. Определянето на конкретната заплаха, мотивите за нея и крайната цел може да е важно за подобряване на защитата срещу бъдещи атаки, но не е извинение за неуспешно спиране на атака на първо място.
Екипите по сигурността не могат просто да вдигнат рамене и да признаят поражение само защото атака може да дойде от генеративен изкуствен интелект. Технологията намалява бариерата за навлизане, като позволява на хора без умения и познания за кодиране да я използват за автоматизиране и ускоряване на създаването на злонамерено съдържание.
Ключът към устойчивостта сега и в бъдеще е да осъзнаем, че хората не са слабото звено в бизнеса, те са неговата сила. Работата на екипите по киберсигурност е да обградят системите с предпазители, за да се ограничат ненужните рискове.
С други думи, как е разработена заплахата или скокът в обема на заплахите не променя нищо фундаментално, ако киберсигурността се осъществява по правилния начин. Все още се прилагат същите принципи на ефективна киберзащита, като например непрекъснато управление на излагането на заплахи.
Чрез проактивно идентифициране и смекчаване на пътищата на атаката, които могат да доведат до материално въздействие, организациите могат ефективно да се защитят от киберзаплахи, независимо дали са разработени с помощта на генеративен AI, или не.
Възможностите на генеративния AI и прецизността на резултатите от генеративните AI модели са впечатляващи и ще продължат да напредват и да се подобряват. Те със сигурност ще продължат също така да променят начина, по който киберзаплахите се разработват и изпълняват. Ефективната киберсигурност обаче не се променя въз основа на източника или мотива на атаката.