Нарушението на данни, постигнато чрез изкуствен интелект (AI), струва на организациите 4,88 млрд. долара - число, което не отчита репутационни щети, регулаторни наказания или каскадните оперативни провали, които следват от пробивите. Самото нарушение вече не е най-големият риск. Най-големият риск са лидерите, които никога не са го провидели да идва, пише HBR.org.
Представете си това: вирусно видео в социалните медии показва бивш президент, който обявява национално извънредно положение. Гласът е безупречен. Обстановката изглежда автентична. Посланието всява спешност. Всичко обаче е лъжа. До момента, в който някой осъзнае, че видеото е дийпфейк, пазарите са се сринали, глобалните алианси са се изместили, а общественото доверие в самата основа на правителството е разклатено.
Това не е далечна заплаха, тя вече е тук. През 2022 г. убедително видео, генерирано от изкуствен интелект, на украинския президент Володимир Зеленски, който уж нарежда на войските си да се предадат, се разпространи широко онлайн, въпреки че украинските власти веднага го обявиха за фалшификация.
Технологията, необходима за създаване на тези видеоклипове, някога изискваше холивудски бюджети, но сега работи на най-обикновени лаптопи. Това означава, че заплахите не само идват по-бързо, но е по-вероятно да подмамят широки слоеве зрители. AI не просто ускорява атаките, а прави света радикално по-малко предвидим, по-труден за разбиране и експоненциално по-опасен.
Последствията за организациите са сеизмични и повечето бизнес лидери не са готови за тях.
AI активираните кибератаки се увеличават
Кибератаките срещу публично достъпен софтуер и системни приложения се увеличават с 44% само за една година. Много от тези атаки са задвижени от уязвимости, активирани от AI, установи проучване на IBM от 2026 г. Тези атаки се учат, адаптират и еволюират в реално време. Те тестват защитите, намират слабости и променят стратегиите си, всичко това без помощ от хора.
Междувременно, според State of Cybersecurity Resilience 2025 на Accenture, 77% от организациите нямат основните практики за сигурност на данни и AI, необходими за защита на критичната технологична инфраструктура. Този разрив между това колко бързо могат да настъпят заплахи и колко готови са организациите да ги управляват е една от най-големите стратегически слабости на нашето време.
Защо е необходима нова рамка
Лидерите използват рамката VUCA (променлив, несигурен, сложен и двусмислен), за да говорят за трудни бизнес ситуации от дълго време, но тази рамка вече не описва това, с което се сблъскваме в света на AI и киберсигурността.
Сега сме в BANI (крехък, тревожен, нелинеен, неразбираем) среда, която изисква много различен вид лидерска реакция. VUCA казваше на лидерите да се подготвят. BANI им казва, че самата подготовка може да не е достатъчна, защото заплахите вече не следват предвидими модели, не ескалират с човешка скорост и не се обявяват предварително. Ето по-отблизо пейзажа:
- Крехък: Нашите системи изглеждат силни, но могат да се провалят по умопомрачителен начин, когато са под интензивен стрес. Една единствена точка на провал може да причини проблеми за цялата организация само за няколко минути. През юни 2017 г. например зловредният софтуер NotPetya се разпространи бързо през мрежата на TNT Express, изключи 40 000 компютъра и 10 000 сървъра за по-малко от 40 минути и спря глобалните операции на компанията.
- Тревожен: Лидерите често се затрудняват да вземат решения, защото имат твърде много опции, недостатъчно информация и резултати, които са трудни за прогнозиране. Необходимостта да се действа бързо и необходимостта да се действа мъдро са в противоречие. Много ръководители замръзват или, още по-лошо, предават правото на вземането на решения на други хора.
- Нелинеен: Традиционните рискови модели предполагат, че големите проблеми имат големи предупредителни знаци - принцип, известен като пропорционалност. При атаки, активирани от AI, малките проблеми могат да имат големи ефекти; една откраднаа парола или малка грешка в конфигурацията може да причини щети в цялата компания.
- Неразбираем: Логиката за вземане на решения на AI системите, които използваме, е трудна за обяснение, и се опитваме да се защитим срещу AI атаки, като използваме методи, които са трудни за разбиране. Природата на "черната кутия" на модерния AI прави трудно за традиционните структури на управление да се справят с рисковете, които той поставя.
Управление на предизвикателствата, поставени от AI
Лидерите се затрудняват да решат редица проблеми, свързани с AI, които са трудни за управление. Искаме AI да бъде бърз, но не небрежен. Искаме той да бъде силен, е слаб. Трябва да го мащабираме в цялата компания, но по начин, който е безопасен и етичен. Всяка функция, която AI активира, може също да доведе до атака. Всяка печалба в ефективност също прави бизнеса зависим от тази технология. Всяко решение, взето от машина, повдига въпроса кой е отговорен.
Лидерите, които се справят добре с това, не могат напълно да елиминират тези търкания. Те обаче създават организации, които могат да работят добре въпреки предизвикателствата.
Ръководство за лидери
За да оцелеем в свят, който е крехък, тревожен, нелинеен и труден за разбиране, се нуждаем от повече от просто по-добра технология. Нуждаем се от нов подход към лидерството.
Лидерите трябва да:
Приемат, че нарушението е неизбежно (Assume).
Когато става въпрос за киберсигурност, най-лошото нещо, което можете да направите, е да свалите гарда и да вярвате, че защитите ви работят. Всеки бизнес трябва да планира за известно ниво на компромис. Това означава използване на архитектури с нулево доверие, разделяне на мрежи за ограничаване на щетите, поддържане на ръчни резервни копия за критични задачи и редовна практика на кризисни сценарии.
FedEx успя да се справи с атаката NotPetya и понесе по-малки загуби от други компании, защото организацията се беше обучавала и подготвяла точно за такава вероятност. Лидерите на компанията, някои от които с военен опит, я бяха подготвили с ръчни алтернативни решения.
От другата страна, през септември 2023 г. MGM Resorts International претърпя ransomware атака, която затвори казино етажи, хотелски резервации и дигитални ключове за стаи в множество обекти. Атаката започна с 10-минутно телефонно обаждане от някой, представящ се за служител на MGM. В рамките на дни MGM загуби приблизително 100 милиона долара приходи и се изправи пред седмици оперативни смущения не защото технологията ѝ се провали, а защото бизнес лидерите не бяха репетирали за момента, когато технологията няма да е налична.
Култивират AI компетентност на всяко лидерско ниво (Cultivate).
AI компетентността не може да се намира само в IT отдела. Всеки лидер в компанията трябва да знае как работят AI системите, къде добавят стойност и къде представляват рискове. Те трябва не само да се научат как да използват AI, но да разработят програми за обратно менторство, при които младши служители, които често по-добре владеят технологиите, обучават старши лидери. Ръководствата на компаниите трябва да наемат хора, които са адаптивни и готови да учат, не само хора с правилните умения.
Обвържат всяка AI инвестиция с основните операции (Tie).
Много компании провеждат AI пилотни проекти, които не се мащабират, или правят страхотни демонстрации, които нямат дългосрочно въздействие. Това трябва да спре. Всеки AI проект трябва да има ясни рамки за възвръщаемост на инвестициите (ROI), да отговаря на реални бизнес нужди и да се свързва с измерими резултати.
Засилят управлението (Strengthen).
Компаниите трябва да създадат етични насоки и да формират съвети за управление на AI, които включват представители от няколко отдела в бизнеса, не само IT. Тези групи трябва редовно да тестват за справедливост и пристрастия. Лицата, които вземат решения, трябва да бъдат прозрачни относно това кой е отговорен за проблеми, свързани с AI, когато нещо се обърка. Това трябва да стане преди нарушението, не след това.
Четири въпроса за следващата среща на борда
Медията посочва тези четири въпроса като диагностика на готовността преди следващата среща на борда.
- Може ли бизнесът да работи 48 часа без дигитални системи? Има ли ръчни процеси, за да продължи обслужването на клиенти и да се извършват критични задачи, ако голяма атака свали инфраструктурата?
- Завършили ли са топ лидерите на компанията необходимото обучение по AI сигурност и етика? Това не трябва да бъде само уебинар, на който са кликнали и уж са гледали, а реални уроци как тези системи работят и къде могат да се объркат.
- Основан ли е планът за внедряване на AI на бизнес устойчивост, а не само на растеж? Системите, които се изграждат, правят ли компанията по-силна или по-слаба, когато нещата стават трудни?
- Могат ли хората все още да правят добри избори, когато данните не са налични? Ако таблата за управление внезапно спрат да работят и моделите не са налични, има ли ръководството уменията и процесите да взема решения въз основа на опит?
Ако не можете да отговорите с "да" на всички тези въпроси, сега е времето да действате (ACT). Лидерите, които третират AI сигурността като основно задължение, а не като IT позиция в бюджета, ще бъдат тези, които ще устоят при следващата атака. Абсолютно сигурно е, че такава ще има, въпросът е готови ли са бизнесите да действат.