Според проучване на Gartner, осъществено сред 2500 ръководители, приблизително 70% от респондентите съобщават, че техните организации проучват как да интегрират генеративен изкуствен интелект (AI) в техните организации. Глобалните нива на приемане на AI са докладвани като по-високи във всеки изследван регион, според наскоро публикувания доклад на Stanford AI Index.
Технологични гиганти като Microsoft и Salesforce вече са интегрирали генеративен изкуствен интелект в много от своите продукти и се ангажират да предложат От швейцарската компания за вкусове и аромати Firmenich до маркетинговия екип на Coca-Cola, компаниите са силно любопитни дали - и как - тези инструменти могат да създадат нова стойност за тях.
Много организации обаче все още разбираемо се колебаят да приемат приложения, базирани на генеративен AI, като се позовават на опасения относно поверителността и заплахите за сигурността, нарушаването на авторските права, възможността за пристрастия и дискриминация в резултатите и други опасности.
Недостатъците на широкото приемане на изкуствен интелект варират от леко досадни (като персонализиран спам) до наистина катастрофални (като бързото изчерпване на водни източници от уязвими части на планетата за поддържане на най-големите центрове за данни, създавани някога). Затова и някои организации забраняват употребата му от служители. Apple и Samsung например забраниха вътрешното използване на ChatGPT, особено от екипа за разработка на софтуер, след като осъзнаха, че потенциално чувствителен код е качен на платформата, а това носи риск от загубата на поверителна информация.
В момента правителствата се затрудняват с прокарването на разумни рамки и закони за управление на тази технология и нейните недостатъци, което означава, че компаниите трябва да се справят сами с тези въпроси.
Harvard Business Review класифицира рисковете и предизвикателствата и предлага някои решения. Рисковете от AI са класифицирани на базата на два фактора: намерение и използване. Отделя се случайното неправилно прилагане на генеративен изкуствен интелект от умишлените злоупотреби. Така се обобщават четири типа рискове.
Злоупотреба
Злоупотребата се отнася до неетичното или незаконно използване на способностите на генеративния изкуствен интелект за вредни цели, като измами и кампании за дезинформация. Тъй като възможностите на поколението AI се подобряват, различни приложения могат да бъдат използвани за осъществяване например на кибератаки.
Намалените разходи за създаване на съдържание с генеративен изкуствен интелект доведе до увеличаване на т.нар. дийпфейк съдържание, което се използва за социално инженерство, автоматизирани атаки с дезинформация, измами, кражби на самоличност и манипулиране на изборни резултати.
Неправилно прилагане
Един от добре познатите проблеми с това поколение изкуствен интелект е, че дава приоритет на правдоподобността пред точността и може да създаде неточни резултати - проблем, известен като "халюцинация". Например през юни 2023 г. радиоводещ от щата Джорджия в САЩ заведе дело срещу OpenAI, след като ChatGPT неправилно заяви, че той е обвинен в измама и присвояване на средства от организация с нестопанска цел.
Случаите на неправилно приложение ще се увеличат, тъй като това поколение AI става мултимодално и по-умело в създаването на убедително съдържание.
Погрешно представяне
Тази категория обхваща ситуации, при които генеративният изкуствен интелект, създаден от трета страна, е целенасочено използван и разпространен, въпреки въпросите относно достоверността или автентичността на технологията. Дълбоките фалшификати на неуспешни продукти, създадени от неизвестни лица, се споделят редовно в социалните медии и компаниите може скоро да трябва да се справят с потоп от подобни случаи.
Например видео, показващо катастрофа на киберкамион на Tesla, е широко разпространено в Reddit през март, преди да бъде потвърдено, че е всъщност дълбок фалшификат.
Злополуки
Това е съдържание, което може да бъде случайно консумирано и споделено от потребители, които не знаят за неговата неавтентичност. Например, когато няколко потребители на Twitter споделиха дълбок фалшификат на експлозия в Пентагона, акциите на Уолстрийт временно се понижиха, тъй като мнозина решиха, че изображението е истинско.
Дийпфейковете все повече се използват за заобикаляне на протоколи за сигурност. През 2019 г. главният изпълнителен директор на енергийна компания в Обединеното кралство стана жертва на дълбока фалшива аудио измама, като погрешно си помисли, че главният изпълнителен директор на неговата компания майка го е помолил да преведе голяма сума пари на фирма доставчик.
Всеки от посочените рискове представлява уникално предизвикателство, като всяка компания може да предприеме действия, за да смекчи рисковете. Разграничаването на действията е това, което е в основата на плана за смекчаване.
Намаляване на рисковете от злоупотреба и неправилно приложение
За да намалят риска от злоупотреба и неправилно прилагане на съдържание от AI, организациите трябва да развият способности за откриване, идентифициране и предотвратяване на разпространението на такова потенциално подвеждащо съдържание. Големите доставчици на AI вече изразиха своя ангажимент да поемат отговорност за искове за нарушаване на интелектуална собственост (IP), с които клиентите им могат да се сблъскат при използването на AI.
Независимо от това, като се има предвид потенциалната репутационна вреда, която може да последва, ръководителите трябва да бъдат проактивни в разпознаването на този риск и да създадат ефективни предпазни средства в организацията. Следните действия са добра отправна точка:
-Осигуряване на съответствие между организационните ценности и принципите на изкуствения интелект;
-Упълномощаване на всички субекти, които създават съдържание с изкуствен интелект, да го обозначават;
-Създаване на среда с контролиран генеративен AI в организацията.
Намаляване на рисковете от неправилно тълкуване и погрешно представяне
Дори ако съмнително съдържание не е генерирано вътрешно, използването му - умишлено или не - може да причини увреждане на репутацията и други негативни последици за организациите. Действията трябва да са подобни на плановете за работа с опасни химикали в различни предприятия и агенции:
-Осигуряване на възможности за демистификация на изкуствения интелект и повишаване на осведомеността в цялата организация. Това може да включва програми за задължително обучение за работа с различни AI инструменти.
-Валидиране на изхода на AI чрез механизми за етикетиране и предупреждение;
-Създаване на планове за намаляване на щетите.
Важно е организациите да подготвят вътрешен екип, който може бързо да разбира, приоритизира и контролира рисковете и да комуникира с всички съответни заинтересовани страни. Една ефективна комуникационна стратегия трябва да включва разкриване на практиките за управление на риска от организацията.