ЕП прие законодателството за изкуствения интелект

ЕП прие законодателството за изкуствения интелект

Европейският парламент одобри в сряда законодателния акт за изкуствения интелект, който гарантира безопасността и зачитането на основните права, като същевременно насърчава иновациите.

Евродепутатите одобриха регламента, договорен с държавите членки през декември 2023 г., с 523 гласа "за", 46 гласа "против" и 49 гласа "въздържал се".

Регламентът все още подлежи на окончателна проверка от юрист-лингвистите и се очаква да бъде окончателно приет преди края на законодателния мандат (чрез т.нар. процедура на поправка). Законът също трябва да бъде официално приет и от Съвета на Европейския съюз (ЕС).

Той ще влезе в сила двадесет дни след публикуването му в Официалния вестник на ЕС и ще бъде напълно приложим 24 месеца след влизането му в сила, с изключение на: забраните за непозволени практики, които започват да се прилагат шест месеца след датата на влизане в сила, кодексите за добри практики (девет месеца след влизането в сила), правилата за ИИ с общо предназначение, включително управление (12 месеца след влизането в сила), както и задълженията за високорискови системи (36 месеца).

Приетото законодателство има за цел да защитава основните права, демокрацията, принципите на правовата държава и екологичната устойчивост от високорисков изкуствен интелект, като същевременно насърчава иновациите и утвърждава Европа като лидер в тази област. Регламентът установява задължения за изкуствения интелект въз основа на потенциалните рискове и степента на въздействие.

Забранени приложения

Новите правила забраняват някои приложения на изкуствения интелект, които застрашават правата на гражданите, включително системи за биометрична категоризация, основани на чувствителни характеристики, и нецеленасочено извличане на лицеви изображения от интернет или от записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица.

Ще бъдат забранени също системите за разпознаване на емоции на работното място и в училищата, за социално оценяване, прогнозиране на престъпление (въз основа на профилиране или оценка на техните характеристики), както и изкуствен интелект, който манипулира човешкото поведение или използва уязвимостта на хората.

Изключения в областта на правоприлагането

Използването на системи за биометрична идентификация от правоприлагащите органи е забранено по принцип, освен в изчерпателно изброени и подробно определени ситуации. Системи за биометрична идентификация в реално време може да се използват само ако са спазени строги гаранции, например използването на такива системи е ограничено във времето и географския обхват и подлежи на специално предварително съдебно или административно разрешение. Те могат да се използват, например, за целенасочено търсене на изчезнало лице или предотвратяване на терористично нападение. Употребата на такива системи постфактум (употреба на системи за екс-пост дистанционна биометрична идентификация) се счита за случай на използване на високорискови системи с ИИ, който изисква съдебно разрешение във връзка с престъпление.

Задължения за високорисковите системи

Предвидени са ясни задължения и за други високорискови системи с ИИ (поради значителните им потенциални вреди за здравето, безопасността, основните права, околната среда, демокрацията и принципите на правовата държава). Примерите за високорискови приложения на изкуствения интелект включват критична инфраструктура, образование и професионално обучение, заетост, основни частни и публични услуги (напр. здравеопазване, банково дело), определени системи в областта на правоприлагането, миграцията и управлението на границите, правосъдието и демократичните процеси (напр. оказване на влияние върху изборите).

Подобни системи трябва да оценяват и намаляват рисковете, да поддържат регистри за употребата, да бъдат прозрачни и точни и да гарантират човешки надзор. Трябва да се гарантира правото на гражданите за подаване на жалби относно системи с ИИ и за получаване на обяснения за решения, базирани на високорискови системи с ИИ, които оказват значително въздействие върху техните права.

Изисквания за прозрачност

Системите за изкуствен интелект с общо предназначение и моделите, на които те се основават, следва да отговарят на определени изисквания за прозрачност, например спазване на законодателството на ЕС в областта на авторското право и публикуване на подробно обобщение на съдържанието, използвано за обучение на модела. Моделите на по-мощните системи за ИИ с общо предназначение, които биха могли да породят системни рискове, ще бъдат подложени на допълнителни изисквания, включително извършване на оценка на модела, оценяване и ограничаване на системните рискове и докладване за инциденти.

Освен това изкуствените или манипулираните изображения и аудио- или видеосъдържание (дълбинни фалшификати - deep fakes на английски) трябва да бъдат ясно обозначени като такива.

Мерки в подкрепа на иновациите и МСП

На национално равнище ще бъдат създадени регулаторни лаборатории и ще се провеждат изпитвания в реални условия, които трябва да бъдат достъпни за МСП и стартиращите предприятия, с цел да се разработи и обучи новаторски изкуствен интелект преди пускането му на пазара

Споделете:

Присъединете се
към 12 257 читатели

ENTERPRISE е прецизно таргетирано B2B печатно издание за практически бизнес и интелигентно управление.