site.btaЕвропа се включи в надпреварата в областта на изкуствения интелект, но първо създаде правилата, посочи експерт по регулацията на форум в София

Европа се включи в надпреварата в областта на изкуствения интелект, но първо създаде правилата, посочи експерт по регулацията на форум в София
Европа се включи в надпреварата в областта на изкуствения интелект, но първо създаде правилата, посочи експерт по регулацията на форум в София
Галя Манчева, основател и главен изпълнителен директор на “AI Advy”, на сцената на първото издание на конференцията "AI Innovation Summit" на сп. "Enterprise". Снимка: Делян Петришки/БТА

Европейската комисия (ЕК) създаде Регламента за Изкуствения интелект (ИИ/AI), за да защити правата на европейските граждани. Подобни регулации липсват в считаните за първенци в сферата САЩ и Китай, където на държавно и не само на държавно ниво се събират огромен масив от данни за хората. Европа се включи в надпреварата в тази сфера, наред с първенците, но създавайки първо правилата. Това посочи Галя Манчева, основател и главен изпълнителен директор на "AI Advy" и специалист в областта на регулациите за ИИ, по време на първото издание на конференцията за изкуствен интелект и иновации "AI Innovation Summit", организирана от списание "Enterprise". Целодневният форум се провежда в столичния "Интерпред-СТЦ".   

Галя Манчева представи пред участниците на конференцията европейския регламент за ИИ. Тя е убедена, че ползите от създалата се регулация превъзхождат вредите от нея, които, по думите ѝ, се дължат на непознаване на разписаните в регламента рискови нива и липсата на утвърдени добри практики.

Лекторът смята, че наред с гарантиране правата на европейците, с този акт Европа "вдига нивото на технологиите и се стреми да стимулира иновациите под формата на високи и дълбоки технологии".  

"Този регламент не е, за да ви почука някой на вратата и да ви глоби. Той е с идеята да даде правила, за да внедрявате повече технологии в бизнесите си", обясни тя. "Ако се абстрахираме от първенците Китай и САЩ, Европа също иска да се включи в това съревнование, но реално създавайки правила и с тях да участва в надпреварата", посочи Манчева.   

Регламентът определя ИИ като набор от технологии, които осигуряват икономически и социални ползи. Под обхвата на регулацията попадат всички организации на територията на ЕС - малки и средни предприятия, големи компании, финансови институции, държавни организации и много други. 

Съгласно представената информация от Галя Манчева, в регламента е използван риск базираният подход, в резултат на който ИИ е разделен на четири нива. Системи с минимален риск (това са видео игри и спам филтри), с ограничен риск (тук попадат чат ботовете и GPT моделите), като основният фокус на регулацията е насочен към високорисковите системи и към системите с неприемлив риск. 

В списъка на последните попадат тези за социален скоринг, силно застъпени в китайската практика. Става дума за непрекъснато наблюдение върху човек, към чийто социален статус се добавят или отнемат точки в зависимост от неговите полезни или вредни житейски навици. В Европа обаче тази система не е разрешена. В категорията на системите с неприемлив риск попадат още и биметричните идентификации. 

"Считано от август (2024 г. - бел. авт.) Европа забрани на територията на ЕС всякакви устройства за биометрична идентификация, като лицево разпознаване и пръстови отпечатъци", посочи Манчева. 

Във високорисковите системи или от трето ниво попадат тези, ползващи огромен по обем от данни и в които, ако решенията се вземат от хора, може да се стигне до големи грешки или последици за потърпевшите. 

Подобни високорискови системи са приложими във всички сфери - от здравеопазването и образованието до управлението на човешките ресурси, мениджмънта, кредитните рейтинги и много други. Тъй като масивът от данни е в основата на високорисковите системи, регулацията регламентира и задължението използваните данни да бъдат висококачествени. 

“Регламентът изисква и човешки надзор - документация, проследимост и управление на риска. Самият регламент изисква на практика тези ИИ системи да разполагат с управление на риска. Това е допълнителен процес, състоящ се от шест основни стъпки и е задължителна част от регламента", продължи Манчева.  

Регламентът въвежда и крайни срокове за привеждане в съответствие. 

"От 1 август 2024 (датата, от която регламентът за ИИ влиза в сила на територията на ЕС - бел. авт.) системите с неприемлив риск са забранени, а тези с висок риск следва да влязат в съответствие в рамките на до 36 месеца. Единствено чатботовете с общо предназначение трябва да отговорят на изискванията до 12 месеца, а за тези с минимален риск няма изискване", каза лекторът.  

/ВЙ/

news.modal.header

news.modal.text

Към 17:30 на 06.03.2025 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация