site.btaНидерландският орган за защита на личните данни предупреждава фирмите, които ползват чатботове с изкуствен интелект
Нидерландският орган за неприкосновеност на личните данни (Autoriteit Persoonsgegevens) излезе с предупреждение за използването от компаниите на чатботове с изкуствен интелект след няколко случая на изтичане на лична информация, включително медицински данни, съобщават местни медии.
Служителите, които използват цифрови асистенти като "ЧатДжиПиТи" (ChatGPT) и "Копайлът" (Copilot), за да отговарят на въпроси на клиенти или да обобщават големи файлове, може да пестят време, но също така представляват риск за защитата на данните, казват от институцията.
В случай на нарушаване на сигурността на данните се получава достъп до лични данни, без това да е разрешено или предвидено. Често служителите използват чатботовете по собствена инициатива и в разрез с изискванията на работодателя. Ако в този процес са въведени лични данни, това означава, че е налице нарушение на сигурността на данните.
Понякога използването на чатботове с изкуствен интелект е част от политиката на организациите. В този случай това не е нарушение на данните, но често не е разрешено от закона. Организациите трябва да предотвратят и двете ситуации, посочва Нидерландският орган за неприкосновеност на личните данни.
Повечето компании, които стоят зад чатботовете, съхраняват всички въведени данни. В резултат на това тези данни се оказват на сървърите на тези технологични компании, често без лицето, което е въвело данните, да разбере и без да знае какво точно ще направи тази компания с тези данни. Нещо повече, лицето, чиито данни се обработват, също няма да знае.
В един от случаите асистент на семеен лекар е подал лична информация за пациенти в програма, базирана на "ЧатДжиПиТи", която след това е била съхранявана на сървърите на технологичната компания и евентуално използвана за обучение на софтуера.
Хората трябва да могат да вярват, че медицинската им информация е в безопасност, заяви говорителката Карин Брюненберг пред телевизионния канал Ен О Ес (NOS). "Но след като тази информация попадне в системата, вие вече нямате контрол върху нея".
Друг инцидент е свързан с изтичане на данни в телекомуникационна фирма, при което служител е подал на чатбот база данни, включваща адреси.
Ако дадена компания разрешава използването на чатботове, управлявани от изкуствен интелект, тя трябва да сключи ясни споразумения с персонала относно използването им, казват от Нидерландския орган за неприкосновеност на личните данни.
/СС/
news.modal.header
news.modal.text