site.btaНидерландският орган за защита на личните данни предупреждава фирмите, които ползват чатботове с изкуствен интелект

Нидерландският орган за защита на личните данни предупреждава фирмите, които ползват чатботове с изкуствен интелект
Нидерландският орган за защита на личните данни предупреждава фирмите, които ползват чатботове с изкуствен интелект
Снимка: AP Photo/Michael Dwyer

Нидерландският орган за неприкосновеност на личните данни (Autoriteit Persoonsgegevens) излезе с предупреждение за използването от компаниите на чатботове с изкуствен интелект след няколко случая на изтичане на лична информация, включително медицински данни, съобщават местни медии.

Служителите, които използват цифрови асистенти като "ЧатДжиПиТи" (ChatGPT) и "Копайлът" (Copilot), за да отговарят на въпроси на клиенти или да обобщават големи файлове, може да пестят време, но също така представляват риск за защитата на данните, казват от институцията.

В случай на нарушаване на сигурността на данните се получава достъп до лични данни, без това да е разрешено или предвидено. Често служителите използват чатботовете по собствена инициатива и в разрез с изискванията на работодателя. Ако в този процес са въведени лични данни, това означава, че е налице нарушение на сигурността на данните.

Понякога използването на чатботове с изкуствен интелект е част от политиката на организациите. В този случай това не е нарушение на данните, но често не е разрешено от закона. Организациите трябва да предотвратят и двете ситуации, посочва Нидерландският орган за неприкосновеност на личните данни.

Повечето компании, които стоят зад чатботовете, съхраняват всички въведени данни. В резултат на това тези данни се оказват на сървърите на тези технологични компании, често без лицето, което е въвело данните, да разбере и без да знае какво точно ще направи тази компания с тези данни. Нещо повече, лицето, чиито данни се обработват, също няма да знае.

В един от случаите асистент на семеен лекар е подал лична информация за пациенти в програма, базирана на "ЧатДжиПиТи", която след това е била съхранявана на сървърите на технологичната компания и евентуално използвана за обучение на софтуера.

Хората трябва да могат да вярват, че медицинската им информация е в безопасност, заяви говорителката Карин Брюненберг пред телевизионния канал Ен О Ес (NOS). "Но след като тази информация попадне в системата, вие вече нямате контрол върху нея".

Друг инцидент е свързан с изтичане на данни в телекомуникационна фирма, при което служител е подал на чатбот база данни, включваща адреси.

Ако дадена компания разрешава използването на чатботове, управлявани от изкуствен интелект, тя трябва да сключи ясни споразумения с персонала относно използването им, казват от Нидерландския орган за неприкосновеност на личните данни.

/СС/

news.modal.header

news.modal.text

Към 10:17 на 23.12.2024 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация