site.btaВъзможностите и етиката при използването на изкуствен интелект в медиите дискутираха експерти днес

Възможностите и етиката при използването на изкуствен интелект в медиите дискутираха експерти днес
Възможностите и етиката при използването на изкуствен интелект в медиите дискутираха експерти днес
Среща разговор „Изкуственият интелект в медиите: въпроси, възможности и етика“ се състоя днес. На снимката: Йордан Бързаков, Емилия Милчева, Ирина Недева, Никола Тулечки и Зорница Стоилова. Снимка: Гергана Николова / БТА

Среща разговор „Изкуственият интелект в медиите: въпроси, възможности и етика“ се състоя днес с участието на експерти в „София тех парк“. 

Събитието бе разделено в три панела, чиито теми бяха посветени на технологиите и изкуствения интелект, регулацията и изкуствения интелект в медиите.

Изкуственият интелект (ИИ) не е бъдеще, а е реалност, в която живеем, каза еврокомисарят по „Стартиращи предприятия, научни изследвания и иновации“ към Европейската комисия (ЕК) Екатерина Захариева по време на откриването на форума. По думите ѝ предстои развитието на правилата, подзаконовия нормативен акт към Акта за изкуствен интелект: „Много важно е какво ще излезе от него, защото той ще определи дали тази регулация няма да забави развитието на изкуствения интелект в Европейския съюз“. „Мога да ви уверя, че ЕК е фокусирана върху това да направи тези правила така, че да подпомагат по-скоро развитието, да дадат предвидимост на компаниите, които развиват изкуствен интелект, а не да го ограничи. Но в същото време – да създаде рамка“, каза Захариева.

Семинарът „Изкуственият интелект в медиите: въпроси, възможности и етика“ бе открит от главния редактор на „Клуб Z“ Светлана Джамджиева. С встъпителни думи към участниците се обърна още Нанси Шилър от фондация „Америка за България“.

ТЕХНОЛОГИИТЕ

„Някои хора критикуват Европа и Европейската комисия, че е твърде мудна, бавна, че се опитва да регулира и по този начин да намали скоростта на развитие на новите технологии в Европа, не само на ИИ. Всъщност, дайте си сметка, че без да има стандарти, светът би бил едно ужасно място“, каза по време на събитието Петър Статев - председател на надзорния съвет на „София тех парк“. Според него има нужда от стандарти както в медиите, така и в технологиите. „Финтех секторът в България е един от водещите не само в Европа. Компании от финтех сектора на България вече доминират в Африка, който е най-бързо развиващият се пазар за нови платежни средства. Разбира се, не изостават и други технологични сектори като индустриална автоматизация, обработката на данните в мобилните оператори или в големите търговски вериги“, посочи Статев. Допълни, че от гледна точка на внедряването на инструментариума за обработка на големи данни е трудно да се каже къде са медиите.

„В Щатите от по-миналата година вече са наложили нов термин, който се нарича juniorisation – в компаниите изчезва средният ешелон и се залага на топ експерти и на младши таланти. По една много прагматична причина – младшият талант е на по-ниска заплата, само че, умножен по изкуствен интелект, се представя по-добре от средния ешелон, който е там само защото е натрупал механично опит“, каза Доброслав Димитров - председател на Българската работодателска асоциация иновативни технологии (БРАИТ). Той отбеляза, че няма софтуерна компания в страната, която да не използва изкуствен интелект. Ако не използва, просто вече няма да е на пазара, посочи Димитров. Според него България е лидер в Югоизточна Европа в ИТ сферата, но е на последно място по дигитализация на икономиката. Доброслав Димитров предупреди още, че всеки, независимо от своята професия, трябва да си зададе въпроса каква добавена стойност носи за това, което прави.

По темата за киберсигурността и фишинг атаките говори Красимир Коцев – изпълнителен директор на компанията SoCyber. „Над 80 процента от пробивите се случват вследствие на фишинг атаки“, каза той. Според него винаги най-слабото звено е човекът. „Това ще продължава да е така. Колкото и сложни, колкото и съвременни да са атаките, човекът е най-слабото звено. Тук ще кажете: „Да де, ама аз нали имам антивирусна система, имам софтуер, хардуер, който ме защитава от кибератаки, имам филтър на имейла. Всички тези неща работят само ако ние имаме базова осведоменост като хора“, отбеляза Коцев. Той разказа, че при организирани от него и екипа му фишинг кампании, при които създават фалшив сайт с обещание към потребителите за отстъпка в бензиностанции. „Статистиката е плашеща. Тридесет и няколко процеса от хората активират първата препратка. От тях, около 20 процента от хората въвеждат нещо в този сайт. И около 10 процента от тях – повтарят, понеже като си въведат данните, обикновено нищо не се случва“, посочи още Красимир Коцев.

Експертът по киберсигурност от БАН доц. Златогор Минчев разказа за опита си при работата върху проект за изкуствения интелект и употребата му в медиите, която извършва съвместно с Юлиан Христов. „Ние включихме млади хора, направихме някакви модели, обаче в края на дискусията, това, което ме впечатли, е, че те се скараха. Имаме си портал, където се създават с помощта на генеративен изкуствен интелект различни новини, които преобразуват текста в медия, бързо“, каза той. По думите му участниците в проекта са се скарали не за това дали е истина или лъжа новината, а за това кой ще ръководи във фиктивния ни сценарий стотина години напред – роботите или хората. Трябват ни истински медии, които знаят на терен как се събира информация, но в социалните мрежи ни трябват ИТ специалисти, които пък знаят как се правят кампании там, добави доц. Минчев.

РЕГУЛАЦИИТЕ

По отношение на регулацията от страна на ЕС Божидар Божанов - ИТ специалист и депутат от парламентарната група на ПП-ДБ, коментира, че е добре, че съюзът е подходил към този въпрос достатъчно рано. „На някои места ми се струва, че малко прекали. Един пример е с регулацията на базовите модели, което, в комбинация и с GDPR, води до това, че някои базови модели са недостъпни в Европейския съюз. Съответно, европейските бизнеси не могат да ги използват, което пък ограничава тяхното развитие“, посочи той. Въпреки това, според Божанов, Акта за изкуствен интелект на ЕС не е свръхрегулация. Да, няма с регулация да ограничим всички рискове, но пък е хубаво да ги държим под око, да има прозрачност и да знаем къде се използва ИИ, как се използва и т.н., добави той.

Симона Велева – изпълняваща длъжността председател на Съвета за електронни медии (СЕМ), коментира, че Акта за изкуствения интелект „нито е толкова съществена регулация, нито пък конкретно таргетира и спира изкуствения интелект като технология“. Той въвежда четири нива на риск, според това какви права могат да бъдат засегнати – нисък или никакъв, среден, висок и неприемлив, обясни Велева. Тя разказа, че идеята на този акт е да има един орган в държавата, който да разглежда дали са нарушени права чрез използване на ИИ. „Това ще бъде Държавна агенция за метрологичен и технически надзор към Министерството на електронното управление“, съобщи председателката на СЕМ. Допълни, че други органи като медийния регулатор, Комисията за защита от дискриминация, Комисията за защита на личните данни и омбудсмана ще преценяват доколко са основателни тези сигнали. За мен пътят върви през саморегулация по отношение на използването на ИИ в медиите, каза още Велева.

Петър Витанов – бивш европейски депутат и докладчик в сянка на Акта за изкуствен интелект, посочи, че не смята, че изкуственият интелект може да вземе работата на хората. „Но основният въпрос е в това – от едната страна винаги е технологичният прогрес, от другата са човешките права. И според мен целта е да се намери този тънък баланс, който да позволи технологичното развитие на европейски компании и развитието на този сектор, като същевременно не се пристъпват човешки права“, обясни той. По думите му в света има примери за използване на системи и алгоритми, които са „меко казано дискриминационни“. „Няма свръхрегулация. Извинявайте, но 80-90 процента от системите за изкуствен интелект са непокътнати, не са в обхвата на този закон“, отбеляза Витанов. Той добави, че европейските институции фокусират своето внимание върху високата и недопустимо високата степен на риск.

„Ние наистина в България така и не можахме да намерим дефиниция на медии“, каза Радомир Чолаков, който е юрист, бивш депутат от ГЕРБ, който има и медиен опит. Той обясни, че дефиниция за медия не е установена в закон, като вместо това в закон е установена дефиниция за радио и телевизия. „Ако искаме сега да се справим с проблема с изкуствения интелект в медиите, според мен, не трябва да се занимаваме толкова с изкуствения интелект сам по себе си, а с медиите. Да се върнем там, където пропуснахме, и да дефинираме кое е медия“, отбеляза Чолаков. Според него тогава може да се поиска от държавата да насърчава тези, които бъдат дефинирани като медии. „Тоест, ние трябва да оградим медиите в една ограда. Те да бъдат пазени. И тези, които влязат в оградата, ще бъдат пазени, защото те ще са тези, които ще ни съобщават истинските факти“, допълни той.

МЕДИИТЕ И ИЗКУСТВЕНИЯ ИНТЕЛЕКТ

В дискусията за това как медиите да саморегулират използването на изкуствен интелект участва журналистката Ирина Недева - член на Управителния съвет и председател на Асоциацията на европейските журналисти – България. Тя разказа за собствения си опит с ИИ. „Аз използвам изкуствен интелект. Когато го използвам, го обозначавам, даже в радиожанр. Обозначавам го до степен, в която, всъщност, виждам, че част от колегите ми, които чуват, че аз съм в ефир и казвам, че тук съм използвала ИИ, се притесняват. Или пък ми казват: „Е, край, повече ме нямаш на твоя страна“. Защо? Защото, примерно, съм използвала ИИ генериран глас за войсоувър на интервю, за което иначе съм молила мои колеги да си дадат гласа, за да покрият чужденец, който говори на чужд език. Пък след това ние превеждаме, пък след това трябва да намерим някой, който да го изиграе в ефир, пък да го запишем“, разказа Недева.

Според Никола Тулечки, който е председател на сдружение „Данни за добро“, в рамките на събитието се е говорило повече за това какво не трябва да се прави и къде са опасностите, а не толкова за това какво може да се прави с тази технология и колко улеснява живота. „Дори и преди да се появи този генеративен изкуствен интелект, който ни накара да си говорим всички за това, много голяма част от нещата, с които боравим, са до някаква степен направени от ИИ“, посочи Тулечки. Той даде пример с използването на инструменти за превод, както и фотографията на телефоните. Според него трябва да има методи, чрез които да се разпознават манипулациите върху различните системи. 

„Ние в момента гледаме на изкуствения интелект по-скоро като на нашия практически приятел, който може да ни свърши малко черната работа, защото и без това се чувстваме вече задъхани изобщо да следваме, да тичаме пред събитията, да отговаряме на нуждите на аудиторията си, да сме там, където е тя, да разпространяваме съдържание със скоростта, с която и фалшивите ботове го правят“, каза Зорница Стоилова от „Капитал“. Тя разказа, че в медията спазват няколко правила, които са приели относно ИИ. Сред тях са третирането му като всеки друг източник на информация, който следва да се провери, както и информирането на редактор, когато репортер желае да използва изкуствен интелект. 

Според Емилия Милчева от радио „Дойче веле“ използването на изкуствен интелект трябва да бъде записано в редакционната политика. Редакционната политика е кодът, по който работи една медия. Тя трябва да дава обяснения, включително как се работи с анонимни източници, как използваш информация от други сайтове, обясни тя. Добави, че тази редакционна политика трябва да дава описание на опциите, при които може да бъде използван ИИ. „Изкуственият интелект може да бъде използван в оперативните планьорки на редакциите. Наред с всички останали редактори да дава интересни идеи или просто да провокира“, каза Милчева.

/ХК/

В допълнение

Избиране на снимки

Моля потвърдете избраните снимки. Това действие не е свързано с плащане. Ако продължите, избраните снимки ще бъдат извадени от баланса на вашите активни абонаментни пакети.

Изтегляне на снимки

Моля потвърдете изтеглянето на избраните снимката/ите

news.modal.header

news.modal.text

Към 09:15 на 10.03.2025 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация