Петър Торнев, управляващ директор на "Аксенчър България", в интервю за БТА:

site.btaИзкуственият интелект ще роди нови професии

Изкуственият интелект ще роди нови професии
Изкуственият интелект ще роди нови професии
Снимка: Владимир Шоков/БТА, архив

Пълното доверие към изкуствения интелект (ИИ) е опасно и хората трябва да проявяват критично мислене и дедуктивно отношение към него, каза в интервю за БТА Петър Торнев, управляващ директор на компанията за информационни технологии "Аксенчър България". Той обаче е оптимист и вярва, че именно технологиите ще облекчат живота на хората и ще им дадат по-голям шанс да развиват своите качества и ценности, предоставяйки им повече свободно време. Европейската рамка за регулация на информацията, с която се обучава изкуственият интелект, според Торнев трябва да бъде обмислена така, че освен да контролира достоверността на информацията, да дава свобода за развитието на ИИ. По негови думи ИИ ще роди нови професии, чиито специалисти ще проверяват достоверността на информацията, с която ще се обучават алгоритмите.

Петър Торнев бе водещ лектор на втория за тази година форум "Преди утрешния ден - пилоти на бъдещето", организиран от списание BGlobal на 31 май. В него участие взеха 18 водещи мисионери по темата за изкуствения интелект. БТА е медиен партньор на инициативата.

Следва пълният текст на интервюто:

- Г-н Торнев, какъв ще бъде утрешният ден спрямо феномена изкуствен интелект?

- На първо място бих искал да кажа, че изкуственият интелект помага на хората, облекчава всекидневието и ни дава възможност да упражняваме умения, които днес не използваме пълноценно, защото не ни остава време за тях. Говоря за креативни, аналитични, критични и други умения. Изкуственият интелект облекчава човека и му дава свободата да разполага повече със собственото си съзнание, за да развива своите личностни качества и умения. Изкуственият интелект е в услуга на човека и в утрешния ден ще предоставя все повече и повече удобства на човечеството.

- Споменавате критичност, трябва ли да имаме критично отношение и мислене към изкуствения интелект?

- Разбира се, опасно е да вярваме сляпо на изкуствения интелект. Много е важно да знаем как обучаваме изкуствения интелект - можем да го обучаваме да служи в наша полза или да служи срещу нас. Критичното мислене е много важно, не бива да подхождаме към алгоритмите, както едно време беше прието да се казва: "Щом го пише в "Уикипедия", значи е вярно!", защото знаем, че това не е истина. Знаем също така, че изкуственият интелект има механизъм на обслужване, който ни води към конкретна информация и ако не проявяваме критично мислене, можем да попаднем в капана на алгоритмите му, които ни насочват към грешна база данни. Затова е редно да продължаваме да четем, да мислим и да проявяваме критичност към изкуствения интелект.

- Колко мощна е властта на алгоритмите днес?

- Властта на алгоритмите е достатъчно мощна и ще става все по-мощна в близко бъдеще! Т.н. параметри, с които обучаваме ИИ, са се увеличили над 5000 пъти. В момента на пазара има страшно много алгоритми със свободен достъп. Колкото повече хора влизат в тях и допълват информация, толкова по-мощни стават тези алгоритми!

- В такъв случай как бихме могли да избегнем риска изксутвеният интелект да бъде обучаван със злонамерени цели и да бъде използван в наша вреда?

- Всеки средно добър програмист е способен да си направи свой собствен изкуствен интелект и тук идва въпросът за прозрачността на използваните данни. В ЕС в момента се обсъжда и се разработва модел за регулация, но той не би трябвало да стопира бизнеса и да му пречи да се развива. Този регулативен модел също така трябва да избегне паниката, че ИИ ще навреди на хората. Защото всеки един от нас, който работи в тази сфера, прави еволюция, не революция! Редно е това да се вземе предвид, когато се разработват параметрите на тази обща регулаторна мярка за ИИ, за да работят те еднакво добре и с допустимата свобода за всички засегнати страни. По този начин прогнозирам, че ще се родят и нови професии, които да следят за достоверността на информацията, която се подава към изкуствения интелект.

- Значи професиите на бъдещето ще се наричат вероятно "офицер или съдия по достоверност на информацията"?

- Вероятно (бел. авт. - смее се), със сигурност ще трябва информацията да се проверява. Специалистите от сферата на професиите на бъдещето ще работят по въпроса да проверяват и да доказват достоверността на информацията за обучение, която се подава към изкуствения интелект.

- До каква степен изкуственият интелект е покорил света?

- Днес само 8 процента от компаниите в световен мащаб са постигнали пълна технологичност в своята сфера, останалите корпорации са в процес на догонване и работят по въпроса. Истината е, че всяка една компания в бъдеще ще стане технологична, за да бъде по-ефективна на пазара. Фирмите продължават да променят себе си като използват технологии от началото до края на своя производствен и вътрешен процес. Тоест никой вече не разчита на еднократните трансформации. Веднъж започнала промяната, тя има проект, които постоянно се модернизира, усъвършенства и развива, за да бъдат бизнесите по-ефективни, по-иновативни и по-успешни. На пръв поглед това изглежда трудоемък процес, които изисква последователен труд и план, но за нас това не е невъзможно.

- Страхуват ли се хората според Вас от технологичните новости?

- Нека да отговорим на този въпрос с една статистика, която казва, че темпът на промяната за последните 5 години се е увеличил 200 пъти и истината е, че ние понастоящем не успяваме да смогнем на промените. Когато говорим за промени, стъпваме върху три основни стълба. Първият стълб включва промените на глобално ниво като войни, екологичните промени и други. Вторият стълб на промените засяга кризите - това са енергийните, водните, банковите кризи и други. Третият стълб на промените засяга технологичните промени, на които не можем да насмогнем. Те се развиват толкова бързо, че хората постоянно се опитват да ги усвоят, но истината е, че именно тези технологични промени ще направят живота ни по-лесен и ще ни помогнат да се адаптираме по-добре към всички промени.

/ЦМ/

news.modal.header

news.modal.text

Към 20:15 на 28.03.2024 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация