site.btaРегулации, работни места, неравенство - очаквано изкуственият интелект беше сред водещите теми на Световния икономически форум в Давос

Регулации, работни места, неравенство - очаквано изкуственият интелект беше сред водещите теми на Световния икономически форум в Давос
Регулации, работни места, неравенство - очаквано изкуственият интелект беше сред водещите теми на Световния икономически форум в Давос
AI House, центърът на Световния икономически форум в Давос, посветен на изкуствения интелект. Снимка: АП

Световния икономически форум в Давос тази година посвети на изкуствения интелект (ИИ) отделен център, наречен AI House. Повече от 60 акредитирани журналисти посетиха центъра, като повече от 50 публикации в пресата споменаха AI House в радиото, телевизията, интернет и печата. През вратите му са преминали около 5000 души въз основа на предварителните заявки за участие, записванията за сесиите и трафика на хора. 

По информация на официалния сайт на центъра aihousedavos.com в AI House са участвали над 180 лектори, разпределени в 44 панела, 26 кръгли маси и десетки демонстрации и сесии в интерактивния клуб на ИИ. Обсъждаха се теми, вариращи от ИИ в здравеопазването до регулирането му и как тази технология ще промени разбирането ни за изследването на космоса. По замисъл AI House бе мултидисциплинарна глобална платформа, която обхваща реалните случаи на използване на ИИ, отделя фактите от научната фантастика и предлага пътна карта за това какво следва в тази предстояща технологична революция. 

По-рано този месец изследователи на Международния валутен фонд установиха, че ИИ може да засегне работата на четирима от всеки десет служители в света. В развитите икономики този брой нараства до шест от десет в най-различни отрасли като телемаркетинг и право, предаде Би Би Си. Освен това, в публикуван доклад специално за Световния икономически форум се посочва, че половината от анкетираните икономисти смятат, че ИИ ще стане "търговски разрушителен" през 2024 г., в сравнение с 42% през 2023 г. Според водещи икономисти геополитическите конфликти и затегнатите условия за финансиране ще забавят глобалния икономически растеж, докато изкуственият интелект ще увеличи неравенството, съобщава катарската телевизия "Ал Джазира". 

Проучването сравнява анализите на над 60 водещи икономисти от частния и публичния сектор. Повече от половината от анкетираните икономисти (56%) прогнозират отслабване на глобалните икономически условия, но в различна степен в отделните региони. Мнозинството предвижда умерен или по-силен растеж в Китай и Съединените щати, слаб или много слаб растеж в Европа и поне умерен растеж в Южна и Източна Азия и Тихоокеанския регион.

"Макар че технологичният напредък може да даде нов тласък на глобалната производителност, за съживяване на глобалния икономически импулс и балансиране на въздействието върху отделните социални групи, необходими са политики, които засилват качествения растеж", се посочва в проучването.

Освен това 70% от анкетираните очакват финансовите условия да се разхлабят с намаляването на инфлацията и сегашното напрежение на пазарите на труда, въпреки че водещите централни банки в света твърдят, че лихвените проценти са достигнали своя връх.

Прогнозите са, че изкуственият интелект ще се отрази неравномерно на световната икономика. Като цяло 94% от анкетираните икономисти очакват ИИ да повиши радикално производителността в икономиките с високи доходи през следващите пет години, но само 53% предвиждат подобен ефект за икономиките с ниски доходи.

Наред с геополитическите събития, ефектът от ИИ се очаква да подхрани нестабилността в световната икономика, прогнозират 87% от икономистите. Шест от всеки десет (57%) очакват също така тези условия да увеличат неравенството и да задълбочат разделението между Севера и Юга през следващите три години.

Отделно от това Форумът публикува проучване за качеството на икономическия растеж в 107 икономики, като стигна до заключението, че повечето държави растат по начини, които не са нито екологично устойчиви, нито социално приобщаващи.

"Повторното активизиране на глобалния растеж ще бъде от съществено значение за справяне с основните предизвикателства, но само растежът не е достатъчен", заяви Саадия Захиди, управляващ директор на Световния икономически форум. 

На този фон на тазгодишния Световен икономически форум в Давос световните лидери се питаха дали да създадат предпазни огради за самия изкуствен интелект, или да се стремят да регулират ефектите му, след като технологията бъде разработена. 

ИИ е в центъра на вниманието на много работещи, които са обнадеждени от неговите възможности, но които са и предпазливи относно бъдещите му последици.

Бизнес лидерите на тазгодишната среща на Световния икономически форум също дават приоритет на разговорите за изкуствения интелект. По-специално те се фокусират върху това как да регулират технологиите на изкуствения интелект, за да се уверят, че те ще са от полза както в бизнеса, така и в света като цяло.

"Това е най-мощната технология на нашето съвремие. Виждаме силата на ИИ като нещо, което трябва да се управлява. Рисковете трябва да бъдат управлявани", заяви Арати Прабхакар, директор на Службата за научна и технологична политика на Белия дом в САЩ, по време на дискусия в Давос на 17 януари. 

Разговорите за това как точно правителствата могат да помогнат за управлението на тези рискове се провеждат в ключов момент. Наред с възникващите ползи от ИИ се появи и една по-сложна и по-мрачна реалност - изкуственият интелект може да доведе до непредвидени последици и дори до ужасяващи злоупотреби. Такива примери са софтуерът, който автоматично (и незаконно) отхвърляше кандидати за работа над определена възраст, или задвижваният от ИИ чатбот, който пускаше сексистки и расистки туитове.

Правителствата в региони, включително ЕС и САЩ, от години обсъждат правила за ИИ, но все още има почти толкова въпроси, колкото и отговори. Един от тях е свързан с това как точно да се регулира ИИ, но и до каква степен изобщо може да бъде регулиран.

В областта на здравеопазването, подпомагано от ИИ, ефектите от технологията вече се регулират в някои страни.

Един от подходите, обсъждани в Давос, е да се регулира начинът на функциониране на изкуствения интелект от самото начало.

Това може да означава въвеждане на политики за оценка и одит на алгоритмите. Основната идея е да се гарантира, че самите алгоритми не злоупотребяват с данни по начин, който може да доведе до резултати, прекрачващи закона. В САЩ например федералните агенции са предложили да се въведат оценки за контрол на качеството на алгоритмите, които оценяват стойността на обезпечението на даден имот в заявленията за ипотечни кредити. 

Някои експерти в бранша обаче се опасяват, че рестриктивното регулиране на технологията, още в нейния зародиш, може да задуши иновациите и развитието.

Както се изрази Андрю Нг, основател на компанията за обучение на ИИ Deeplearning.AI и доцент по компютърни науки в Станфордския университет, в неотдавнашно интервю за Световния икономически форум: "Регулации, които налагат обременяващи изисквания към софтуера с отворен код или към разработването на технологии за ИИ, могат да възпрепятстват иновациите, да имат антиконкурентни ефекти, които облагодетелстват големите технологични компании, и да забавят способността ни да донесем ползи за всички."

Други лидери смятат, че може би е непрактично изобщо да се правят опити за пряко регулиране на технологиите за изкуствен интелект. Вместо това те твърдят, че регулирането трябва да се насочи към ефектите от ИИ, след като той бъде разработен. 

"Изкуственият интелект не е нещо, което може да се регулира реално", заяви Халфан Белхул, главен изпълнителен директор на Dubai Future Foundation, пред Световния икономически форум в неотдавнашно предаване на "Радио Давос". 

"Можете да управлявате действията или секторите, които изкуственият интелект може да засегне. И ако ги разглеждате за всеки отделен случай, това е най-добрият начин действително да създадете някаква политика", смята той. 

В някои отношения този подход вече е в действие.

"По света съществуват най-различни закони, които не са били непременно написани за изкуствения интелект, но са абсолютно приложими към него. Такива са например законите за защита на личните данни, правила за киберсигурност, за цифровата безопасност, за закрила на децата, защита на потребителите, за защита на конкуренцията", заяви Брад Смит, президент на Майкрософт. "А сега имате нов набор от специфични за ИИ правила и закони. И аз наистина смятам, че има повече сходства, отколкото повечето хора предполагат", допълни той. 

Други казват, че трябва да има някакъв стандартен набор от правила, по които да се регулират конкретно технологиите на ИИ.

"Как да не позволим на технологиите да се изплъзнат извън нашия контрол, в някои индустрии вече са въведени редица разпоредби, които също трябва да регулират ИИ?", пита Уендъл Уолах, старши научен сътрудник в Съвета за етика в международните отношения "Карнеги", където е съдиректор на Инициативата за изкуствен интелект и равенство, и автор на книгата "Опасен господар". 

По отношение на регулирането на резултатите вече съществуват разпоредби - в някои отрасли повече, отколкото в други. 

"Здравеопазването вече е доста добре регулирано, поне в Съединените щати и Европа", казва Уолах. 

"В известен смисъл много от приложенията на ИИ ще бъдат регулирани, тези от тях, които вече съществуват. Така че въпросът е какви допълнителни регулации са ви необходими? Вероятно се нуждаете от различни форми на тестване и съответствие в някои области", допуска той.  

Например, в САЩ според нормативната уредба в областта на здравеопазването лекарят е длъжен да полага грижи. Ако постави грешна диагноза на пациент, той може да бъде подведен под отговорност за лекарска грешка. Ако лекарят разчита на ИИ за подпомагане на диагностицирането на пациенти и сгреши диагнозата, той все още може да носи отговорност (въпреки че, отбелязват експертите, съществува въпросът за правдоподобното отричане: дали ще стане обичайно да се обвинява ИИ за грешката). Но това означава да се управлява резултатът - погрешната диагноза.

А много експерти смятат, че дори това не е достатъчно. Необходимо е да се въведат повече мерки за безопасност, които да регулират самите процеси, например оценки на качеството на основните данни, които са довели до тази погрешна диагноза.

"Ще трябва да има различни начини за доказване на това дали даден ИИ се прилага отговорно. И въпросът как се прилагат тестовете? Как да ги сравнявате?", заяви Джоузефин Тео, министър на комуникациите и информацията на Сингапур, по време на панел в Давос. 

"Тези неща все още са в много начален стадий. Все още никой няма отговор", посочи тя. 

Като цяло, според експертите, основната цел е да се гарантира, че ИИ се използва за добри цели, независимо от подхода. 

Лидери като Сам Oлтман, главен изпълнителен директор на OpenAI, и Клаус Шваб, основател на Световния икономически форум, заедно със Сатя Надела, главен изпълнителен директор на Майкрософт, подчертаха демистификацията на ИИ. Те изтъкнаха, че е важно хората да бъдат снабдени с необходимите умения, за да могат да се възползват от предимствата му, като същевременно управляват рисковете, свързани с него, коментира Форбс. 

В панел с участието на изпълнителни директори на големи корпорации, като Делойт и Санофи, беше задълбочено разгледана ролята на ИИ за повишаване на производителността на работното място и методите на работа. Френският президент Еманюел Макрон подчерта необходимостта от създаване на работни места, особено в зелените сектори, и адаптиране на образователните системи, за да отговорят на изискванията на пазара на труда, управляван от ИИ. Панелът "Надпревара за преквалификация" допълнително обърна внимание на ролята на технологиите за улесняване на бързото развитие на уменията.

Друг панел - "Генериращият изкуствен интелект: парният двигател на четвъртата индустриална революция?" премина отвъд шумотевицата, като се фокусира върху преквалификацията, която е от съществено значение за оползотворяване на предимствата на изкуствения интелект. 

Хади Партови, главен изпълнителен директор на Code.org, подчерта една важна промяна - истинското предизвикателство не е заместването на работни места от машини, а от хора, владеещи ИИ. Той се застъпи за интегриране на образованието по ИИ, за да се подготвят гражданите, особено младите, за един свят, обогатен от ИИ.

В панел "Технологиите в един турбулентен свят" Сам Олтман предложи дълбоки прозрения за бъдещето на изкуствения интелект. Той обсъди как ИИ, въпреки ограниченията си, вече катализира значителни подобрения в производителността. Олтман подчерта важността на разбирането на процесите на разсъждение на ИИ за изграждане на доверие и засили трайната стойност на човешките връзки, твърдейки, че ИИ не може да замени нуждата ни от грижа и взаимодействие.

Дискусия с участието на Нийл Мохан от YouTube, Алмар Латур от "Уолстрийт джърнъл" и художничката Криста Ким се съсредоточи върху въздействието на генеративния ИИ върху творчеството. Те разгледаха сложни въпроси като авторското право върху съдържание, генерирано от ИИ, и разграничаването на човешките от машинните творения. 

Олтман прогнозира преминаване към по-ориентирани към идеите роли, улеснено от способността на ИИ да издига работните функции на по-високи нива на абстракция. Той изрази оптимизъм по отношение на подреждането на стойностите на ИИ, наблюдавайки значителен напредък от GPT-3 до GPT-4. Въпреки това той призна сложността на определянето и съгласуването на тези ценности и призова за участие на обществото в определянето на етични стандарти и стандарти за безопасност.

В крайна сметка "човешките същества ще продължат да решават какво трябва да се случи в света, независимо от възхода на изкуствения интелект", изтъкна Олтман, цитиран от Си Ен Ен. 

Философът Майкъл Сандъл повдигна тези дълбоки етични въпроси, като се спря на въздействието му върху човешката автентичност и размиването на границите между виртуалните и реалните човешки връзки. Тези философски търсения подтикнаха към по-задълбочен размисъл за връзката ни с технологиите.

Необходимостта от отговорно управление на ИИ намери отзвук в целия Давос, като бяха отправени призиви за балансиран подход, който да насърчава иновациите и същевременно да намалява рисковете. Китайският премиер Ли Цян подчерта значението на глобалните механизми за управление на ИИ.

Вера Йоурова от Европейската комисия заяви, че регулирането е от решаващо значение за управлението на рисковете, свързани с ИИ, а Джереми Хънт, канцлерът на хазната на Обединеното кралство, се застъпи за "леко" регулиране и глобално сътрудничество в областта на ИИ. Дискусиите подчертаха необходимостта от максимално използване на потенциала на ИИ, като същевременно се предпазва от злоупотреби. 

Давос 2024 демонстрира вездесъщото присъствие и значението на ИИ в съвременното общество. Той изтъкна огромния му потенциал да променя икономиките и обществата, като същевременно обърна внимание на решаващата необходимост от балансирано управление, етични съображения и развитие на уменията. Тъй като ИИ продължава да се развива, разговорите и решенията на форуми като Давос ще играят решаваща роля за насочването на траекторията му в полза на всички. 

/ПТА/

news.modal.header

news.modal.text

Към 13:43 на 06.05.2024 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация