site.btaДийпфейк видео с Мелони и Мъск, завъртяло се в Италия, породи размисли за вредите и за ползите от новите технологии не само в политиката, но и в други сфери на живота
Церемонията по откриването на реставрираната след пожара отпреди 5 години парижка катедрала "Нотр Дам" беше повод в Париж да се съберат десетки държавни и правителствени ръководители. Редица от тях имаха възможност и за двустранни срещи по време на церемонията и на последвалата я вечеря в Елисейския дворец. Сред тях беше италианският премиер Джорджа Мелони, която се похвали във Фейсбук, че е имала приятен разговор както с новоизбрания президент на САЩ Доналд Тръмп, така и с милиардера Илон Мъск, който ще заема висш пост в бъдещата администрация на Тръмп, предаде АНСА.
„Тази вечер имаше приятна възможност за диалог с Доналд Тръмп и с Илон Мъск", заяви Мелони в страницата си във Фейсбук. Постът беше илюстриран със снимка, на която се вижда как Мелони разговаря с Тръмп и с Мъск. В друг пост на италианската министър-председателка беше публикувана снимка, на която позира усмихната само с Тръмп.
След завръщането си в САЩ Тръмп от своя страна заяви пред в. „Ню Йорк Пост", че е провел страхотна среща с Мелони. Той добави, че е общувал доста време с Мелони по време на вечерята във френското президентство. За италианския премиер освен това Тръмп каза, че тя кипи от енергия.
Това бяха официалните версии на събитията в Елисейския дворец на 7 декември. Вчера обаче се появи и фалшива версия. Водещи италиански медии, сред които "Кориере дела сера", "Република" и "Стампа" публикуваха видео, касаещо Мелони и Мъск, за което те предупредиха, че е дийпфейк, завъртял се след 7 декември в интернет пространството. Дейпфейковете или дълбоките фалшификати са кадри, аудиозаписи или видеа, генерирани или модифицирани с изкуствен интелект на базата на оригинални аудиозаписи, видеа и снимки.
Във дийпфейк видеото Мъск и Мелони се целуват страстно по време на вечерята след церемонията по откриването на „Нотр Дам". Трите издания, публикували фалшификата в акаунтите си във Фейсбук и предупредили надлежно читателите си, че става дума за дийпфейк, не посочиха от кой интернет сайт са го взели или кой е неговият създател.
Появата на дийпфейк видеото в акаунтите на трите авторитетни всекидневника в Италия породи вълна от коментари. Някои от коментиращите упрекнаха изданията, че знаейки, че става дума за фалшиво видео, все пак го разпространяват и по този начин допринасят за дезинформацията на хората. „Защо публикувате това фалшиво видео. Разбирам да бяхте хумористично издание, но публикувайки това нещо един вестник губи доверието на аудиторията", пише един от потребителите на Фейсбук. Според други потребители Мелони трябва да съди автора на видеото и изданията, които го препостват. Трети коментиращи заявиха, че дийпфейкът показва, че новите технологии като цяло правят трудно за хората да различат истината от неистината. „Сега човек може да се съмнява във всяко едно видео, във всяка една снимка, във всяко нещо", коментира друг потребител на Фейсбук. Някои потребители съзряха в дийпфейка дело на политически противници на Мелони в Италия. Други пък коментираха, че ако в подобно „силно романтично“ дийпфейк видео се озове лидерката на италианската опозиция Ели Шлайн, то тогава опозицията ще вдигне шум до небесата. Една от коментиращите заяви, че италиански медии, които критикуват патриархалното мислене в Италия, сега публикуват фалшиво видео, в което министър-председателката на страната е осмивана и сексуализирана. Разбира се дийпфейкът с целуващите се Мелони и Мъск породи и шеговити коментари, че двамата си подхождат и че ако се оженят, Мелони ще се махне от Италия и онези, които не са доволни от управлението й, ще се отърват от нея. В някои коментари се намекваше на шега, че други лидери, с които Мелони поддържа сърдечни дипломатически отношения, ще започнат да ревнуват при вида на този дълбок фалшификат.
Според изданието „Фато куотидиано" видеото с Мелони и Мъск е подвело някои от зрителите му. Изданието „Оупън онлайн“ коментира, че читателите на "Кориере дела сера", "Република" и "Стампа" са били скандализирани в голяма степен както от видеото, така и от факта, че трите изданията, които предупреждават, че става дума за фалшиво видео, са решили да го публикуват. Изданието „Секоло Д'Италия" коментира, че това е поредното фалшиво видео за Джорджа Мелони, създадено с изкуствен интелект, способен да възпроизвежда фалшивото по един сходен на реалността начин, за да налее масло в огъня на хейтърите срещу управляващите. Агенция „Дире" отбелязва, че видеото последва месеци на спекулации в социалните мрежи относно разбирателството между Мелони и Мъск. Медиите „Ла Сете" и „Скай Ти Джи 24“ също отбелязва, че не за първи път в социалните мрежи се появяват твърдения, че Мелони и Мъск имат романтична връзка.
На 23 септември Мъск връчи на Мелони наградата „Глобален гражданин", присъждана от американския мозъчен тръст "Атлантически съвет". По време на церемонията, състояла се в Ню Йорк в кулоарите на годишната сесия на Общото събрание на ООН, Мъск заяви, че Мелони е „дори по-красива отвътре, отколкото отвън“, че тя е свършила „невероятна работа“ като премиер на Италия и че при нейното управление страната е отчела рекорден ръст в заетостта. Мъск добави, че Мелони е „неподправена, честна и пораждаща доверие“. В отговор на тези комплименти Мелони тогава нарече Мъск „безценен гений", припомня АНСА. Тази размяна на мили слова породи спекулации в медийното пространство, че между двамата може да има романтична връзка. Мъск веднага опроверга тези твърдения.
Мелони покани на два пъти Мъск в Рим, откакто дойде на власт през есента на 2022 г., като по време на тези срещи двамата показаха единомислие по редица въпроси, сред които необходимостта от справяне с демографската криза в Италия или с незаконния трафик на мигранти.
Заради приятелските отношения на Мелони с Мъск изданията „Икономист“ и „Ню Йорк таймс“ си зададоха въпроса дали тя няма да се превърне във връзката между САЩ и ЕС при администрацията на Тръмп и дали тя ще е този европейски лидер, който ще „внесе тръмпизма в Европа“.
На няколко пъти откакто Мелони е на власт, Мъск коментира италиански вътрешни дела. Той например си позволи да упрекне неотдавна съдиите, възпрепятствали прилагането на споразумението между Италия и Албания за прехвърляне на определени категории мигранти в центрове за настаняване на албанска територия, припомня АНСА. Тази намеса породи полемика в Италия. Миналата година Мъск разкритикува остро и германски неправителствени организации, които спасяват мигранти в Средиземно море и ги докарват в Италия.
Дийпфейк видеото с Мелони и Мъск може и да се възприема от някои като закачка на неизвестен специалист по изкуствения интелект. Но полемиката, която предизвика появата му във Фейсбук акаунтите на водещи италиански медии, поражда по-широки дискусии относно изкуствения интелект и дийпфейка в политиката. Публикувайки фалшивото видео на Мелони и Мъск „Кориере дела сера" щателно припомни на аудиторията си как може тя да разпознае, че едно видео е фалшиво. Конкретно в случая с видеото с фалшивите Мелони и Мъск изданието посочи, че лицата им изглеждат леко променени в сравнение на действителните черти на Мелони и Мъск. В даден момент от видеото освен това едната ръка на Мъск сякаш „изпада“ от кадър, за да „изскочи" в друг момент на друго място. Същото е в сила и за едната ръка на Мелони. А зад фалшивите Мъск и Мелони в кадрите има и други хора, които ги наблюдават, но в даден момент те изглеждат деформирани и неясни. „В общи линии изкуственият интелект е направил каквото е било по силите му, но резултатът не е бил един от най-добрите", отбелязва изданието относно дийпфейк видеото.
Принципно има определени детайли, които могат да помогнат да се разбере дали едно видео е дийпфейк, коментира „Кориере дела сера". Това са например странните изражения на хората, представени за действителни личности в тези видеа. Понякога има несихронизиране между движението на устните на тези хора и онова, което се чува като произнесени от тях фрази. Понякога клепачите се движат по необичаен начин. Често пъти и в ръцете, създадени от изкуствения интелект, има нещо, което не е както трябва, пише вестникът.
Дийпфейковете с участието на политици не са рядко явление. Във Фейсбук например често пъти се появява дийпфейк видео, в което Доналд Тръмп, Владимир Путин, Борис Джонсън, Ким Чен-ун, Еманюел Макрон, Джъстин Трюдо, Урсула фон дер Лайен и Барак Обама са обрисувани като музикално-комедийна трупа по време на празненство. Отскоро във Фейсбук се завъртя и видео, в което с помощта на изкуствен интелект политици като Тръмп, Путин, Обама, Макрон, Трюдо, Камала Харис, Ангела Меркел, Мелони, както и крал Фелипе Шести и кралица Елизабет Втора са представени като деца манекени, дефилиращи на моден подиум. Но това са все шеговити фалшиви „политически“ видеа, създадени с изкуствен интелект.
Дали по-сериозните политически дийпфейк видеа обаче могат да повлияят на мнението на хората спрямо даден политик? Отговор на този въпрос са се опитали да дадат изследователи от Вашингтонския университет в Сейнт Луис в щата Мисури от Университета на Пенсилвания и от Университета на Чикаго. Те са публикували резултатите от анализите си на сайта на Вашингтонския университет. Учените са провели два експеримента и единият от тях е показал, че дийпфейк видеата могат да убедят около 40 процента от обществеността, че даден скандал, свързан с даден политик, е реалност. Втори експеримент е показал, че колкото по-странен е сюжетът на едно дийпфейк видео, толкова повече хората осъзнават, че някои се опитва да ги манипулира. Така например 89 процента от участниците в експеримент на изследователите са разпознали като фалшиво видео това, в което фалшив Тръмп обявява, че се оттегля от кандидатпрезидентската надпревара преди изборите в САЩ.
Кампанията за изборите в САЩ беше белязана от няколко открояващи се опита да се използват дийпфейк видеа, кадри или аудиозаписи, се отбелязва в статията, публикувана на сайта на Вашингтонския университет в Сейнт Луис. Така например манипулирано аудио на Джо Байдън беше разпространено до избиратели в Ню Хемпшър, призоваващи ги да не участват в първичните избори. Дийпфейк кадри също така представяха певицата Тейлър Суифт като подкрепяща Тръмп в надпреварата за президентския пост. Докато тя подкрепяше Камала Харис до последно.
Според Чънлиан Сю, асоцииран професор по компютърни науки в Университета в Рочестър, въпреки че технологиите се развиват бързо, генерирането на дийпфейкове си остава по-трудна работа за лошите играчи в тази област поради сложния му характер. „Генерирането на видеоклипове с помощта на изкуствен интелект все още е тема на текущи изследвания и труден проблем, защото това е така нареченото мултимодално съдържание“, казва експертът в публикация на сайта на Университета в Рочестър. „Генерирането на движещи се видеоклипове заедно със съответния звук е нещо трудно само по себе си, а синхронизирането им в едно е още по-трудно“, допълва той.
От друга страна е трудно и създаването на технологии, които да разпознават дийпфейковете, казва специалистът. „Ако искате да създадете технология, която да може да открива дълбоки фалшификати, трябва да създадете база данни, която да идентифицира кои са фалшивите и кои са истинските изображения“, казва Сю. „Това идентифициране и дефиниране изисква допълнително ниво на човешко участие, което генерирането не изисква“, добавя той. „Друг проблем е създаването на детектор, който да може да е обобщаващ в разпознаването на различни видове генератори на дълбоки фалшификати. Можете да направите модел, който се представя добре срещу техниките, за които знаете, че могат да създават дийпфейкове, но ако някой използва различен модел за дийпфейк, то вашият алгоритъм за откриване трудно ще го улови“, допълва Сю. Той предупреждава, че „политиците и знаменитостите са по-лесни за генериране в дълбоки фалшификати в сравнение с обикновените хора, защото просто има повече данни за тях в интернет“. „Съществуват толкова много видеоклипове с тях и моделите, използвани за генериране на дийпфейкове, могат да използват техни видеоклиповете, за да разучат техните изражения в различни ситуации, техните гласове, техните движения и техните емоции“, добавя той.
Но не само в политиката дийпфейкът шокира. В църквата на швейцарския град Люцерн "Сен Пиер" богомолците могат да разговарят в изповедалнята благодарение на изкуствен интелект с Исус Христос при това на около 100 езика, съобщиха "Фигаро", "Кориере дела сера" и "Ен Би Си Нюз". Инициативата е на швейцарското религиозно дружество "Сен Люк" и на Университета в Лозана. Много хора са привлечени от тази неочаквана възможност, но други я намират за богохулство, отбелязват двете издания.
Изкуственият интелект и дигиталните технологии могат да доведат и до по-зловещи разработки, като например приложение, което претендира, че може да предскаже деня на смъртта ви, съобщават „Блумбърг“, Бе Еф Ем Те Ве и „Джерузалем пост“. Приложението, което използва изкуствен интелект и струва 40 долара, се нарича „Часовник на смъртта“ и вече е било свалено над 125 000 пъти от вкарването му в употреба в края на лятото. За да разбере в кой ден ще умре, потребителят трябва да въведе данни за хранителния си режим, за физическата си активност, за нивото на стрес, на който е подложен, за съня си. След това изкуственият интелект прави съответните изчисления и дава отговор. За целта на приложението изкуственият интелект е бил обучен въз основа на над 1200 изследвания на продължителността на живота, в които са участвали над 50 милиона души. Целта на приложението не е да плаши хората, а да предлага съвети за подобряване на начина на живот и следователно на продължителността на живота на потребителите. Отвъд индивидуалния интерес приложението би могло да се използва и с други цели. В действителност продължителността на живота се използва от правителства, компании или от частни лица за изчисления за определяне на размер на пенсии, на застраховки живот или за финансово планиране. Но средствата, използвани за тези изчисления, може да са всъщност доста далеч от реалността. „Часовник на смъртта“ би могъл да представлява значителен напредък спрямо актуалните средства, като предлага по-персонализирани изчисления, казва неговият създател Брент Френсън, който живее и работи в Сан Франциско. Но приложението си има и предели. Освен напълно непредвидими фактори, като инциденти или пандемии, има още много трудни за измерване елементи, влияещи върху продължителността на живота, отбелязва телевизия Бе Еф Ем. Сред тези елементи са самотата или например чувството на задоволство от живота.
Освен скандализиращи или зловещи, дигиталните технологии може и да са от полза, например при създаване на дигитален близнак за пациенти, страдащи от рак, върху който да се тестват различни терапии, докато се открие най-ефективната от тях, предаде АНСА. В тази насока работи изследователска група, ръководена от британската биотехнологична компания Конкр, която вече е тествала технологията при група жени с рак на гърдата.
Технологията се основава на алгоритми, използвани от астрофизици за откриване на черни дупки и е била представена на конгрес в Барселона, организиран от Европейската организация за изследване и лечение на рака, Националния институт на САЩ за изследване на онкологични заболявания и Американската асоциация за изследване на рака. Всеки дигитален близнак е създаден въз основа на данните за хиляди пациенти, които са били лекувани по различни начини. След това тази информация е била комбинирана с тази за действителния пациент и за формата на рак, от която той страда. Изследователите, ръководени от Узма Асгар, са изпробвали технологията си, като са пресъздали няколко клинични проучвания, проведени в миналото, добавяйки по един дигитален близнак към всеки участник в тези проучвания. В края на експеримента се оказало, че цифровите близнаци са помогнали за точното прогнозиране на резултатите от опитите и че при пациентите, които са получили най-доброто лечение с помощта на тази технология, туморите са се свили в 75% от случаите в сравнение с 54% от тези, които са получили друго лечение.
„Благодарение на тази технология изследователите могат да симулират тестове върху пациенти на много по-ранен етап от разработването на лекарствата и терапиите и могат да повтарят симулацията отново и отново, за да оценят различни сценарии", казва Асгар, която е изследовател в британския център за диагностициране, лечение и изследване на онкологичните заболявания „Роял Мардсън“.
„Разработването и тестването на нови методи за лечение на рак е предизвикателство, което е скъпо и отнема много време. Ако можем да използваме цифрови инструменти, за да направим този процес по-бърз и по-лесен, това би трябвало да ни помогне да намерим по един по-ефективен начин по-добри терапии за пациентите", казва Тимъти Яп, съпредседател на конференцията, организирана в Барселона.
А може ли изкуственият интелект да бъде накаран да замлъкне всъщност? Колкото и странно да звучи въпросът, е имало случаи, в които например изкуственият интелект Чат Джи Пи Ти е отказвал неотдавна да отговаря на въпроси, свързани с определени имена. Тези имена са били Дейвид Мейър, Брайън Худ, Джонатан Търли, Джонатан Зитрейн, Дейвид Фейбър и Гуидо Скорца, съобщава „Франс 24“. В дискусионните форуми започна да се коментира, че Дейвид Мейър е бил преподавател по история, починал през 2023 г., който е имал доста проблеми, защото терорист от „Ислямска държава“ е използвал същото име като псевдоним. Джонатан Търли е адвокат, написал статия, в която казва, че Чат Джи Пи Ти го е оклеветил, като е измислил история за сексуална агресия в биографията му. Джонатан Зитрейн е експерт по право, който е написал книга относно нуждата да се контролират по-добре програмите за изкуствен интелект, с които се води разговор, визирайки по-конкретно Чат Джи Пи Ти. Брайън Худ е кмет на град в Австралия, който директно се е оплакал миналата година на компанията „Оупън Ей Ай“, създала Чат Джи Пи Ти, че този изкуствен интелект давал грешни отговори по негов адрес. Двете страни в крайна сметка са постигнали съгласие за коригиране на грешките. Гуидо Скорца работи в Италианската агенция за защита на личните данни. Дейвид Фейбър е журналист, експерт по финансовите въпроси, в телевизия Си Ен Би Си.
Защо тези имена са пораждали такава реакция у Чат Джи Пи Ти? Отговорът не може да е еднозначен, посочва френската медия. Но се предполага, че може би има стотици или хиляди други имена, с които може да възникне идентичен проблем вероятно и в други приложения за изкуствен интелект, в които се води разговор, казва експертът Антъни Кон, цитиран от „Франс 24“. Нищо чудно да има и „черен списък“ с имена, които генеративните изкуствени интелекти да не трябва да произнасят. „Винаги има мерки за сигурност, целящи чатботът например да не съобщава на потребителите методи за създаване на бомба или да казва например расистки неща. Със сигурност такива мерки има и относно отделни лица“, казва от своя страна експертът Марк Стивънсън.
Ако трябва да се върнем към дълбокият фалшификат с Мелони и Мъск, не бива да се забравя, че през октомври италианският премиер свидетелства чрез видеовръзка по процес срещу баща и син, създали и разпространявали манипулирани с помощта на дийпфейк технологии порноклипове с нейния образ, предадоха АНСА, Би Би Си, Асошиейтед прес и „Политико“. Делото се гледа в Сасари на остров Сардиния. Мелони поиска обезщетение от 100 000 евро за причинени вреди. Тя определи манипулираните видеа като форма на насилие срещу жените и поиска отговорните за това лица да бъдат наказани. Дийфейковете с лика на Мелони са били създадени, преди тя да стане премиер на Италия през есента на 2022 г., припомнят медиите.
Не е ясно как ще действа сега Мелони срещу новопоявилото се дийпфейк видео. Засега тя не е коментирала казуса. Коментар не е направен на този етап и от Илон Мъск.
/ПТА/
news.modal.header
news.modal.text