site.bta"ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни

"ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни
"ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни
Снимка: АП /Мат Рурк
Чатботът с изкуствен интелект "ЧатДжиПиТи" (ChatGPT) успява да се справи впечатляващо добре с правилни отговори на сложни въпроси, но ново проучване показва, че може да е изключително лесно да го убедите, че греши, съобщи електронното издание

За да прочетете цялата статия

Абонирайте се Влезте във Вашата БТА

Продължете да четете с абонамент

Вижте условията

/ХК/

news.modal.header

news.modal.text

Към 23:17 на 22.12.2024 Новините от днес

Тази интернет страница използва бисквитки (cookies). Като приемете бисквитките, можете да се възползвате от оптималното поведение на интернет страницата.

Приемане Повече информация