Алатките за вештачка интелигенција, како што се ChatGPT или Google Bard, се способни да создаваат привлечна и корисна текстуална содржина. Но, што ако не можеме да разликуваме човечки од текст генериран со вештачка интелигенција?
OpenAI, креаторот на ChatGPT-am+, рано го препозна овој предизвик. Во јануари компанијата воведе „класификатор за разлика помеѓу текстот напишан од човек и текстот генериран од различни модели на вештачка интелигенција“. Целта беше да се открие кои текстови ги создаваат машините, а кои луѓето. Сепак, само седум месеци подоцна, овој проект беше прекинат.
Според извештајот од OpenAI минатата недела, класификаторот за вештачка интелигенција повеќе не е достапен поради неговата ниска стапка на прецизност. Компанијата работи на подобрувања и моментално истражува поефикасни техники за потврдување на потеклото на текстот, пишува Business Insider.
Ако OpenAI не може да препознае текст генериран со вештачка интелигенција, како може некој друг? Други, како стартапот GPTZero, исто така работат на овој предизвик. Но, OpenAI, поддржан од Microsoft, се смета за најдобар во оваа област.
Кои се точно импликациите на овој проблем?
Ако не можеме да разликуваме текст напишан од човек од текст генериран од вештачка интелигенција, светот на онлајн информациите станува попроблематичен. Веќе има сајтови кои користат нови модели на вештачка интелигенција за автоматско генерирање на содржина, а некои од нив успеале да генерираат приходи од реклами, но и лаги.
Посебна загриженост е можноста дека технолошките компании ненамерно ќе користат податоци произведени од вештачката интелигенција за да обучуваат нови модели.
Некои истражувачи стравуваат дека овие модели ќе станат полоши на овој начин, бидејќи ќе се хранат со сопствената автоматски генерирана содржина, што ќе доведе до феномен наречен AI „Model Collapse“.
Група истражувачи од престижни универзитети истражуваа што се случува кога текстот произведен од јазичен модел на GPT (како што е GPT-4) го формира најголемиот дел од податоците што се користат за обука на следните модели.
„Откривме дека користењето на содржината генерирана од модели во обуката предизвикува непоправливи дефекти во сите наредни модели“, заклучија тие во неодамнешниот истражувачки труд.
Ако не можеме да го решиме овој егзистенцијален проблем, не можеме ни да почнеме да се осврнуваме на прашањето дали нешто на Интернет е напишано од човек или машина.