Иако најновите модели на вештачка интелигенција, како што се GPT-3 и o4-mini на OpenAI, се фалат со својата способност да „размислуваат чекор по чекор“ и да даваат посложени одговори, истражувањата покажаа дека тие често измислуваат информации, поточно халуцинираат.
OpenAI откри дека GPT-3 прави грешки во дури една третина од тестовите со познати личности, додека o4-mini има уште поголем процент на речиси половина од задачите што содржат неточни податоци. Кај општите прашања, халуцинациите се јавуваат до 79% од времето.
Експертите веруваат дека „разумните“ модели, кои се обидуваат да поврзат повеќе информации и да дадат подетални одговори, имаат поголем ризик од грешки бидејќи често импровизираат. OpenAI истакнува дека овие модели може да обезбедат само пообемни и послободни одговори, но ова може да доведе до измислување факти.
Овој феномен е проблем, особено затоа што вештачката интелигенција често се користи за да помогне во образованието, правото и други области каде што грешките можат да имаат сериозни последици. Иако моделите се многу моќни, корисниците мора да бидат внимателни да не ги прифатат одговорите како непогрешливи.
Заклучокот од истражувањето е дека вештачката интелигенција понекогаш е како личност која изгледа многу самоуверено додека презентира неточни информации, па затоа е потребно секогаш да ги проверувате фактите што ги добивате од овие системи.