Во историјата нема недостаток на примери на брилијантни, но несигурни луѓе. Истата корелација, се чини, е сè повеќе валидна за вештачката интелигенција. Според интерен извештај на OpenAI, до кој дојде „Њујорк тајмс“, дури и најновите модели како GPT-4o и 4-mini покажуваат алармантно високи стапки на таканаречена „халуцинација“ – односно измислување факти.
Халуцинациите не се ништо ново кога станува збор за четботовите со вештачка интелигенција, но се очекуваше дека технолошки понапредните модели ќе го намалат овој проблем, а не да го влошат.
„Паметни“ модели, но склони кон измислување
За разлика од претходните генерации, GPT-4o и 4-mini се дизајнирани да ја имитираат човечката логика и да „размислуваат чекор по чекор“. OpenAI се фалеше дека GPT-4o може да ги надмине дури и докторантите по хемија, биологија и математика. Сепак, реалноста е далеку помалку импресивна, објавува Индекс.
Истражувањето на OpenAI покажува дека GPT-4o халуцинирал во дури една третина од задачите во кои биле вклучени јавни личности – двојно почесто од минатогодишниот модел GPT-3.5. Уште полошо, GPT-4-mini се покажа уште полошо, измислувајќи факти во речиси половина од случаите.
На тестовите за општо знаење од базата на податоци SimpleQA, стапката на халуцинации е уште поалармантна: 51% кај GPT-4o и дури 79% кај GPT-4-mini.
Повеќе размислување = повеќе грешки?
Една од теориите во заедницата на вештачката интелигенција е: колку повеќе моделот „размислува“, толку е поголема шансата да направи грешка. За разлика од поедноставните модели кои се потпираат на проверени податоци, посложените модели се обидуваат да поврзат далечни информации и да извлечат логички заклучоци, што често вклучува доза на импровизација. И кога вештачката интелигенција импровизира, таа често измислува.
Од OpenAI изјавија за „Њујорк тајмс“ дека зголемениот број на халуцинации не мора нужно да укажува на грешка во дизајнот на „разумните модели“, тие можеби се само поопширни и послободни во изразувањето.
Вештачката интелигенција не треба да биде опасна
Проблемот се јавува кога вештачката интелигенција ја преминува линијата помеѓу корисноста и опасноста. Новата генерација модели не само што го повторува она што веќе го знаат, туку шпекулираат, замислуваат и се обидуваат да „заклучат“. Ова води кон заматена линија помеѓу теоријата и чистата фикција.
И додека големите играчи како OpenAI, Google и Anthropic сакаат да ја позиционираат вештачката интелигенција како помошник, асистент или „копилот“, корисниците во реалниот свет честопати се соочуваат со целосно неточни информации. Веќе се евидентирани случаи на адвокати кои поднесуваат документи врз основа на измислени судски преседани. Којзнае колку слични грешки поминале незабележано во помалку ризични, но важни ситуации?
Парадоксот на модерната вештачка интелигенција е едноставен: колку повеќе придобивки носи, толку помалку толеранција за грешки. Во свет каде што вештачката интелигенција сè повеќе влегува во училиштата, канцелариите, болниците и владините служби – секое „лапс“ може да има сериозни последици.
Не можете да тврдите дека им заштедувате време на корисниците ако тие мора да поминат исто толку време проверувајќи ја точноста на вашите одговори. Иако GPT-4o е способен за неверојатни подвизи во кодирањето, логиката и математиката – неговата сигурност паѓа на никакво ниво кога со сигурност ви „кажува“ дека Абрахам Линколн имал подкаст или дека водата врие на 27°C.
Додека овие прашања не се решат систематски, одговорите на моделите на вештачка интелигенција треба да се земат со голема резерва. ChatGPT, колку и да е брилијантен, понекогаш звучи како личност што зборува со огромна самодоверба – иако нема поим за што зборува. И тука почнува да се распаѓа илузијата за сигурност.