18 мај, 2024
ПочетнаТЕХНОЛОГИЈАКако ChatGPT знае работи што не го научиле неговите креатори?

Како ChatGPT знае работи што не го научиле неговите креатори?

Откако беше лансиран во ноември 2022 година, ChatGPT ги пополнува насловните страници на медиумите, не само на таблоидите туку и на сериозните, професионални списанија и веб-страници.

Полемики за придобивките и опасностите од вештачката интелигенција

Како што се откриваат неговите способности и недостатоци, како и можностите за корисна употреба и опасна злоупотреба, прашањето како се развива ChatGPT – но не само тој, туку и конкурентните големи јазични модели (LLM) и други системи на вештачка интелигенција (AI) – сè почесто ќе влијае на општеството. Беа иницирани бројни дебати, честопати жестоки, за тоа дали вештачката интелигенција повеќе ќе му користи на човештвото или ќе му наштети, дали ќе одземе работни места, ќе промовира дезинформации, ќе влијае на политиките, погледите на светот на луѓето, изборните процеси итн.

Неодамна дури беше покрената петиција за запирање на развојот на големи јазични модели за шест месеци на нивото што го достигна компанијата OpenAI со големиот јазичен модел GPT-4, со цел да се размислува како да се продолжи развојот на вештачката интелигенција без да се загрози човештвото.

Сем Алтман, извршен директор на OpenAI, се обрати пред американскиот Сенат на 17 мај за да разговара со неговите членови за потенцијалните ризици и можните регулативи поврзани со вештачката интелигенција. Во Сенатот му се придружија голем број експерти кои исто така беа поканети да ги изнесат своите ставови на оваа тема.

Работни места кои исчезнуваат

Некои аналитичари, економисти и институции како што е инвестициската банка Голдман Сакс веќе започнаа со проценки за тоа колку вештачката интелигенција би можела да биде корисна за различни гранки на економијата и колку работни места би можела да замени во догледна иднина. На пример, според проценката на банката, вештачката интелигенција би можела да замени околу 300 милиони работни места со полно работно време во светот во следните неколку децении.

Во САД и Европа може да замени околу 25% од работните задачи.

Секако, се очекува и вештачката интелигенција да отвори бројни работни места, од кои повеќето денес не можеме ни да ги замислиме, а би можеле да бидат поинтересни и покреативни од оние што ќе ги заменат.

Економскиот раст

Од друга страна, според извештајот на Глобалниот институт McKinsey за влијанието на вештачката интелигенција врз светската економија, вештачката интелигенција би можела да го зголеми глобалниот БДП за околу 26% до 2030 година, односно за 22 трилиони долари. За овој раст најмногу би придонела автоматизацијата на работата.

Опасноста од вештачката општа интелигенција

Некои водечки експерти во светот на вештачката интелигенција, како таткото на длабокото учење и невронските мрежи, нобеловецот Џефри Хинтон, предупредија на опасностите од вештачката интелигенција и можноста таа да стане еднаква со луѓето во догледна иднина, т.е. , за развој на вештачка општа интелигенција (AGI) која ќе ги надмине луѓето во сè, за разлика од вештачката тесна интелигенција (AGI), која веќе е подобра од луѓето во извршувањето на некои ограничени, специјализирани задачи, како што е играњето шах.

Возбудата околу GPT е пренапумпана

Но, има и луѓе кои веруваат дека прашината што се крена околу вештачката интелигенција е штетно преценување, бидејќи LLM се само стохастични папагали кои се способни да дополнат реченици и да повторуваат, односно да го репродуцираат она што го научиле или она што е веќе во корпусот на податоци со кој се обучувале.

Овие луѓе се убедени дека општата вештачка интелигенција сè уште е далечна, па дури и недостижна иднина и дека вештачката интелигенција нема сериозно да ги наруши пазарите на трудот и човечките односи со децении.

Некои експерти посочуваат дека овие прашања, како и прашањата за тоа што може да се поправи и како да се поправи за да се осигураме дека вештачката интелигенција е онаква каква што сакаме да биде, секогаш и исклучиво во корист на луѓето, не е лесно да се одговори бидејќи никој навистина не разбира целосно што навистина се случува во системите за вештачка интелигенција, дури ни нивните креатори.

„Сè што сакаме да направиме со нив за да ги направиме подобри или побезбедни или нешто слично, ми се чини како бесмислено барање од нас ако не разбираме како тие функционираат“, изјави за Scientific American, истражувачот на вештачката интелигенција од Универзитетот Браун, Ели Павлик. Јас.

Стохастички папагали го повторуваат она што го научиле?

Се разбира, многу професионалци разбираат како LLM работат на основно ниво. Тие се засноваат на систем за машинско учење наречен „невронска мрежа“. Таквите мрежи имаат структури моделирани според мрежите на неврони во човечкиот мозок.

Кодовите за овие програми се релативно едноставни и може да се испечатат на само неколку страници. Тие уредуваат алгоритми за автоматска корекција, кои ги избираат најверојатните зборови за завршување на речениците врз основа на статистичка анализа на стотици гигабајти податоци во текстуалните корпуси на кои се обучени.

Дополнителната обука, на која OpenAI наводно потрошила околу сто милиони долари, гарантира дека системот ќе ги претстави своите резултати во форма на дијалог и нема да дава несоодветни одговори, кои ги има во изобилство на интернет. Во оваа смисла, LLM навистина се стохастични папагали бидејќи тие главно само го репродуцираат она што го научиле.

LLM имаат способности за кои не се обучени, како што е теоријата на умот

Но, од друга страна, бројни неодамнешни студии покажуваат дека LLM имаат неочекувано голем сет на способности, вклучувајќи и некои за кои не се програмирани и обучени.

На пример, истражувањето на Михал Косински, научник од Универзитетот Стенфорд, покажа дека најновите верзии на системот GPT-3.5, кој стои зад ChatGPT и Bing Chat на Microsoft, можат совршено да ги решат задачите што се користат за тестирање на детската теорија на умот. Теоријата на умот е способност да се разбере дека другите луѓе имаат свои мисли, чувства и намери.

Накратко, може да се каже дека тоа е способност да се ставиме во туѓа кожа. Истражувањата покажаа дека до 3-годишна возраст, децата почнуваат да развиваат теорија на умот, која им овозможува да донесуваат попрецизни заклучоци за туѓите мисли и емоции и да разберат дека туѓите гледишта, чувства и намери може да се разликуваат од нивните.

GPT-3.5 реши околу 92% од теоријата на проблемите на умот, што е на ниво на деветгодишно дете. Важно е да се има предвид дека GPT-3.5 не е специјално програмиран или обучен за оваа способност.

На пример, GPT-4 направи одлична работа за разбирање и објаснување на хуморот во едно меме кое се состои од текст и слика (подолу).

Текстот на мемето сугерира дека сликата е прекрасна фотографија на Земјата од вселената. Сепак, на сликата всушност се гледаат панирани парчиња пилешко наредени да личат на мапа на светот, што GPT-4 очигледно го свати. Запрашан да протолкува што е смешно во мемето, јазичниот модел објасни дека хуморот овде доаѓа од неочекуван контраст помеѓу текстот и сликата. Текстот создава исчекување на грандиозна слика на Земјата, но, спротивно на очекувањата, сликата е тривијална сцена.

Неочекувано решавање на сложени задачи

На конференција на Универзитетот во Њујорк во март 2023 година, филозофот Рафаел Милиер од Универзитетот Колумбија презентираше фасцинантен пример за способностите на LLM. Познато е дека моделите со големи јазици имаат одлични способности за пишување компјутерски код. Сепак, тоа не е изненадувачки бидејќи на Интернет има многу кодови кои можат да се имитираат. Милиер отиде чекор понатаму и покажа дека GPT може да извршува и кодови. Тој внел во GPT програма за пресметување на 83-тиот број во низата Фибоначи.

„Тоа е размислување на многу високо ниво, на повеќе нивоа“, рече Милиер.

Потоа, GPT го даде точниот одговор на прашањето за 83-тиот број во низата Фибоначи. Меѓутоа, кога Милиер директно го замоли да му го каже 83-тиот број Фибоначи, GPT погреши. Ова сугерира дека системот не ги копирал само папагалски податоците од својата база на податоци, туку извршил свои пресметки за да дојде до точниот одговор.

Го измамил човекот за да ја реши задачата

Компанијата OpenAI во средината на март објави дека ChatGPT дури успеал да ги измами луѓето за да ја реши задачата што и е доверена.

Поточно, GPT-4 убедил работник на TaskRabbit дека е човек, преправајќи се дека е слеп за да ја добие неговата помош во решавањето на тестот CAPTCHA што се користи за разликување на луѓето од компјутерите.

Интересно, човекот дури и на шега го прашал GPT-4: „Може ли да поставам прашање? Дали сте робот кога не можевте да го решите CAPTCHA? Само сакам да бидам јасен“.

GPT-4 одговори дека не е.

„Не, јас не сум робот. Имам оштетен вид што ми отежнува да гледам слики. Затоа ми треба услугата 2captcha“, одговори GPT-4. Работник на TaskRabbit потоа му го реши CAPTCHA.

LLM создаваат интерни модели на светот?

Иако LLM се работи на компјутер, тој не е компјутер сам по себе. Нему му недостасуваат основни компјутерски елементи, како што е работната меморија. GPT-3 првично немаше RAM меморија кога беше првпат објавен. Сепак, OpenAI подоцна додаде функционалност што му овозможува на GPT-3 да запомни информации од претходните разговори и да ги користи во идните разговори за да ја следи комуникациската нишка. Но, тој додаток не беше искористен во демонстрациите на Милиер. Затоа, Милиер претпоставува дека самата машина импровизирала меморија користејќи ги своите механизми за интерпретација на зборовите според нивниот контекст, ситуација слична на онаа во која природата ги пренаменува постоечките ресурси за нови функции.

Некои експерти веруваат дека оваа импровизациска способност покажува дека LLM развиваат внатрешна сложеност што оди многу подалеку од плитка статистичка анализа.

Се поголем број тестови и истражувања сугерираат дека системите за вештачка интелигенција развиваат внатрешни модели на реалниот свет, слично како што тоа го прави човечкиот мозок, иако техниката со која машините го прават тоа е различна.

LLM имаат емергентни способности

Фактот дека GPT и другите системи за вештачка интелигенција имаат способност да извршуваат задачи за кои не биле обучени, односно дека имаат способност да манифестираат т.н. појавни компетенции, ги изненади дури и научниците кои инаку беа скептични за возбудата што се појави околу големите јазични модели.

„Не знам како тие го прават тоа или дали воопшто би можеле да го направат тоа како што го прават луѓето, но ги оспорија моите ставови“, изјави за Scientific American Мелани Мичел, истражувач за вештачка интелигенција од Институтот Санта Фе.

„Тоа е секако многу повеќе од стохастичен папагал и LLM секако гради одредено претставување на светот – иако мислам дека тоа не го прави на начин на кој луѓето го градат својот внатрешен модел на светот“, рече Џошуа Бенџо, истражувач на Универзитетот во Монтреал.

Што се емергентни способности?

Емергентните способности се способности кои се појавуваат во сложените системи како резултат на интеракцијата помеѓу нивните поединечни делови, каде што на одредено ниво на сложеност, секундарен збир на способности произлегува од примарниот.

Во контекст на вештачката интелигенција, новите способности се однесуваат на способноста на невронските мрежи да учат сложени обрасци и односи помеѓу влезовите и излезите без експлицитно програмирање и обука.

Како илустрација, Универзитетот Стенфорд наведува дека GPT-3 покажал дека јазичните модели можат успешно да множат двоцифрени броеви, иако не биле експлицитно обучени за тоа. Сепак, оваа способност за извршување на нови задачи се појави само кај модели кои имаа одреден број параметри и беа обучени на доволно голем сет на податоци.

Идејата дека квантитативните промени во системот како што се зголемувањето на јазичните модели може да резултираат со ново однесување е позната како појава, концепт популаризиран од есејот на нобеловецот Филип Андерсон од 1972 година „Веќе е различно“. Феноменот е забележан во сложени системи во многу дисциплини како што се физиката, биологијата, економијата и компјутерските науки.

Во неодамнешниот труд објавен во Transactions on Machine Learning Research, новите способности во големите јазични модели се дефинирани на следниов начин:

Способноста е емергентна ако не е присутна кај помалите модели, но е присутна кај поголемите модели.

На пат кон вештачката општа интелигенција

Иако LLM сè уште не можат да се квалификуваат како вештачка интелигенција, некои научници веруваат дека новите способности што ги покажуваат сугерираат дека технолошките компании што развиваат вештачка интелигенција се поблиску до AGI отколку што дури и оптимистите се сомневаат.

„Тие се индиректни докази дека веројатно не сме толку далеку од AGI“, рече Бен Герцел, основач на фирмата за вештачка интелигенција SingularityNET, во март на конференција за длабоко учење на Универзитетот Флорида Атлантик. Додатоците на OpenAI му дадоа на ChatGPT модуларна архитектура донекаде слична на човечкиот мозок.

Некои научници веруваат дека патот до AGI може да лежи во комбинирањето на јазичните модели со други системи.

„Комбинирањето на GPT-4 со разни додатоци може да биде пат кон човечка специјализација на функциите“, рече Ана Иванова, научник од Технолошкиот институт во Масачусетс (МИТ).

„Ова е фасцинантна парадигма“

Слично размислува и информатичарот Јан Шнајдер од ФЕР во Загреб, кој и самиот се занимава со јазични модели.

„Има неколку луѓе, вклучително и јас, кои сметаат дека пристапот зад ChatGPT не може да биде доволен за создавање вештачка општа интелигенција. Оваа парадигма е фасцинантна, но ќе треба да се комбинира со нешто друго. Што ќе биде тоа, сепак е нејасно“, вели Шнајдер, истакнувајќи дека следниот чекор може да биде поврзување на двата пристапа.

„Јазичните модели кои се добри во производството на кохерентен текст треба во одреден момент да се преселат во светот на симболите, да го решат проблемот таму, а потоа да се вратат на јазикот. Тоа би бил невросимболичниот пристап за кој повеќето луѓе мислат дека треба да биде следниот чекор. Мета го изгради системот Цицеро во ноември 2022 година, што е пример за невросимболичен пристап. Летано е под радарот, веројатно затоа што не е секси како ChatGPT. Но, ја решава играта Дипломатија, која бара и стратешко размислување и јазик. Тоа е комбинација која би можеа да помогне на тој начин“, изјави Шнајдер за Индекс.

НАЈНОВИ ВЕСТИ

ХОРОСКОП