За многу луѓе, вештачката интелигенција сè уште е голема непозната. Иако алатките за вештачка интелигенција се повеќе се користат и се претставуваат како нешто што ќе го промени начинот на кој работиме и живееме, луѓето сеуште се скептични. Делумно затоа што вештачката интелигенција е нешто што не можат да го видат и допрат, а делумно затоа што едноставно не знаат за што да користат такви алатки и како функционира целата работа.
Сепак, изгледа дека не се единствените во овој начин на размислување. Учествувајќи на AI for Good Global Summit во Женева, шефот на OpenAI Сем Алтман, истата компанија која ја започна целата лудост со вештачката интелигенција, откри неколку интересни факти за нивниот популарен чет-бот ChatGPT.
На прашањето која е првата голема и добра работа што ја донесе вештачката интелигенција во светот, Алтман посочи на побрза и поефикасна работа. Сепак, тој посочи и дека главната негативна работа што е резултат на употребата на вештачката интелигенција во светот е пред се нарушената сајбер безбедност, но и додаде дека од друга страна вештачката интелигенција ќе помогне и во зајакнувањето на сајбер безбедноста.
Еден од главните проблеми што се појавува во развојот на вештачката интелигенција е изворот на податоци врз основа на кои се развиваат алатките на вештачката интелигенција. Долго време се зборува за тоа како истекуваат податоците, а факт е дека на интернет има се повеќе т.н. синтетичките податоци, кои беа создадени со помош на вештачка интелигенција, и обуката за вештачка интелигенција врз основа на овие податоци може да доведе до проблеми во иднина.
Мислам дека се потребни квалитетни податоци. Има лоши податоци кои се синтетички создадени, но има и лоши податоци што ги создаваат луѓето. И сè додека можеме да најдеме доволно висококвалитетни податоци за да ги обучиме нашите модели, не треба да има никакви проблеми, истакна Алтман.
Токму ова прашање за обука на вештачка интелигенција доведе до дебата за тоа како функционира самата вештачка интелигенција.
Меѓу другото, тој призна дека компанијата се уште не знае како функционираат нејзините големи јазични модели. Имено, моментално можностите на AI моделот се ограничени на ниво на интерфејсот што се користи за комуникација со корисниците. Но, целта е да се создадат такви модели кои би можеле да ги научат луѓето за хемија, но не и како да направат хемиско оружје. Тоа е делот што вештачката интелигенција не го разбира, а луѓето, признава Алтман, не знаат како AI функционира „зад сцената“ или како да го решат тој проблем.
Сè уште не сме ја решиле интерпретабилноста, истакна Алтман, сугерирајќи дека компанијата допрва треба да открие како да следи како функционираат нејзините модели со вештачка интелигенција. По понатамошното тестирање дали треба да издаваат нови и помоќни модели, рече тој, овие системи генерално се сметаат за безбедни и робусни.
Алтман додаде дека тие не разбираат што се случува во вашиот мозок на ниво на неврон по неврон, и тие следат некои стандардни правила за да разберат како човечкиот ум би сакал да објасни некое конкретно прашање.
Тоа е признанието дека дури и компанијата што го разви ChatGPT не знае како работи вештачката интелигенција зад сцената што загрижува се повеќе експерти кои бараат поголеми инвестиции во безбедноста на вештачката интелигенција.
Сепак, Алтман верува дека безбедноста ќе се развива со понатамошен развој и разбирање на вештачката интелигенција.
Ми се чини дека колку повеќе можеме да разбереме што се случува во овие модели, толку подобро, истакна Алтман.