Секој ден се зголемува списокот на научници кои јавно предупредуваат за опасностите од нерегулираната вештачка интелигенција, која забрзано се развива во најголемите технолошки лаборатории во светот.
Многумина се прашуваат од што точно се плашат експертите кога е во прашање технологијата на иднината која веќе е дел од секојдневието.
Краткорочните, среднорочните и долгорочните ризици вештачката интелигенција нема да ни донесе ништо добро во однос на кратења на работни места, губење на приватноста, преплавување на јавниот дискурсен простор со лажна или искривена содржина, дискриминација, продлабочување на социо-економскиот јаз, предизвикувајќи шокови на пазарите и најапокалиптичната можност – појавата на роботи убијци или во најмала рака нивно паѓање во погрешни раце.
Најновиот научник кој испрати драматична порака до светот, Џефри Хинтон, е еден од креаторите на системот за вештачка интелигенција. Хинтон неодамна поднесе оставка од Google, каде што работеше како истражувач, објаснувајќи дека „сака слобода за да му каже на светот за опасностите од понатамошниот развој на вештачката интелигенција без строги правила“.
Во фокусот на критичарите се неколку ризици кои ги носи вештачката интелигенција.
Социјална манипулација
Тоа е веќе дел од светот во кој живееме. Имено, социјалните медиуми преку нивните автономни алгоритми се многу ефикасни во таргетираниот маркетинг. Тие знаат кои сме, што ни се допаѓа и се исклучително добри во погодувањето што мислиме.
Стравот од тоа што може да направи вештачката интелигенција и како таа е способна да манипулира со нашето однесување е предизвикан од примери, од кои најнов е оној на Фердинанд Маркос Јуниор, кој користејќи армија тролови ги освои гласовите на помладите Филипинците на социјалната мрежа ТикТок на изборите минатата година.
„Поротата сè уште е надвор од тој случај“, но исто така е можно компанијата Кембриџ Аналитика да ги искористила приватните податоци на 50 милиони корисници на Фејсбук во 2016 година за да влијае на исходот од претседателските избори во САД на кои победи Доналд Трамп и референдумот за Брегзит. И двете „одлуки на народот“ имаа далекусежни последици. Рецептот е едноставен: алгоритмите и приватните податоци се користат за да се идентификуваат поединци кои се цел на пропаганда и манипулација.
Веќе е доволно тешко да се разликува вештачката интелигенција од вистинските луѓе, што го прави влијанието на вештачката интелигенција во виртуелниот свет застрашувачки.
Губење на работни места
Вештачката интелигенција би можела многумина да остави без работа, а таа реалност би можела да биде поблиска отколку што многумина мислат. Ова не се однесува само на најтешките работи, туку и на оние кои според Макс Ерик Тегмарк, физичар и голем критичар на неконтролираниот развој на вештачката интелигенција, ги исполнуваат човечките животи со смисла. Згора на тоа, вештачката интелигенција повеќе ги загрозува работните места на белите крагњи отколку физичките работници. Вештачката интелигенција веќе широко се користи во маркетингот, производството и здравството.
Но, според проценките на Голдман Сакс, компјутерите би можеле целосно да преземат 18 отсто од работните места на глобално ниво. Стратегот Крис Месина, креаторот на хаштагот (#), вели дека сметководствените и правните професии се следните кои ќе бидат насочени кон преземање роботи. „Ќе видиме големи превирања во тој сектор“, смета Месина.
Губење на приватноста
Развојот на технологијата овозможи да се следи и анализира сето она што го прават поединците додека се онлајн, но и на физички план. Камерите се речиси насекаде, а алгоритмите за препознавање лице многу добро знаат кој е кој. Врз основа на овие системи, беше создадена малку застрашувачката програма за социјално оценување на Кина, која се обидува да го оцени однесувањето на 1,4 милијарди Кинези. Евидентираните однесувања за оценување на граѓаните вклучуваат пушење во области каде пушењето е забрането, преминување улица каде што тоа не е дозволено или, на пример, колку време поминале играјќи видео игри. Ваков Голем брат не значи само нарушување на приватноста, туку и можност за почеток на општествено угнетување 2.0.
Дискриминација
Не станува збор само за дискриминацијата и социјалните предрасуди кои се забележани во машинското учење, каде што расните малцинства и жените се во полоша позиција на Запад. Имајќи предвид дека машините можат да собираат, следат и анализираат податоци за поединци, тие исто така можат да ги користат тие информации против нив. Пример е осигурителна компанија која „знае“ дека некое лице често зборува на телефон или работодавач кој одбива да вработи лице поради „ниски социјални поени“. Еден пример е американската полиција која користи полициски алгоритми за да ги предвиди местата на злосторството. Тие алгоритми се под влијание на стапките на апсење кои несразмерно влијаат на афро-американските населби и создаваат порепресивна атмосфера во тие делови на градовите.
Слабеење на етиката и добрата волја
На ова предупреди и папата Франциско, говорејќи за светот кој се раѓа со доаѓањето на вештачката интелигенција. Новата технологија ќе ги промени животите на луѓето исто како што тоа го правеше Интернетот во 1990-тите. „Доколку таканаречениот технолошки напредок на човештвото стане непријател на општото добро, тоа ќе доведе до уназадување во форма на варварство во која законот на посилниот има приоритет“, рече Папата.
Токму ChatGPT, вештачката интелигенција чие откритие неодамна ја разбранува светската јавност, предизвика најголема загриженост. Имено, корисниците ја користеа новата технологија за да се повлечат, на пример, од пишувањето есеи, што предизвика дискусии за влијанието на искреноста во академскиот живот, но и на креативноста и извештаченоста.
Самоуправувачко оружје
Многумина се убедени дека трката за нуклеарно вооружување ќе ја замени конкуренцијата во развојот на автономно оружје.
Пред неколку години, рускиот претседател Владимир Путин, говорејќи пред студентите на еден руски универзитет, изјави: „AI е иднината не само за Русија, туку и за човештвото. Кој ќе стане лидер во таа област, ќе стане владетел на светот. Уште во 2016 година, 30.000 научници потпишаа петиција со која се бара прекин на истражувањето за автономно оружје. Но, освен фактот дека смртоносното оружје може да излезе од контрола и да развие сопствена волја, која спаѓа во доменот на хипотетички предвидувања и научно-фантастични филмови, објективната опасност е таквото оружје да падне во погрешни раце, поединци или групи со мало внимание на човечкиот живот. Штом ќе започнат, тешко ќе се запрат или надминат.
Продлабочување на социо-економските разлики и потреси на пазарот
Социјалниот јаз е една од опасностите од регрутирањето на работното место управувано од вештачка интелигенција. Утврдувањето на карактеристиките на кандидатите за работа преку анализа на гласот и лицето носи ризик од дискриминација во процесот на вработување, сметаат експертите. Исто така, веќе се покажа дека поради воведувањето на автоматизацијата, физичките работници доживеале намалување на платите, додека „белите“ помалку или повеќе се спасиле неповредени, а некои дури и ги подобриле своите платни списоци.
Поради автоматизацијата на работењето во финансискиот сектор, постои страв дека следната голема криза може да биде предизвикана од вештачката интелигенција. Ова веќе се случи во два случаи поради софтвер кој „полуде“ и предизвика хаос со безумно однесување на пазарот.