Google вели дека неговото ново семејство модели со вештачка интелигенција има интересна карактеристика: способност да ги „идентификува“ емоциите.
Објавено во четвртокот, семејството на модели PaliGemma 2 може да анализира слики, дозволувајќи и на вештачката интелигенција да генерира описи и да одговара на прашања за луѓето што ги „гледа“ на фотографиите.
„PaliGemma 2 генерира детални, контекстуално релевантни описи за слики“, напиша Google во блог пост споделен со TechCrunch, „надминувајќи ја едноставната идентификација на објектот за да ги опише дејствата, емоциите и целокупниот наратив на сцената“.
Препознавањето емоции не функционира веднаш, а PaliGemma 2 мора да биде фино подесен за оваа намена. И покрај тоа, експертите со кои разговараше TechCrunch беа загрижени за можноста за отворено достапен детектор за емоции.
„Ова е многу вознемирувачко за мене“, изјави за TechCrunch Сандра Вахтер, професорка по етика на податоци и вештачка интелигенција на Oxford Internet Institute. „Сметам дека е проблематично да се претпостави дека можеме да ги „читаме“ човечките емоции. Тоа е како да бараме совет од Magic 8 Ball“.
Со години, стартапите и технолошките гиганти се обидуваат да изградат вештачка интелигенција која може да детектира емоции за сè, од обука за продажба до превенција од несреќи. Некои тврдат дека го постигнале ова, но науката стои на разнишани емпириски основи.
Повеќето детектори за емоции се потпираат на раната работа на Пол Екман, психолог кој теоретизираше дека луѓето споделуваат шест заеднички основни емоции: лутина, изненадување, одвратност, задоволство, страв и тага. Последователните истражувања фрлија сомнеж врз хипотезата на Екман, сепак, покажувајќи дека постојат големи разлики во начинот на кој луѓето од различно потекло го изразуваат своето чувство.
„Откривањето на емоции не е возможно во општиот случај, бидејќи луѓето ги доживуваат емоциите на сложени начини“, изјави за TechCrunch Мајк Кук, научен соработник на Кралскиот колеџ во Лондон, специјализиран за вештачка интелигенција. „Се разбира, мислиме дека можеме да кажеме што чувствуваат другите луѓе гледајќи во нив, а многу луѓе во текот на годините исто така се обиделе, како шпионски агенции или маркетинг компании. Сигурен сум дека е апсолутно можно да се детектираат некои генерички означувачи во некои случаи, но тоа не е нешто што можеме целосно да го „решиме“.
Неизненадувачка последица е тоа што системите за откривање емоции имаат тенденција да бидат несигурни и пристрасни од претпоставките на нивните дизајнери. Во студија на MIT од 2020 година, истражувачите покажаа дека моделите за анализа на лицето можат да развијат ненамерни преференции за одредени изрази, како што се насмевките. Поновата работа сугерира дека моделите за анализа на емоции припишуваат повеќе негативни емоции на црните лица отколку на белите лица.
Google вели дека спровел „обемно тестирање“ за да ги процени демографските предрасуди во PaliGemma 2 и открил „ниски нивоа на токсичност и вулгарности“ во споредба со индустриските репери. Но, компанијата не обезбеди целосна листа на одредниците што ги користеше, ниту пак посочи какви видови тестови се спроведени.
Единствениот репер што го откри Google е FairFace, збирка од десетици илјади слики од човечки глави. Компанијата тврди дека PaliGemma 2 постигнала добри резултати на FairFace. Но, некои истражувачи го критикуваа реперот како метрика на пристрасност, посочувајќи дека FairFace претставува само неколку расни групи.
„Толкувањето на емоциите е прилично субјективна работа што се протега надвор од употребата на визуелни помагала и е силно вградена во личниот и културниот контекст“, рече Хајди Калаф, главен научник за вештачка интелигенција во Институтот AI Now, непрофитна организација која ги проучува социјалните импликации на вештачката интелигенција. „Настрана вештачката интелигенција, истражувањата покажаа дека не можеме да заклучиме емоции само врз основа на цртите на лицето.
Системите за откривање емоции го привлекоа гневот на регулаторите во странство, кои се обидоа да ја ограничат употребата на технологијата во контексти со висок ризик.