Една од најконтроверзните теми поврзани со технологијата и вештачката интелигенција во последниве години е deepfake. Станува збор за технологија и алатки со кои може да се создаде ново лажно видео кое изгледа крајно реално само од нечии фотографии и видеа.
Deepfake може да се користи за правење видео со политичари кои ќе дадат некакви опасни изјави и со тоа ќе влијаат, на пример, на изборните кампањи или, што е уште пострашно, може да се користи за порнографија, а лицата на другите луѓе можат да бидат поставени на телата на порно актерки или актери, или таква слика и видео може да се направи само со помош на текстуални упатства.
Такво нешто неодамна и се случи на Тејлор Свифт, а на социјалните мрежи се проширија лажни фотографии. Благодарение на оваа технологија, понекогаш навистина не знаеме што е вистина, а што лага.
А оваа технологија сега стана уште понапредна, односно потребна е уште помалку содржина што може да се користи за создавање реални видеа.
Истражувачкиот оддел на Microsoft во Азија на тој начин ја претстави новата експериментална алатка наречена VASA-1 која овозможува создавање deepfake видеа врз основа на само една фотографија или цртеж/слика на лицето на една личност. Со користење на фотографии и цртежи, како и постоечки аудио-датотеки, можно е да се направат верни видеа од лицата на овие луѓе кои зборуваат, со реални движења на лицето и гримаси што луѓето вообичаено ги прават додека зборуваат. Истражувачите на компанијата објавија и пример видеа користејќи ја нивната технологија и изгледаат доволно добро за да ги измамат луѓето кои нема да ја забележат разликата помеѓу овие видеа и вистинските.
Не е тешко да се заклучи дека ваквата технологија во рацете на луѓето со лоша намера може да донесе бројни проблеми бидејќи тие би можеле да направат бројни лажни видеа за кратко време и со многу мала содржина. Microsoft исто така е свесен за ова, па решија да не објавуваат демо или финален производ, ниту да дозволат други да развиваат свои производи на нивната технологија, додека не бидат сигурни дека нивната технологија ќе се користи одговорно и во согласност со релевантните прописи.
Она што не е познато, потенцираат на „Engadget“, е дали имаат намера да спроведат некакви заштитни мерки во нивната технологија што ќе ја спречат нејзината злоупотреба, како што е споменатата порнографија или употребата за мешање во изборните процеси.
Иако оваа алатка беше тренирана на фотографии од вистински (славни) луѓе, се покажа доста успешна и на уметнички слики, па ја оживеа Мона Лиза, пеејќи или рапувајќи дел од песната „Папараци“ со гласот на Ен Хатавеј.