AI脫衣軟件網(wǎng)上叫賣 正常照片秒變不堪入目照片
有技術(shù)人員正尋求辦法識別偽造視頻
有技術(shù)人員告訴南都記者,從實踐來看,制作逼真度較高的換臉視頻,至少需要千余張照片。但目前已出現(xiàn)一些新的技術(shù)方法,即便只有一張照片,也可以制作出換臉視頻。
這意味著,不僅是女明星,任何曾在社交媒體上公開過生活照片的女性,都可能成為惡意應(yīng)用的受害者。
正如新加坡女孩Rose,她的偽造***在色情網(wǎng)站流傳,其本人卻毫不知情。據(jù)新加坡媒體the Star Online報道,過去幾周內(nèi),有數(shù)個像Rose一樣的受害者出現(xiàn)。有人盜取了她們的社交媒體照片,通過DeepNude篡改后發(fā)上色情網(wǎng)站。并且,這些照片還在被不停地重新編輯,變得越來越多。
美國民間組織Revenge Porn的創(chuàng)始人兼首席執(zhí)行官Katelyn Bowden曾作出鮮明的反對表態(tài),認(rèn)為DeepNude這樣的技術(shù)不應(yīng)該向公眾開放。“現(xiàn)在任何人,甚至在根本沒有拍過***的情況下,都可能發(fā)現(xiàn)自己成了色情的受害者。”她對媒體表示。
“是的,這不是你真正的私處,但別人會以為他們看到了你的*。一個Deepfakes的受害者曾告訴我,她覺得有上千人看到了她的*,她的身體好像不再是自己的了。”馬里蘭大學(xué)法學(xué)院教授Danielle Citron在接受外媒采訪時說。
在全球執(zhí)法者設(shè)法應(yīng)對的同時,技術(shù)人員也在尋求破解之道。今年6月初,有企業(yè)在DEF CON CHINA 1.0大會上展示了“打假”成果,研究人員用深度神經(jīng)網(wǎng)絡(luò)來訓(xùn)練識別算法,識別偽造視頻的準(zhǔn)確率超過了90%。6月底,加州大學(xué)伯克利分校和南加州大學(xué)的研究者也發(fā)布了一項進(jìn)展,據(jù)稱“打假”正確率達(dá)到了92%。
用技術(shù)作惡的人似乎總是比倫理和法律跑得快。在法律和技術(shù)尚無有效應(yīng)對之道的當(dāng)下,女性不得不更加保守和謹(jǐn)慎地對待社交網(wǎng)絡(luò)。
Rose告訴媒體,她打算將社交賬戶設(shè)為“私密”。