網(wǎng)絡(luò)音視頻新規(guī)發(fā)布 用戶須實名制發(fā)布建立辟謠機(jī)制
■ 案例
ZAO軟件AI換臉被疑泄露隱私
今年9月,一款名為“ZAO”的手機(jī)軟件突然流行起來,網(wǎng)友只需要上傳一張正面照,就可以用“AI換臉”技術(shù)把照片制作成網(wǎng)絡(luò)熱門表情包,或是替換經(jīng)典電影片段中主角的臉,制作短視頻。
然而,很快有網(wǎng)友質(zhì)疑“ZAO”用戶協(xié)議中的“不可撤銷、永久,可轉(zhuǎn)授權(quán)”等內(nèi)容,可能存在隱私安全方面的問題。9月3日,工信部約談該軟件相關(guān)負(fù)責(zé)人,要求其嚴(yán)格按照國家法律法規(guī)以及相關(guān)主管部門要求,進(jìn)行自查整改。
還有不少網(wǎng)友擔(dān)心,在“AI換臉”技術(shù)的加持下,如果個人照片被擅自挪作他用會帶來風(fēng)險。
這樣的擔(dān)心并非空穴來風(fēng)。據(jù)媒體報道,2017年12月,一個名為“深度偽造”(deepfakes)的用戶在美國論壇Reddit上發(fā)布了多段色情視頻,不同的是,他讓電腦學(xué)習(xí)好萊塢女明星的圖像資料,然后把女明星的面部移植到色情片女主角臉上,近乎完美地實現(xiàn)了動態(tài)換臉,這引發(fā)了大量討論和抨擊,最后以賬號被封告終。
國內(nèi)也存在利用AI換臉技術(shù)制作淫穢視頻的產(chǎn)業(yè)鏈。據(jù)新京報此前報道,隨著AI技術(shù)走紅以及門檻降低,售賣明星換臉的淫穢視頻已經(jīng)成為一門地下生意。百度貼吧中部分標(biāo)榜“換臉+女明星姓名”的發(fā)帖者,售賣通過AI換臉技術(shù)合成的視頻,閑魚上還有賣家提供“定制換臉”服務(wù),買家提供明星或私人照片,賣家即可將淫穢視頻中的主角“移花接木”。