韓國再現(xiàn)“N號房”丑聞,這次的關(guān)鍵詞是“深度偽造犯罪”。


所謂“深度偽造犯罪”,即使用人工智能技術(shù)生成逼真的虛假內(nèi)容,該技術(shù)的泛濫使得此次韓國女性的受害者數(shù)量以及相關(guān)色情圖片視頻的傳播力度較之過去更上了一個(gè)臺階,受害者不得不在包括中國微博在內(nèi)的各國社交平臺發(fā)聲,呼吁更多人關(guān)注。


深度偽造的技術(shù)原理是什么?黑灰產(chǎn)從業(yè)者如何從中牟利?為什么韓國最泛濫?應(yīng)該如何加強(qiáng)監(jiān)管?


AI深度偽造技術(shù)原理是什么?


對抗網(wǎng)絡(luò)不斷重復(fù)直到內(nèi)容足夠逼真


網(wǎng)絡(luò)尖刀安全團(tuán)隊(duì)聯(lián)合創(chuàng)始人蔡勇在接受記者采訪時(shí)表示,AI深度偽造技術(shù),也稱為深度偽像(Deepfake),是一種利用人工智能技術(shù)生成逼真的虛假內(nèi)容,通常是指用于偽造人物的視頻、音頻、圖像等。其主要原理涉及兩個(gè)關(guān)鍵技術(shù):生成對抗網(wǎng)絡(luò)(GANs)和深度學(xué)習(xí)。


“技術(shù)實(shí)現(xiàn)可以這么理解:首先,我們需要一個(gè)生成器和一個(gè)判別器。生成器的任務(wù)是模仿已有的真實(shí)內(nèi)容,例如人的臉部特征,其通過學(xué)習(xí)大量的真實(shí)樣本,比如照片或視頻片段來生成看起來非常逼真的虛假內(nèi)容。而判別器的任務(wù)是辨別生成器創(chuàng)建的內(nèi)容是否真實(shí)。通過不斷迭代訓(xùn)練,生成器和判別器會不斷互相競爭、學(xué)習(xí)和提高。這種對抗性的過程不斷重復(fù),直到生成器生成的內(nèi)容足夠逼真,以至于人類很難分辨它們是虛假的。這就是為什么AI深度偽造技術(shù)可以制作出逼真的虛假視頻、音頻或圖像的原因。”蔡勇說。


黑灰產(chǎn)打擊專家丁健琮則告訴貝殼財(cái)經(jīng)記者,Deepfake的核心原理是通過一定的圖片識別算法將2D照片動態(tài)化,或?qū)⒛硰堈掌械娜四樦踩氲揭欢蝿討B(tài)視頻中?,F(xiàn)在聲紋偽造也逐步納入了deepfake的概念。


隨著近年來AI大模型技術(shù)的逐漸成熟,一些AI生圖大模型在追求更多真實(shí)度的同時(shí)“誤打誤撞”成為了AI換臉或AI脫衣的幫兇,如此前著名的大模型stable diffusion就被開發(fā)出了一鍵脫衣的功能,并一度泛濫。雖然后來該大模型修改了相關(guān)功能,讓這種行為有所收斂,但由于技術(shù)開源的特性,“潘多拉的盒子”已經(jīng)打開,或許難以再度關(guān)閉。


黑灰產(chǎn)從業(yè)者如何牟利?


一個(gè)公開進(jìn)群組成員達(dá)1.5萬人 通過繳費(fèi)還可進(jìn)入更私密群組


貝殼財(cái)經(jīng)記者注意到,同此前的韓國“N號房”事件一樣,此次深度偽造圖像的傳播平臺依然是國外社交平臺“電報(bào)”(Telegram),該平臺可以提供端到端加密消息傳遞,總部位于俄羅斯,因其私密的特性而擁有大量國際用戶,但也因此成為了不法行為的溫床。


貝殼財(cái)經(jīng)記者調(diào)查發(fā)現(xiàn),當(dāng)前該平臺上有不少以AI色情為賣點(diǎn)的群組(類似于群聊天,即韓國新聞中“房”的概念),在公開可進(jìn)的群組中,一個(gè)通過AI技術(shù)偽造國內(nèi)網(wǎng)紅色情圖片的群組成員人數(shù)達(dá)到了1.5萬人,通過繳費(fèi),還可以進(jìn)入更加私密、尺度更大的群組,黑灰產(chǎn)從業(yè)者正是以此牟利。


除了端到端加密技術(shù)外,Telegram還賦予了包括“閱后即焚”“超級群組(動輒可達(dá)十多萬人,相比之下微信群的限制是500)”“群主設(shè)置不能復(fù)制轉(zhuǎn)發(fā)截圖”等功能,使得Telegram上的一個(gè)個(gè)群組成為了封閉式空間。此外,不少交易通過虛擬貨幣進(jìn)行,令非法交易得以逃避監(jiān)管。


今年3月,Telegram的創(chuàng)始人帕維爾·杜羅夫表示,“電報(bào)”已擁有9億用戶,且正接近盈利。照此發(fā)展速度,其下一步將直接與Facebook等社交媒體競爭。


丁健琮告訴記者,Telegram的創(chuàng)始人本就是絕對自由主義者或者可以稱之為無政府主義者,其設(shè)計(jì)Telegram的原始理念就是無監(jiān)控和躲避監(jiān)管,這就導(dǎo)致大量黑灰產(chǎn)和違法信息在其中聚集。


不過,貝殼財(cái)經(jīng)記者注意到,Telegram里也有一些約定俗成的“禁區(qū)”,至少在公開可見的大群里,一些群成員會注意包括兒童色情、強(qiáng)迫性行為等在內(nèi)的內(nèi)容,曾有群成員抱怨自己發(fā)布了上述內(nèi)容后群組遭到封禁。但基于Telegram平臺本身的私密性特點(diǎn),對于經(jīng)過篩選、群成員忠誠度更高的各種“房”,仍然存在此類內(nèi)容的可能性極高。


值得注意的是,8月24日,杜羅夫在法國巴黎近郊的布爾歇機(jī)場被捕,雖然后來在司法監(jiān)控下獲得保釋,但不得離開法國。法國TF1電視臺報(bào)道稱,帕維爾·杜羅夫可能面臨恐怖主義、洗錢和販毒的指控。巴黎檢察官辦公室在一份聲明中指出,其涉嫌的違法行為包括參與出售兒童性虐待素材、販毒、欺詐,以及在法律要求時(shí)拒絕與調(diào)查人員分享信息或文件等。


有評論認(rèn)為,杜羅夫的被捕有可能導(dǎo)致Telegram今后的內(nèi)容得到整治。


2020年3月26日,Telegram性剝削共同對策委員會在首爾光化門世宗文化會館臺階前舉行集會,要求從根本上解決Telegram性剝削事件。(圖片來源:韓民族日報(bào)官方網(wǎng)站)


為什么是韓國?


法律執(zhí)行力度或許不夠 但性別歧視才是根源


實(shí)際上,飽受深度偽造困擾的女性并不只在韓國。歐美女演員中,“黑寡婦”斯嘉麗約翰遜、“赫敏”艾瑪沃特森,以及小天后泰勒斯威夫特都是第一批遭到AI換臉的受害者,國內(nèi)明星和網(wǎng)紅也有不少受害者。


去年5月,一粉絲數(shù)量超過50萬的國內(nèi)網(wǎng)紅女博主發(fā)文吐槽,“好多人都經(jīng)歷過圖片被盜放到外網(wǎng)上,拿去引流‘賣片’,以及把照片和其他色情圖片放在一起的低級造謠手段,明眼人一看就知道是假的,我平時(shí)不在意這些,只是當(dāng)私信突然變多發(fā)現(xiàn)‘節(jié)奏’起來時(shí),才不得不辟謠?!?/p>


但是,為什么韓國女性受到深度偽造的傷害比之其他國家更甚?根據(jù)8月26日,韓國女性民友會發(fā)布的報(bào)告,在某一個(gè)“電報(bào)”群組中,只需上傳熟人照片,付費(fèi)后5秒鐘內(nèi)就能生成裸體合成圖,而該群組的參與人數(shù)高達(dá)22.7萬人。


相比其他國家AI偽造的受害者大多是明星網(wǎng)紅,韓國更有大量的普通人受害,有韓國女大學(xué)生受害者表示,自己有數(shù)十張裸體照片在電報(bào)群組中傳播,臉上寫著不堪入目的臟話,甚至還有人通過AI生成了自己的色情語音。


民友會在報(bào)告中質(zhì)問,“(韓國)女性們生活在一個(gè)無法有效懲罰或預(yù)防針對女性犯罪和暴力的社會中,失去了日常生活的安全感,仿佛生活在一個(gè)沒有國家的狀態(tài)中。這樣的社會還有存在的必要?”


實(shí)際上,對于此類犯罪行為,韓國并非沒有相關(guān)的法律,“N號房”事件的發(fā)生就推動了韓國《Telegram“N號房”事件防治法》的出臺,包括《關(guān)于性暴力犯罪處罰的特例法修訂案》《刑法修正案》《關(guān)于限制犯罪收益隱匿的規(guī)定及處罰的法律修訂案》等內(nèi)容。


據(jù)韓聯(lián)社29日報(bào)道,韓國政府還計(jì)劃加強(qiáng)對利用“深度偽造”進(jìn)行性犯罪行為的處罰力度,并推進(jìn)與通訊軟件“電報(bào)”的運(yùn)營公司構(gòu)建合作熱線。韓國執(zhí)政黨國民力量黨政策委員會主席金相勛在當(dāng)天舉行的發(fā)布會上稱,黨政在國會開會討論“深度偽造”性犯罪的預(yù)防對策。雙方計(jì)劃推進(jìn)立法,將散布虛假視頻等犯罪行為的最高刑罰從5年提高至7年。


但是,對于韓國女性而言,長久的性別歧視觀念或許才是導(dǎo)致此類事件一再發(fā)生的“根源”。《朝鮮日報(bào)》稱,因?yàn)椤爸皇怯X得有趣”、“只是在開玩笑”、“用熟人的照片P圖更真實(shí)”等原因,“深度偽造”在韓國10代群體之間像“游戲”一樣盲目蔓延。


韓國女性民友會的負(fù)責(zé)人就呼吁人們進(jìn)行反思?!绊n國女性被品頭論足,被看作可以是‘被玩弄的對象’。這種對女性的性物化、蔑視和侮辱已經(jīng)成為一種娛樂。韓國社會培養(yǎng)出的‘普通男性’的最低標(biāo)準(zhǔn)究竟在哪里?”


如何防范、監(jiān)管?


加大AI平臺使用者審核 打擊為黑產(chǎn)提供支持的apk工具


在采訪中,不少專家都認(rèn)為隨著AI技術(shù)的進(jìn)步,想要阻止人們使用AI生成偽造視頻或圖片,并不現(xiàn)實(shí),想要制止此類行為,需要從其他方向“下功夫”。


“近年來Deepfake愈演愈烈、難以監(jiān)管的原因在于技術(shù)擴(kuò)散。很多類似的黑產(chǎn)技術(shù)被不斷地工具化甚至SaaS服務(wù)化,使用者不需要懂得相關(guān)技術(shù),只需要通過某些途徑獲得包裝好的插件或者在網(wǎng)絡(luò)平臺上付費(fèi)就可以實(shí)現(xiàn)內(nèi)容的輸入輸出?!倍〗$硎?。


“必須明確的是,使用AI工具進(jìn)行偽造,效率要比傳統(tǒng)偽造方式高得多,技術(shù)門檻卻又低得多。俗話說得好,造謠一張嘴,辟謠跑斷腿。當(dāng)前,通過專業(yè)技術(shù)手段或?qū)<诣b定可以識別AI深偽視頻和圖片,但成本也很高,隨著技術(shù)不斷進(jìn)步,AI生成或合成的視頻最終無法被鑒定真?zhèn)危潜厝坏??!逼姘残偶瘓F(tuán)行業(yè)安全研究中心主任裴智勇告訴貝殼財(cái)經(jīng)記者。


在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實(shí),但這并不意味著對偽造視頻或圖片毫無辦法。“國內(nèi)對于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別一張圖片的真?zhèn)危梢詮钠脚_一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實(shí)施打擊?!?/p>


丁健琮則建議,應(yīng)該從源頭管控技術(shù)擴(kuò)散,“正規(guī)的AI技術(shù)平臺對于上傳和生成的內(nèi)容應(yīng)當(dāng)有審核,使用者也需要實(shí)名注冊,國內(nèi)法已經(jīng)明確建立了此類規(guī)定。正規(guī)經(jīng)營者應(yīng)當(dāng)嚴(yán)格落實(shí)國家法律法規(guī)要求。而對于為黑產(chǎn)提供支持的apk工具或者SaaS網(wǎng)站,要依賴嚴(yán)厲的打擊。可以參考國內(nèi)反詐工作的思路,軟硬件生態(tài)聯(lián)合對相關(guān)的apk和網(wǎng)站進(jìn)行封禁?!?/p>


裴智勇表示,從未來角度看,應(yīng)當(dāng)積極探索和推廣照片與視頻的防偽技術(shù)。例如,通過數(shù)字加密技術(shù)、數(shù)字水印技術(shù)等,可以給每一張圖片或每一段視頻打上一段不可偽造的驗(yàn)證信息,一旦內(nèi)容被修改,驗(yàn)證信息就會被破壞,從而達(dá)到雖然不能鑒偽,但可以“保真”的效果。


“具體來說,比如,使用某品牌、某型號、某序列號的特定手機(jī)拍攝照片,照片文件上就會帶有一串肉眼看不見、但機(jī)器可識別的加密驗(yàn)證碼。驗(yàn)證系統(tǒng)一旦識別到這段驗(yàn)證碼,就可以確定這張照片一定是用這部手機(jī)拍攝的,而使用任何其他設(shè)備,都無法生成這段驗(yàn)證碼。一旦有人對這張照片就行修改,不論是AI修改,還是人工手動修改,驗(yàn)證系統(tǒng)都能識別出其‘不是原圖’。這里所說的方法并非什么新技術(shù),而是成熟密碼技術(shù)。需要的只是推廣和深度普及?!迸嶂怯抡f。


“目前,國內(nèi)外已經(jīng)有一些專門用于識別deepfake生成結(jié)果的技術(shù)和專利,國內(nèi)內(nèi)容平臺可以通過在內(nèi)容巡檢功能中增加對deepfake類內(nèi)容的識別技術(shù),盡可能切斷傳播鏈。”丁健琮告訴貝殼財(cái)經(jīng)記者。


記者聯(lián)系郵箱:luoyidan@xjbnews.com


新京報(bào)貝殼財(cái)經(jīng)記者 羅亦丹 編輯 陳莉 校對 柳寶慶