Deep Fake性犯罪在韓國已泛濫成災,受害者不乏青少年、未成年,而且還有越演越烈的趨勢,甚至連韓國女藝人都遭殃。韓國總統尹錫烈也下令打擊數位性犯罪,避免更多女性成為Deep Fake色情受害者。
延伸閱讀:NCT文泰一涉嫌性犯罪!SM娛樂:「情節嚴重,已將他退團!」
什麼是Deep Fake?
Deep Fake是一種「AI換臉技術」,這工具可以深度學習人臉表情、甚至聲音,這工具若好好使用,可以讓醫院透過此技術為聾啞病人進行聲音重製、藝術創作,或是讓歷史人物重現現代。
但這樣好用的工具有利有弊,多年前台灣YouTuber就曾利用Deep Fake,移植女網紅、女YouTuber的臉製作假的色情影片牟利。不過在韓國,這種犯罪手法又更加常見。
大規模的Deep Fake性犯罪
據韓國媒體報導,通訊軟體Telegram有個22萬多人的聊天群組,裡面專門分享經過Deep Fake處理的女性偷拍照片,受害者包含大學生、老師和軍人。可怕的事,大多數的加害者都是青少年,他們會利用IG等社交平台下載受害者的照片加以後製再分享;甚至是用老師的照片後製,絲毫沒有認知到自己的行為是犯法的。
而且這類型的犯罪也延伸到現實生活,許多偷拍的影片還附上受害者的基本資料,如學校名稱、居住地。有網友整理了受害者學校列表,其中就包含了477所小學、國中、高中。
連女藝人也遭殃
大規模的受害者不侷限一般人,常出現在螢光幕前、經過精心包裝的女藝人也受害,有網友發現某色情網站上出現多部經過換臉後製的「女偶像」色情片,如BLACKPINK、TWICE......等等大勢女團成員都出現。
延伸閱讀:網紅CEO「夏筠婷」性愛影片外流?疑遭AI換臉,霸氣提告為受害者發聲:會害死一個女生
為什麼韓國性犯罪猖獗?
許多專家認為,韓國性犯罪氾濫的原因還是因為兩性不夠平等、也不夠尊重女性,韓國警政機關大多數是男性,他們不夠認真、嚴肅的看待這些犯罪行為,求助的女性也常在報警後被忽視、被責備,遭受二次傷害;就連學校也沒有提供足夠的性教育、兩性觀念。在種種輕忽、不平等的觀念下,韓國對女性的性別傷害日益擴大。