文章预览
导读 近日,韩国社会深陷于“deepfake”带来的性犯罪阴影。“deepfake”即深度伪造,意指利用他人照片和视频制作非法内容。其最常见的方式就是AI换脸技术,此外还包括人脸合成、视频生成等。 韩国警方发现大量用户在社交媒体群组中传播利用该技术换脸合成的色情照片和视频,参与用户多达22万人,其中受害者80%为女性(约30%受害者为未成年人,受害者学校分布图如下),犯罪活动已经在初高中生等未成年人、大学生、教师和士兵等群体中蔓延。 在此过程中,若新用户想加入群组,需自行提供新的女性照片供加害者生成更多新的视频。 另外,加害者还会公布受害女性的身份,威胁受害者,索要钱财。 韩联社指出,虽然韩国现行法律对“deepfake”性犯罪已有明确处罚规定,但由于“deepfake”性犯罪视频的主要传播途径为服务器在海外的群组,因
………………………………