今天看啥  ›  专栏  ›  把科学带回家

脸被人偷走,用来造谣和报复?AI假照片是新的霸凌手段,但还要靠AI解决问题……

把科学带回家  · 公众号  · 互联网安全 科技自媒体  · 2024-09-19 06:00

主要观点总结

本文讲述了Deepfakes技术的出现引发的隐私泄露和虚假照片问题,及其对社会尤其是对青少年和儿童的影响。文中提到了AI打假工具的出现以及各大互联网平台对抗Deepfakes的措施。

关键观点总结

关键观点1: Deepfakes技术的普及带来的问题

Deepfakes技术制作出的虚假图像、视频或音频越来越逼真,引发了隐私泄露和虚假照片问题,对社会造成威胁,尤其针对青少年和儿童。

关键观点2: AI打假工具的出现

为了对抗Deepfakes技术,中国科学院自动化所的研究团队VisionRush宣布开源AI打假工具,该工具可以辨别真实照片和deepfake照片之间的细微差别。

关键观点3: 互联网平台对抗Deepfakes的措施

为了对抗Deepfakes问题,互联网巨头微软Bing宣布和StopNCII合作,帮助deepfake受害者。StopNCII是一个帮助受害者保护自己的免费数据库,可以通过搜索独特的“数字指纹”来删除假照片。


文章预览

撰文 | Skin 审校|Ziv 西班牙的米丽亚姆·阿迪布的女儿今年14岁,有一天,女儿告诉她自己被“霸凌”了,她拿出手机, 向阿迪布展示了一张不属于自己,但却有自己的脸的露骨照片 。 作为妇科医生的阿迪布提到,若不是她足够了解女儿的身体,真的会以为这张照片是真的。而这张以假乱真的照片已经在当地的社交媒体群组里不断传播。 自己的脸忽然出现在其他“身体”上,但看起来像是真的?|图源网络 近一个月,相同的事情也发生在英国和韩国。韩国女孩Heejin(化名)在社交媒体上发现, 她居然有一个专属于自己的“聊天室”,在里面,许多张她几年前拍的,还是学生时的照片上的脸,被放在不属于自己的假的露骨照片上。 Deepfakes是一个近些年来才出现的词,它由“深度学习(deep learning)”和“虚假(fake)”两个词合成,顾名思义,就是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览