tag 标签: deepnude

相关帖子
相关博文
  • 热度 21
    2019-8-6 15:53
    2122 次阅读|
    0 个评论
    Deepfake 自问世以来,一路向人性阴暗面直奔。民间技术已能将 AI 换脸教程玩得不亦乐乎,但每个人更容易成为受害者:假造绑架影片勒索诈骗,不雅影片损毁名誉,或恐怖影片造混乱,都因 Deepfake 开源技术变得空前容易。 ▲ 让名人换上小布希的脸部动作。(Source:影片截图) PS 摧毁大众对图片的信任后,Deepfake 也在摧毁大众对影片的信任。没有人想在网路看到自己的面孔说出没说过的话,许多针对个人的伤害,也因为影响不够大而投诉无门。 美国正在形成一支 Deepfake 纠察队,不仅是学校实验室、研究中心在找寻 Deepfake 的破绽,创业潮流也在兴起。 但这是一场造假 AI 与辨别 AI「你有张良计,我有过牆梯」的竞赛。每篇检讨 Deepfake 的论文,彷彿帮造假技术修补漏洞,进而更上一层楼。 ​关上 Deepfake 的潘多拉盒子,他们能做到吗? 以找出 Deepfake 创业 Shiva Kintali 离开担任讲师 4 年的普林斯顿大学电脑系,正在硅谷创业认证虚拟造影片,合作对象有警察、记者、保险公司等,透过机器学习找寻虚拟影片的破绽,用区块链纪录资讯等技术来辅助认证。 Kintali 的网站可上传影像、音讯、影片来分析检查是否有修改痕迹。他同时开发手机相机应用,用人工智慧为影像添加时间、地点浮水印,并将图片初始资讯印至区块链。一旦影像的资讯与原始图片不符,就容易判断真假。 这些产品希望帮助记者、媒体公司、政治竞选团体、执法机构(如 FBI、NSA),保险公司(假事故照片的保险索赔问题)和大公司(如 Facebook、Twitter、Redditt、PornHub),在平台阻止假影片、假音讯、照片传递。 由于 Deepfake 降低了影片造假的门槛。面对真假难辨的影像资料,记者不知道能否发表,保险公司不知是应该理赔还是警告诈骗,警察收集证据后,也需要专业工具鑑定图片和影片的真假。 目前流传的假影片大多是「浅度造假」,但因数量多,造成无数困扰。史丹佛研究人员向认证公司确认困扰他们的三大问题:数量太多、可用认证时间太短、缺乏标准化工具。 因此,研究者搜寻能大规模应用的检测方法。Facebook、Twitter 等社群网路爆炸式传递的图片和影像,留给验证真假的时间越来越短。大众也不可能雇用专业人士认证。 商用化的影像验证平台 Truepic 已上线智慧相机应用软体。用户将拍下的影像上传至伺服器,建立时身分验证照片和影片,获得唯一编码。相机应用撷取装置的感测器资料,在传送之前加密照片或影片,执行 20 多个影像取证测试,并在几秒钟内,将影像加密签名印至公用区块链,使资讯不可篡改。 这是一种「自证清白」的方式,适用电子商务平台和公民记者类用户。如果用户将图片传给接收者,Truepic 允许收件人验证影像的原点和资料的完整性。任何二次传递的多媒体材料,都可与区块链原始资讯对比,辨别真假。 在 Deepfake 的威胁下,鑑定图片影片的真实性,都成了相机应用的卖点。但这类以营利为目的的产品又引起用户的新担忧。毕竟,谁能确保 Truepic 也不作恶? 演算法打演算法 位于硅谷的 SRI International AI 中心则「以毒攻毒」,用假影片训练演算法,让演算法辨识虚拟痕迹。在人们上传影片到社交网站时,平台需要重新编码影片。这是个侦测假影片的好时机。 但随著 Deepfake 漏洞日渐最佳化,用演算法打演算法的难度也日益增加。 辨别 AI 原本就是训练造假 AI 的一部分,两者刚好在生成对抗性网路的两端。一个是建构程式,一个是认证程式,道高一尺,魔高一丈。 由于 Deepfake 的技术在于篡改资料,认证方则搜寻一切篡改资料的痕迹。一种方法是基于像素的影片侦测,影片其实是成千上万帧图片连放,细致到侦测每个像素的改变痕迹,是颇浩大的工程。 此外,假的脸部表情仍有缺陷。假脸部表情往往与其他部分不一致,电脑演算法可侦测图片或影片的不一致。 ▲ 加州大学柏克莱分校研究者比对真假人物的脸部差异。(Source:柏克莱分校) 举例来说,初代 Deepfake 影片的人物,眨眼方式都有点奇怪。 纽约州立大学奥尔巴尼分校电脑科学副教授 Siwei Lyu 曾撰文表示,成年人眨眼间隔为 2~10 秒,一次眨眼需要十分之一到十分之四秒。这是正常影片人物应有的眨眼频率,但很多 Deepfake 影片的人做不到。 由于缺乏闭眼影像资料,演算法的训练并不完美,影片人物面孔总有一种「哪裡不对」的不和谐感。 然而,透过闭眼的脸部影像、或使用影片串列训练,可改善眨眼间隔。假影片的品质总会提高,而研究人员需要继续找寻检测漏洞的方法。 南加大研究者 Wael Abd-Almageed 表示,社群网路可使用演算法大规模辨识 Deepfake。为了做到自动化,研究人员首先建立一个神经网路,「学习」人类说话时如何行动的重要特徵。然后,研究人员使用这些参数将假影片的堆迭帧输入 AI 模型,侦测随时间的不一致性。 普渡大学研究人员也採用类似方法,他们认为,随著训练模型的 Deepfake 资料量越来越大,模型也会更精确,更容易找出假影片。 美国 2020 年总统大选在即,如何阻止 Deepfake 从低俗娱乐发展到操纵民意,是研究者最迫切的动力之一。但愿一键辨假的速度,能追上一键换脸的速度。
  • 热度 4
    2019-6-28 21:28
    4450 次阅读|
    0 个评论
    【零基础】简单说说一键果体APP的AI
    参考: https://www.jianshu.com/p/8c7a7cb7198c https://blog.csdn.net/gdymind/article/details/82696481 零、前言   最近一个叫deepnude的软件火了,开发它的程序员声称这个软件可以一键“脱掉”照片中女性的衣服(因为AI训练素材的原因也只能是女性),deepnude推出了免费版和付费版,免费版中间有一个大大的水印基本啥都遮住了,付费版就只是在照片的左上角注明了“FAKE”。该软件一经推出就掀起了很大的舆论争议,最近该软件的开发者迫于压力关掉了网站和软件下载(改善生活的企图END)并表示该软件并没有使用很高深的技术,只是pix2pix算法的一种应用(基于大量学习)。这里我们就简单介绍下pix2pix这个AI框架,如果你对deepnude本身感兴趣的话可以关注公众号“零基础爱学习”回复“deepnude”获取更多信息。 一、逆图片识别   深度学习经过多年发展已经很容易实现AI的万物识别,以前调侃过的AI民工(数据标注员)主要工作就是对大量图片或数据进行标注,不断训练AI,达到的效果就是“看猫是猫”、“看狗是狗”。啥意思呢,简单来说就是给一张猫图能识别出这是个猫,给个狗图就知道是狗,推而广之就是人脸识别、车牌识别、场景识别等等、等等。   接着我们自然就会想到说,那能不能把这个过程反过来,给AI一个“猫”让它返回一个猫图呢?   很遗憾,不行!对于AI来说,知道是猫和画个猫其难度与人类学画画是一样一样的。 二、生成对抗网络GAN   为了教AI学会画猫,科学家们整出了GAN,GAN主要包含两个元素:G和D,G用来生成随机图片,D用来判断这个图片是否符合要求。比如使用G来不断生成随机图片,D判断图片是否是猫图。GD互相作用相互锻炼,如果D足够聪明的话,在一段时间的学习后G生成的图片就越来越像猫,最终就可以源源不断地生产猫图啦。   前段时间大火的猫图生成器使用的就是这么个原理(还有卡通头像、美女图片等),不过光生成随机图片还不过瘾啊,能不能生成用户需要的图片呢?比如站着的猫、躺着的猫、睡觉的猫? 三、成对训练pix2pix   GAN使用的方法是生成随机图片,然后判断是否是猫,这种模式的后果就是你得到的总是随机猫图。科学家们又想了个点子,能不能在判断之前先给出正确答案,让G生成的猫图越来越靠近我们需要的样子?于是就有了成对训练pix2pix。   这个算法的核心就是给出AB两个成对的图片来进行训练,如下图所示。对AI进行大量训练后,当我们给出一个X时,AI就能自动将X转化为Y。   理论上deepnude就在pix2pix的基础上对大量女性图片(X)和大量果体图片(Y)进行训练,最后达到的效果就是随机给出一个X,AI自动生成果体Y,当然具体操作上会比较复杂。 四、总结   这里只是对pix2pix做了个简单的介绍,后续还会继续补充更多学习资料,敬请关注“零基础爱学习”!如果你对deepnude本身感兴趣的话可以关注 公众号“ 零基础爱学习 ” 回复“deepnude”获取更多信息。