AI换脸、隐身攻击、破解人脸解锁...AI安全到底有多可怕?
时间:2019-08-27 09:08 来源:网络整理 作者:采集插件 点击:次
人工智能发展到当下阶段,对于伦理和安全的思考已经逐渐从幕后走向台前。
2019年5月22日,经济合作与发展组织(OCED)批准了《负责任地管理可信赖AI的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展及福祉,以人为本的价值观及公平性,透明度和可解释性,稳健性、安全性和保障性,问责制。 其中更为显性的安全问题,在“换脸”风波、人脸信息泄漏等一系列事件的曝光下,为人工智能技术的应用前景蒙上了一层阴影,提高人工智能技术的安全性与可靠性迫在眉睫。 Deepfake的世界里,眼见不再为实 Deepfake将人工智能话题推上了舆论的风口。
图:演员Jordan Peele模仿奥巴马声音制作的虚假演讲视频 利用Deepfake造假技术,艾玛·沃森等一众欧美女明星被“换脸”在了不可描述的小电影上,混迹政坛的大佬虚假演讲“互相攻讦”,一时轰动全网。 作为国内首家致力于推广安全、可靠、可解释第三代人工智能的研究团队,RealAI表示,目前AI换脸的技术难度正大幅降低,团队成功将近期人气火热的雷佳音换脸成著名相声演员郭德纲,整个过程仅花费数小时。
图:雷佳音(左)换脸郭德纲(右) 现今,基于人脸的信息传递已经成为人类社会沟通的主要媒介之一,比如社交平台的照片、网络上的演讲和表演视频。 换脸技术的出现则极大地影响公众对图片和视频的解读,比如谁该为这段言论负责,以及这段言论的可信度有多大,甚至可能沦为色情复仇的工具、扰乱政界的武器,导致前所未有的社会影响。 目前Deepfake主要以公众人物为受害目标,但随着AI技术的飞速发展,可能在不远的将来,普通民众也会被波及。 为了保证AI应用的安全性,目前RealAI团队研发出“反AI变脸检测”工具,专用于检测AI换脸造假技术。
图:RealAI“反AI变脸检测”技术 ,绿框为正常视频帧,红框为检测出的造假视频帧 RealAI研究人员表示,Deepfake生成的造假视频画面会有不“自然”的纹理存在。为此,他们通过海量视频训练神经网络,让其学习正常情况中的纹理特征,再以此检测造假视频中不一致的纹理。利用该技术,可以对造假视频实现逐帧检测,准确率高达90%以上。 据媒体报道,目前已经出现犯罪团伙利用AI换脸进行诈骗,希望“反AI变脸检测”技术可以遏制此类恶性事件的发生,不要让病态化的“换脸”趋势愈演愈烈。 “隐身衣”成为可能,犯罪行为“有处遁形” 如果说,“换脸”是技术滥用引发的社会安全威胁,那还有另一个不容忽视的问题:AI算法本身也不够安全。 比如,深度神经网络(CNN)存在的大量的安全盲点,可以被特定构造的输入样本欺骗。在原始图片上增加人眼看上去无关紧要的噪声,可以恶意地误导AI系统输出非预期的结果。
图:一张贴纸“骗”过AI摄像头 来自比利时鲁汶大学 (KU Leuven) 研究人员曾在身上贴一张打印出来的贴纸,就成功“欺骗”AI,让检测系统无法看到自己,如同穿了哈利波特中的“隐身斗篷”。 目前,RealAI团队也成功开展类似的“隐身”研究,在3D车辆模型的车身上贴上特制的“纸片”,使得模型成功逃逸识别。从具体效果来看,该“隐身”可在高度运动、光线变化等复杂环境中保持较高的鲁棒性,技术优势明显。
图:3D车辆模型“隐身”试验
图:远距离、近距离、稳定、动态拍摄下的“隐身”效果 如上图所示,试验中最右车辆未加噪音处理,最左车辆车身添加了白噪音,中间的车辆车身添加了RealAI基于对抗样本特制的噪音图像。 (责任编辑:admin) |






