AI安全大牛都来了!智能安全的话题引发学术界
时间:2018-07-01 19:22 来源:网络整理 作者:墨客科技 点击:次
原标题:AI安全大牛都来了!智能安全的话题引发学术界/产业界共同聚焦 | CCF-GAIR 2018 雷锋网按:2018 全球人工智能与机器人峰会(CCF-GAIR)在深圳召开已进入第二天的议程,活动现场依旧火爆。本次峰会由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,得到了深圳市政府的大力指导,是国内人工智能和机器人学术界、工业界及投资界三大领域的顶级交流盛会,旨在打造国内人工智能领域最具实力的跨界交流合作平台。 根据大会安排,6月30日迎来了仿生机器人专场,机器人行业应用专场,计算机视觉专场,智能安全专场,金融科技专场等专场。作为主论坛的研究方向的延伸,“智能安全专场”则汇聚来自广州大学、浙江大学的专家学者,同时来自百度、阿里巴巴、腾讯、京东、海康威视的安全大牛,共同探讨人工智能领域里的安全问题,同时就安全研究能否深入进人工智能领域等话题带来了企业的最新观点与研究成果。 9:15分,会场高朋满座,专场开场。专场主席暨主持人是来自广州大学网络空间先进技术研究院院长、教授、博导的田志宏先生。 广州大学网络空间先进技术研究院院长、教授、博导的田志宏先生 他首先代表峰会主办方对与会人员的到来表示了感谢和欢迎,同时表示智能安全已日益受到人们的关注,与AI、IoT、云计算等等多个层面结合越来越紧密,因而“智能安全专场”是个很好的契机,安全行业内的领军人物可以一起共同探讨智能安全未来的发展方向。随着开场致辞结束,专场正式进入演讲部分。 一份重磅专场报告:《数据安全的现状与趋势》 开场演讲的是来自浙江大学网络空间安全研究中心主任、国家千人计划特聘教授、IEEE Fellow任奎教授,他做了《数据安全的现状与趋势》的大会重磅报告,他是研究型学者,因此他的报告让专场具备了更多学术气息。他主要从大数据和人工智能之间的契合点来谈个人研究的经验与成果。他指出,数据安全的问题存在于数据的整个生命周期,从数据采集、流转、传输到数据使用,通常情况下他更关注的是数据的机密性、数据的完整性、数据的可用性。 浙江大学网络空间安全研究中心主任、国家千人计划特聘教授、IEEE Fellow任奎教授 机密性方面,互联网企业尤其是大公司数据泄露事件一直发生,而且发生得越来越厉害,他列举了美国Equifax用户数据泄露和德国邮政出售选民信息的案例。他认为数据有可能被直接泄露,也有可能被做进一步隐私的挖掘。任奎谈到3个技术:数据加密技术、访问控制策略技术、隐私保护技术。数据加密技术上,学术界慢慢看到工业界的现实和需求,成果在进行迁移;访问控制策略技术上,很多基于生物特征的访问控制策略(指纹、脸部识别等)飞速发展,包括从密码学的属性里面基于属性、角色的访问控制策略越来越成熟;隐私保护技术上,在过去十几年里面,一项最重要的项目就是差分隐私保护。 数据完整性方面,任何不被授权的对数据的改动都是不被允许的,都会影响数据的完整性。对数据篡改来说,人们会使用传统的技术手段,比如数据采集和传输时可以用数据分装和签名,传输时有一些丢包恢复的机制,即便有一些包被丢掉,不用同传也可以有本地数据,数据审计在数据使用的时候可以通过可验证计算等等手段来进行保护。 数据可用性方面,防DDos攻击主要技术就是本地防护、云端防护和源端防护,大家都在做这些事情,尽量把这些攻击带来的坏影响控制在最低范围内。这其中就涉及流量清洗,涉及IP合法性检查、流量限速、动态指纹识别、特定应用防护等等。 人工智能时代到底是更好还是更坏? 人工智能的时代,数据安全也面临了很多新的挑战。从数据安全来说,人工智能时代到底是更好还是更坏?他谈及三点: ·人工智能的发展使数据安全保障有了更强有力的工具:精确高效的信息过滤、安全多样的身份认证。 ·人工智能生成新的加密算法:很多新型的安全形态会出现,可以用产生的算法来对数据进行加密。 ·人工智能不只是好处:AI算法被用来去挖掘用户的隐私且带来的负面的效应也非常之大,还可以用来生成以假乱真的音频和视频, 还有大大失效的CAPTCHA检测。 AI自身数据安全的问题方面,任奎认为有三类: ·训练数据安全:训练数据获取成本极高,数据较为敏感,容易被窃取。 ·模型参数安全:模型的价值都在参数,被轻易拿走,会使巨大损失。 (责任编辑:admin) |