ramy  2018-07-08 15:04:08  金融科技 |   查看评论   

【 CCF-GAIR 2018 】 BATJ 同台畅谈AI时代如何保障网络信息安全

▲来自百度、阿里巴巴、腾讯、京东、海康威视的信息安全专业人士同台探讨人工智能领域里的信息安全保障问题。

 

百度:AIoT时代的安全

 

首先登场的是百度 AI 安全技术总监聂科峰,他一开始便谈到, AI 技术正加速 IoT 发展,目前整个社会逐步进入 AIoT 时代。作为百度的安全团队,他一直在跟 AI 一起努力开拓这个市场。 AIoT 概念由来已久,但没有得到足够的发展,近两年 AI 的赋能开始,周边很多的设备开始智能化。

【 CCF-GAIR 2018 】 BATJ 同台畅谈 AI 时代如何保障网络信息安全(上)

▲百度 AI 安全技术总监聂科峰。

 

一、传感器。传感器是未来整个智能化设备最核心的点,基于纳米微电子技术的发展,可以把数字处理做在非常小的机器上,所以它是廉价化、微小化,使得传感器大量可行,成为 AIoT 发展的非常重要的因素。

 

二、芯片。 CPU 的特点是处理逻辑非常强,但在运算上有非常天然的弱势。友达做了非常重要的贡献——把 GPU 大规模的应用,在现性大数据处理方面发挥了非常强大的作用。现在在所有基于 AI 技术应用上,为百度大数据的处理提供了基础。

 

三、带宽。 5G 速率为未来的时代提供了更加高速的传输,加上数据流量成本的下降,很多人都可以去接受的阶段。

 

四、深度学习的 AI 。 Google 、百度也有一些深度学习的框架—这加深了 AI 的处理。

 

五、云端和边缘计算。云端和边缘计算的发展为整个 AI 的角色处理提供了非常成熟的基础。

 

聂科峰进一步谈到,进入到 AIoT 时代以后,它确实跟原来的时代很不一样,这个不一样体现在它的安全上面要求会更高:一、 AIoT 本身的安全技术非常薄弱,生态里面目前从硬件到系统、到软件甚至到设备厂商,是分工非常明确但非常不标准化,所以它的安全问题现在是没有得到解决;二、 AI 基于传感器数据的采集到传输到处理,又引发了非常大的新的问题(个人隐私盗窃、泄密等);三、系统性的安全风险。 AIoT 领域没有人关注这个问题,但是它持续存在,每年有大量的漏洞曝出来,包括可能一些更小的实时操作系统都是潜在的风险。

 

他尤其强调的是「其实在行业界有一个共识,就是对于深度学习的模型,对工程师完全是黑盒,他完全不知道深度学习和机器学习的算法如何一步步推导出最终的结果,所以这个结果是充满了不确定性和不可控制性。这样的不可控制性会是我们整个 AI 未来应用的风险点所在」。

 

「数据是最重要的防线,对数据是最坚固的防线,这条防线上百度一定要从各个维度来保持好这条防线」,聂科峰指出, AI 的安全这块他们要求很简单—就是稳健

 

此外,聂科峰还谈及设备安全和漏洞修复问题,他表示,从云端管理端到 AI ,百度安全将保护百度在整个 AI 生态上的茁壮成长,同时百度提供了基于对抗训练的平台,大家可以尝试使用。

 

阿里巴巴:像呵护孩子一样呵护 AI 系统

 

紧接着,阿里巴巴集团安全部资深总监路全则带来了《智能化攻防——机器学习在阿里巴巴网络安全的应用》的演讲。他指出,他的演讲围绕安全为智能,而不是智能为安全。

【 CCF-GAIR 2018 】 BATJ 同台畅谈 AI 时代如何保障网络信息安全(上)

▲阿里巴巴集团安全部资深总监路全。

 

他以攻击智能汽车为例,详细介绍了典型的智能安全体该如何构成。他指出,改变交通标志、黑客入侵系统、数据植入云端让数据中毒都可以实现对智能汽车的攻击,而当前作为掌握海量大数据的阿里巴巴来说,面临的挑战还比智能汽车安全更为复杂。目前,数据污染或数据中毒的案例不胜枚举,而阿瑞安全除了在传统网络建立安全的防御体系,防御黑客入侵和渗透,还要建立一张网防止数据中毒和数据污染。在阿里看来,机器流量是万恶之源(爬虫爬取信息、商家信息泄露、搜索排序刷单等)。

 

路全接下来介绍了阿里在机器流量防空体系三个方面:

 

一、检测模块。如果把整个智能系统比作一个人,检测模块就是眼睛,没有眼睛很多事情是做不了。

 

二、分类模型。分类模型是机器学习的一种,是在工业界最常用的模型,如果机器学习比作有机体,分类模型就是大脑。

 

三、辅助系统。反馈控制研究已经很透,但其实在实际系统中,反馈控制往往能起到和机器学习模型迭加组合起来能起到好效果。在传统的OR领域,运筹学和信息系统结合也能产生很好的效果。

 

「在阿里有一句话,『我们要像治理酒驾一样去打击假货』。现在还要加上一句,因为我们不光要像治理酒驾一样去打击假货,我们还要『像呵护我们的孩子一样去呵护 AI 系统』,因为它是数据驱动,你教它什么,给它什么数据,就会出现什么行为」。演讲最后,路全如此说道,他觉得对 AI 的保护迫在眉睫,智能体遭遇数据中毒或数据污染是他们非常不愿意看到的一面,他们正为此而努力。

 

腾讯安全: AI + 安全=?

【 CCF-GAIR 2018 】 BATJ 同台畅谈 AI 时代如何保障网络信息安全(上)

▲腾讯安全平台部总监胡珀。

 

腾讯安全平台部总监胡珀是 AI 安全领域的年轻专家,他最为关心的就是 AI 本身的安全问题,他认为,这可以归为以下三类:

 

一、 AI 算法自身的安全问题。图像识别、图像欺骗等会导致自动驾驶出问题,Google 也做了一些研究,如果模型文件被黑客控制恶意修改,并且给它学习,会产生完全不一样的结果。

 

二、 AI 系统引入第三方的组件。这些组件也会存在问题,包括对文件、网络协议、各种外部输入协议的处理都会出问题。被黑客利用,带来的是灾难性的毁灭,所以现在产业界学术界都非常关注 AI 的这个方面。

 

三、坏人也会用到 AI 。不要以为 AI 只是停留在学术界或者是工业界,其实现在黑心产业也大量在使用 AI。

 

胡珀接着从人机对话、人脸识别、在线 AI 、智能音箱窃听、智能城市协议、智能设备劫持、摄影机入侵、手机解锁等角度用实际案例详细解释了 AI 的安全的问题。

 

AI 安全应用到安全场景,可能带来一些实战。大概沿着这些方向:第一是会向传统的生物特征转变,第二是研究工具有变化,特征工程对抗转入机器学习的方法,可能用机器学习建一个域值和模型,通过模型来看是否是黑客攻击。在腾讯看来,引入机器学习的实际效果是应用在两个层面,即 DDoS 与黑客的入侵行为,为了防止机器误报,腾讯采用双引擎在跑。

 

演讲结束时,胡珀总结到,机器学习方法应用到传统的安全场景,在某些特定场景下, AI 绝对是优于人类或者传统的特征工程,但可能在某些场景业内还需要继续探索。

  
 

除特别注明外,本站所有文章均为 人工智能学习网 原创,转载请注明出处来自【 CCF-GAIR 2018 】 BATJ 同台畅谈AI时代如何保障网络信息安全

留言与评论(共有 0 条评论)
   
验证码: