腾讯发布预警:谷歌AI学习系统存严重安全漏洞
- 来源:太平洋电脑网
- 2017/12/21 11:29:4836928
【中国安防展览网 媒体导读】 近日腾讯安全平台部预研团队发现谷歌人工智能学习系统TensorFlow存在严重安全风险,可被黑客利用带来安全威胁,团队已向谷歌报告这一风险并获得致谢,其负责人称,考虑到TensorFlow在AI的广泛使用,TensorFlow将会像大多数重要软件一样在网站创建安全公告页面,及时披露和修复安全漏洞。
目前,Google的TensorFlow作为开源框架被互联网广泛使用,据介绍,谷歌、ebay、airbnb、twitter、uber、小米、中兴等公司均有使用。在TensorFlow中,AI研究者可以复用他人建好的模型来进行AI训练,或直接提供AI服务,大大提高开发效率。
据了解,这些公开的模型通常以文件形式提供,也普遍被认为是无害的。但腾讯安全平台部预研团队发现,攻击者可以生成Tensorflow的恶意模型文件,对AI研究者进行攻击,对受害者自身的AI应用进行窃取或篡改、破坏。
该风险危害面非常大,一方面攻击成本低,普通攻击者即可实施攻击;另一方面迷惑性强,大部分AI研究者可能毫无防备;同时因为利用了TensorFlow自身的机制,其在PC端和移动端的新版本均会受到影响。AI模型被窃取,损失的是的心血;而一旦被篡改,造成AI失控,后果更难以想象。
此前,AI已有不少实际应用案例,例如深圳试运行的无人驾驶公交、会议的AI同声传译;未来更会渗透到社会的方方面面:交通、医疗、安防、金融……在不远的未来,AI安全会直接影响人们的生命财产安全,甚至整个世界的秩序。如电影《复仇者联盟:奥创世纪》那样,人工智能奥创为人们的生活提供了无数便利,但当他站到人类的对立面时,也会带来无数灾难甚至毁灭。
据悉,腾讯安全平台部安全预研团队已就此次发现的安全风险向谷歌提交报告,协助风险早日收敛。