智慧城市网

登录

人脸识别是AI技术落地的滥用?

来源:人工智能实验室
2021/1/7 10:24:5734064
  【安防展览网 企业关注】疫情后,“AI+”成为时代主旋律。然而,在隐秘的角落,由AI所引发的安全风险和“黑灰产”问题正与日俱增。尤其是人脸识别,作为AI技术落地广泛的场景之一,所面临的安全、伦理和道德等挑战愈发严峻。
 
  经过近些年的快速发展,人脸识别已和智能硬件解锁、支付,以及公共服务等身份验证直接绑定在一起。因面部信息的性,以及作为个人隐私中敏感、重要的组成部分,一旦出现问题,将会对个人隐私、公共安全造成巨大威胁,故对技术的安全要求和标准相对更高。
 
  2017年,一位名为deepfakes的网友将电影中演员的脸替换成好莱坞女星,并将合成视频在Reddit网站上发布,引发热议,遭到大众对技术滥用的质疑。这也为AI“换脸”技术吸引了一波关注,DeepFake(深度伪造或深度合成)就此成为该技术的代名词,同名算法也在Github上开源,导致合成视频片段大量涌现。
 
  无*偶,2019年国内AI换脸工具“ZAO-逢脸造戏”APP。上传一张照片,就能把诸多明星塑造的角色换成自己的脸,漫威系列的“绯红女巫”,《泰坦尼克号》中小李子扮演的“杰克”,或是《喜剧》里的“柳飘飘”。
 
  只需几秒,便可跨越AI换脸的高难技术门槛,实现和偶像互动飙戏的美梦,如APP宣传语所说,“只需一张照片,出演天下好戏”,很难不让人心动。
 
  DeepFake技术滥用,引发担忧,也为人脸识别技术的应用推广带来了巨大风险。据称,2019年底,硅谷人工智能公司Kneron曾使用DeepFake技术成功欺骗了支付宝和微信支付,并且顺利通过机尝火车站等自助终端检验!
 
  为此,各国纷纷加强了监管措施,譬如,美国政府公布了《禁止恶意深度伪造法案》、《2019年深度伪造责任法案》、《2019年深度伪造报告法案》,旨在通过限制DeepFake合成技术,打击虚假信息的传播。
 
  不过,凡事都有两面性。尽管早期的Deepfake以*搞、炫技为主要目的,但发展着发展着,就被别有用心的群体盯上,以假乱真地制作名人视频,引发误会。
 
  对此,微软出手打造了视频鉴真工具,可以让经由Deepfake处理的伪造视频原形毕露。鉴真工具可进行逐帧分析,以验证图像有无存在篡改。工具中基于Azure的组件还允许视频创作者对图像添加数字散列和证书。随着AI算法的精进,工具不可避免地要被淘汰。
 
  技术是中立的,也是双向发展的,不会因为惧怕风险而停滞不前。对深度伪造的内容不能一竿子打死,很多深度伪造的合成媒体内容具有存在的正当性,而对影响国家安全、公共安全、政治的虚假信息才需要加强监管和规制。
 
  我们应当正确看待深度伪造的功能,监督引导其正确规范使用,而深度伪造只是人工智能的其中很小的一个分支,不能代表人工智能,而深度伪造使用者是人,其本身是无对错。对于愈加复杂的信息网络,闭门造车,自扫门前雪的方式显然是不经济的,引导AI对抗技术的商业化落地,是加强网络安全的重要途径之一,也是促进AI技术应用和推广的安全保障。

上一篇:智慧交通迈出5G时代“第一步”

下一篇:关于2021年智能锁行业的八大预言

相关资讯:

首页|导航|登录|关于本站|联系我们