智慧城市网

登录

“AI换脸”愈演愈烈 如何才能安心享受技术红利?

来源:智安物联网 作者:缙霄
2019/6/28 8:46:5235378
  【安防展览网 时事聚焦】就在6月27日早上,据美国科技媒体Motherboard报道,一名程序员近开发出一款名叫DeepNude的应用,只要给DeepNude一张女性照片,借助神经网络技术,App可以自动“脱掉”女性身上的衣服,显示出裸体。
 
  经联系DeepNude的创建者,此人化名为“阿尔贝托”(Alberto)。他表示,该软件基于加州大学伯克利分校研究者开发的开源算法pix2pix创建,并使用1万张女性裸图加以训练。这一算法可以视为与之前的人工智能换脸技术deepfake的变种,也和无人车技术所使用的算法相似。
 
  DeepNude已上线,照片可在处理,可下载的Windows和Linux应用也在6月23日推出,使用者无需专业知识。这款应用有免费版和50美元付费版。使用免费版获得的图片会出现较大水印,付费版虽然没有免费版出现的水印,但会在图片左上角加上“FAKE”(虚假)的印章式标注。
 
  用几十张照片测试,发现如果输入《体育画报泳装特辑》(Sports Illustrated Swimsuit)的照片,得到的裸体照片为逼真。虽然这一技术还有缺点,多数照片(尤其是低分辨率照片)经过DeepNude处理后,得出的图像会有人工痕迹;而输入卡通人物照片,得出的图像是完全扭曲的。
 
  但因为之前就有deepfake在网络上流传,但这种技术很容易就会成为伤害女性的工具——要么在未经同意的前提下使用女性照片,要么在网上恶意散布色情内容。而DeepNude相当于deepfake技术的进化版,操作更简单,处理速度更快。
 
  为了应对这一类非法侵权现象,虽然我国早在4月20日,民法典人格权编草案二审稿提交十三届全国人大*会第十次会议审议。其中拟规定:任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。同时还规定,其他人格权的许可使用和自然人声音的保护,参照适用本章的有关规定。
 
  但目前缺乏相应的特殊规制,法律救济、行政处罚也无法律依据。在个人生物信息被滥用环节中,我国立法大部分都是空白的,或是缺乏一些可操作性的条款。
 
  无*偶,今日早间据美国《财富》网站报道,Facebook正在制定一项监管政策,对“换脸”(deepfake)视频加以规范。防止用户采用人工智能(AI)深度合成技术篡改过视频内容,以达到传播错误信息的目的。
 
  在AI技术对人类隐私侵犯愈演愈烈的当下,我当们如何处理?
 
  中消协曾表示,个人财产信息、个人生物识别信息属于个人敏感信息。个人敏感信息一旦泄露,将导致个人信息主体及收集、使用个人信息的组织和机构丧失对个人信息的控制能力,造成个人信息扩散范围和用途的不可控,可能对个人信息主体人身和财产带来重大风险。
 
  所以针对源头,我们应当尽量的让自己社交媒体上的照片数量减少,以防止自己的面部信息等一系列隐私信息被不法之人抓取。
 
  而针对隐私泄露的中间环节,则需要各个企业对自己的产品加强保护。在目前很多领域乃至许多居民小区都在大规模引进人脸识别技术的当下。它当然对于安防有很大助益,但也在客观上增加了个人信息泄露的可能性。一旦相关产品因加密技术差而导致储存信息被不法之徒盗取,后果也难以估量。
 
  后针对在发生隐私泄露后的情况,应当呼吁国家将个人生物信息权作为具有人格权属性的私权,明确纳入司法保护范围;明确个人生物信息在刑事侦查、治安管理、人口治理、医疗卫生等领域的非商业应用,以及政府和相关机构的责权利,特别是个人生物信息权保护边界;后制定相应的特殊规制,法律救济、行政处罚条例,让法律成为个人隐私的“保护伞”。
 
  结语
 
  AI技术的进步为人们的个人隐私安全来了挑战,但我们不能因噎废食,如何利用好AI技术以享受技术带来的红利,仍然是人工智能时代需要思考的课题。

上一篇:5G正值发展窗口期 上半年应用落地情况如何?

下一篇:透过情理法进行本质思考 如何以安防遏制高空抛物

相关资讯:

首页|导航|登录|关于本站|联系我们