人脸识别+空间定位 杀手机器人真的很可怕
- 来源:镁客网
- 2017/11/23 10:24:0244894
神秘的杀手机器人军备竞赛已经开始
杀手机器人,专业名称为“致命性自主机器人”。初是由美国提出和开始研发的一种能够代替士兵的智能机器人。
随着计算机控制和人工智能等技术的发展,这种杀手机器人由开始的人类远程操控,发展至由计算机软件和传感器装置控制,到如今可以全自动执行识别敌人、判断敌情和杀死敌人等任务。
现在,除了美国,韩国、俄罗斯、英国、德国、加拿大、日本等国都已相继推出各自的机器人战士,各国已经开始了杀手机器人研发的军备赛。但研发进度一直是未知的状态。
另一方面,为了限制或禁止在武装冲突中使用特定类型的武器,1980年,有51个国家在日内瓦讨论了《特定常规武器公约》(CCW),旨在停止使用被认为是具有过度不人道或滥杀滥伤作用的某些类型武器。
随后该条约于1983年12月生效,截至2017年8月,共有120个条约缔约国,其中包括中国。2014年,缔约国就“致命性自主武器系统”(杀手机器人)所引发的法律、道德与社会问题展开了探讨。至此,杀手机器人被正式带入到公众的视野和话题中。
本月13-17日的联合国特定常规武器公约会议上,CCW正式将“杀人”的机器人产品公之于众。这一会议由“杀手机器人禁令运动”(Campaign to Stop Killer Robots)组织,超过七十个国家的代表出席。
据了解,此前,因为人工智能技术尚未成熟,杀手机器人不能准确定位目标,以此会导致误伤士兵等问题,因此迟迟没有被推出,亦不被重视。现在加持人脸识别等AI技术,且随着产品成本的逐渐降低,杀手机器人的问题便开始迫在眉睫。接下来,我们先来了解一下会议中用来演示的这款产品。
面部识别的“新应用”:快速、!
会议中的这款Stinger小型机器人,是一种小型无人机,它出自一家名为stratoenergetics的科技公司,该公司致力于为国防等部门制造替代士兵和人类的智能武器。
Stinger是该公司个大规模生产的小型武器,它搭配有广角镜头、战术传感器、面部识别技术和反应比人类快100倍的处理器,因此是全自动的。该无人机内部装载了3g的炸药,以用于杀死目标对象,并且它的运动模式是随机运动,这是特别为反狙击手而设置的功能。
值得指出的是,Stinger大部分的功能实现取决于其搭载的系统,这款系统就是该公司研发的anti-Personnel Systems (APS),它应用于该公司所有的产品。
该APS系统采用了一系列的AI技术以实现特定的功能:
避障:每个APS中的神经网络已经在不同的模拟环境中以相当于数百万小时的速度进行了训练,以此保证可以的避开障碍物,即便在运动中也可以达到高精度;
随机动作:训练成千上万的蚊子和其他飞行昆虫的视频内容,让无人机实现随机飞行的运动模式;
的弹药:通过瞄准,无人机可以把抛射体和推进剂的大小驱动到低限度;
面部识别:它会统一目标对象的iPhone、APS以及平行网络中所有的信息,通过步态、性别、甚至种族等特征来识别目标;
多个自定位协议:搭载GPS和各种空间技术,APS可以协助无人机在空间中定位目标。
Incommonicado和EMP硬化:一旦搭载APS的武器处于飞行状态,就没有办法通过干扰、防空、换频段或其他任何方式来阻止它的电磁信号;
大数据链接:该公司通过获得并整合大量的数据集。用户在使用其服务器时,服务器可以将用户的各种特征联系起来,以便使用中的定位。
由此,不同于传统的“杀手机器人”,Stinger结合了面部识别、多种空间定位技术和大数据来实现对目标对象的定位,极大减小了误伤误杀的可能性。但同时这也预示着“杀手机器人”像武器一样,开始真正为人们所用,给大家的安全造成威胁。
不可避免的事实:禁止杀手武器是根本做不到
2014年,在《特定常规武器公约》缔约国专家会议中的开幕式致辞中,联合国日内瓦办事处代理总干事迈克尔·穆勒表示:“本次专家会议是朝着解决‘致命性自主武器系统’问题迈出的步,我恳请各位代表采取大胆的行动。”
随后,在今年的人工智能联合会议的开幕致辞上,以Elon Musk与 DeepMind 联合创始人 Mustafa Suleyman 所牵头的来自 26 个国家的 116 名专家正式向联合国发表公开信,呼吁采取相关的措施来制止围绕“智能武器”而展开的军备竞赛。
此外,他们还表示,可能的话,还应该将这类武器纳入联合国的特定常规武器公约(CCW)的武器禁用名单。于是,在今年的CCW会议上,超过200名来自学界和业界的加拿大科学家和100名澳大利亚科学家联名写了公开信给本国总理,呼吁通过限制相关研究。
对此,机器人武装控制委员会的Noel Sharkey表示:“杀手机器人禁令运动并非要限制人工智能和机器人的相关创新,或者军用民用的自动系统,相反,我们希望确保人类对于每次攻击的控制权。”
对于这一问题,国防大学教授、海军少将张召忠也明确表示:“现在这种机器人在战场上作战,如果是占到10%的话,那么10年以后应该是30%,那么20年之后应该是40%,会急速的增长,你限制是没有用的。机器人武器会大幅发展,因为它省钱,不用人上战场,人在这个非常舒服的地方,吹着空调看着大屏幕,前面的机器人就在那拼杀,真的人一个死不了。这机器人被炸坏了,炸坏了再生产,机器人的战争将来变得越来越多,所以说,这个靠法规条例限制是没有用的。”
科技是我们的“盔甲”
视频后,伯克利大学教授、资深AI研究者Stuart Russell给出提醒:尽管这段视频和其中的杀手机器人并非真实,但视频中的科技目前已经存在。要避免视频中的悲剧发生,我们需要尽快行动。
值得指出的是,这里的“行动”不仅仅指通过条约或准则,还包括广大的研究学者通过自己的技术来对产品进行破解和保护。正如新南威尔士洲大学的AI教授Toby Walsh所说:“学术界已经明确表达了自己的观点,自动武器很容易被*利用,我们需要在这一噩梦出现之前有所作为。”(原标题:这个AI杀手真的很冷!人脸识别+空间定位即可所有人)