加强人工智能安全风险防控 需聚焦技术融合、法律规制
- 来源:智能制造网
- 2020/12/30 9:26:2634768
【安防展览网 企业关注】 人工智能作为新一轮科技革命和产业变革的战略性技术,俨然已经成为世界主要国家推动科技跨越式发展、实现产业优化升级、赢得竞争主动权的重要战略抓手。
近年来,越来越多国家出台政策扶持人工智能产业发展。欧盟今年2月发布《人工智能白皮书》,力促人工智能产业发展。在过去3年里,欧盟用于人工智能研究和创新的资金增至15亿欧元,同比增长70%;2018年5月,法国出台“法国人工智能战略”,从政策层面力促研究机构将人工智能研发成果商业化。法国政府计划在2022年底前投入15亿欧元用于人工智能产业发展。
随着人工智能规模化建设和应用加速,人工智能基础设施、设计研发、融合应用面临的安全风险日益凸显。对此,世界主要国家纷纷通过制定人工智能伦理准则、完善法律法规和行业管理等方式,开展人工智能安全治理。其中,人工智能安全技术体系作为人工智能安全治理的重要组成部分,是落实人工智能伦理规范和法律监管要求的重要支撑,是人工智能产业健康有序发展的重要保障。
我国对人工智能产业的发展高度重视,制定和实施了人工智能发展国家战略,从国家层面对人工智能发展进行了统筹规划和顶层设计。近日,国家“十四五”规划建议正式发布,建议就明确提出,要强化国家战略科技力量,瞄准人工智能等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目。
有业内人士表示,人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展阻碍在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范拉起防护网。
构建统一的人工智能硬件、软件、算法的安全评估标准和准则,并开发相关系统,用于检测和确定人工智能相关系统的整体安全,不失为一种可行性途径。在开源框架和软件方面,更需要加紧平台之间的对接与体系化。
在人脸识别、自动驾驶、语音合成、服务机器人等应用进展较快领域,支持地方开展立法试点,为国家层面的立法积累实践经验,也是加强人工智能应用法律治理的一种举措。实际上,人工智能法规的合理制定,既是法律前沿的难题,更是人工智能技术亟待深究的重大课题,它们可能是人类遇到的较为艰深的法律创设。
近期,一份有关人工智能的报告《2020-2021中国人工智能计算力发展评估报告》发布。报告预测,到2024年中国在人工智能市场的占比将达到15.6%,成为人工智能产业增长的重要驱动力和中坚力量。当前乃至今后一段时间,抢占人工智能话语权迫在眉睫,加强对于人工智能应用的引导、监管、治理,也将成为人工智能产业是否能够实现健康发展的关键。
以人工智能为的新技术浪潮,不是一般的技术升级,也不是一个领域变革,而是一场波及社会各领域的重大革命。每个置身其中的人,都将成为人工智能技术升级的见证者甚至是受益者。主动了解人工智能技术的发展动态,将有助于自己更好的适应智能化产品和服务。