智慧城市网

登录

AIGC爆火的背后 《办法》打造可信AI护城河

来源:CPS中安网
2023/7/20 8:44:4134315
  【智慧城市网 市场分析】众所周知,新兴技术的发展是把双刃剑,当人工智能从1.0时代迈入2.0时代,AIGC(生成式人工智能)为千行百业带来市场红利的同时,也催生了不少行业安全隐患。
 
  诸如技术滥用、虚假信息传播、个人信息权益被侵害、数据泄露或偏见歧视等安全问题,已然成为AIGC产业持续发展的阻碍。因而,基于实际国情,适合我国社会环境、产业发展和技术创新等监管政策的出炉成为当务之急。
 
  一、风险凸显
 
  众所周知,AI发展的三驾马车“算法、算力、数据”,数据尤为重要,其安全性则是重中之重。而作为AI下一个风口的AIGC,更需要海量优质数据为训练模型提供支撑,其训练参数量从亿级飙升到万亿级。
 
  数据显示,2018年GPT预训练模型参数量突破1亿,2020年的CPT-3模型参数量达到1750亿,GPT-4的参数量高达1.8万亿,GPT-4的参数量规模是GPT-3的10倍以上。
 
  可见,动辄千亿、上万亿参数的模型训练,不仅试错成本高昂,而且很难在训练过程中进行修正。AIGC的训练模型数据需求量大,如若喂给大模型的样本数据存在虚假、不准确性或涉及到用户个人隐私安全,其生成内容归属难定,或将涉及到安全或隐私纠纷。
 
  当前,AIGC持续大热,其应用场景不断拓展,覆盖千行百业多个领域。当通用大模型向行业大模型转型升级,对细分行业的数据需求更多,数据质量要求更高,也对海量数据的真实性、准确性、安全性提出更高要求。
 
  二、可信AI的挑战
 
  聚焦国内市场,伴随着AI技术的快速迭代和应用场景商业化落地,AIGC的发展也亟待解决可释性、公平性、鲁棒性等核心挑战。
 
  通俗来讲,可释性就是“知其然不知其所以然”。例如当购物网站为用户推荐了一个商品,我们不仅希望用户看到推荐的结果,还要告诉用户为什么推荐这个商品。就是从“知道这个结果”到“为什么是这个结果”的溯源,但在人工智能的不断深度学习中,越来越缺少系统的可解释性。
 
  公平性缺失意味着,在同样的商品推荐中,基于图神经网络结构隐藏在数据中的偏见,对性别、年龄、种族等产生不同的推荐效果,从而降低了对用户和对推荐物的公平性。
 
  鲁棒性的挑战则指系统、算法或模型在存在异常输入、算法错误或深度伪造数据时,容易被欺骗犯错,从而造成AI系统的不可控和不准确。
 
  综上来看,要做到可信AI,需要从可释性、公平性、鲁棒性、伦理性、正确性、安全性等多维度进行考量,才会更好地驱动AIGC的未来发展。
 
  由此可见,AIGC的“超能力”将逐步赋能千行百业,有必要提前预防可能产生的安全风险。因而,为了规避新技术带来的陷阱,对AIGC或将产生的不良影响,亟待政策层面的保障。
 
  三、多国监管政策出炉
 
  在AIGC技术逐步向细分行业商业化的落地过程中,其引发的安全问题已受到全球关注,并引发监管层面的关注和行动。
 
  今年4月,AI早期创始人马斯克联合业内千名高管和专家发布公开信,倡议所有人工智能实验室应立即暂停训练至少6个月,以应对AI脱离人类掌控的威胁。
 
  5月,美国政府机构强调对ChatGPT在伦理道德方面的监管,研究和制定针对ChatGPT的监管政策和指南,以确保ChatGPT的发展和应用符合法律法规和伦理标准。
 
  6月,欧盟议会宣布《人工智能法案》进入最终讨论阶段,对AIGC生成图像和文本的智能模型制定限制性规则。意大利、爱尔兰、德国、法国等或将停用ChatGPT,并调查它是否符合通用数据保护条例。
 
  7月,联合国安理会也在开展AI风险问题研讨。这是该机构第一次举行类型会议,各国政府积极探讨如何降低新兴AI技术在全球经济和国际安全方面带来的风险。
 
  同是7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局发布《生成式人工智能服务管理暂行办法》(以下简称《办法》),自8月15日正式施行。
 
  从上述各国对待AIGC技术带来的风险挑战和应对措施来看,在AIGC带来“超能力”之时,也需要对其引发的多重风险“立规矩”,助力AIGC更好地落地应用。
 
  四、《办法》打造护城河
 
  历时3个月,伴随着AIGC产业发展的高歌猛进,其监管政策也从征求意见阶段进阶到正式落地阶段,助力AIGC成为真正的“可信AI”。正如业内人士所言:“《办法》的出台,就是打造可信AI的护城河”。
 
  《办法》的出台,可谓顺势而为。其中,第七条提到生成式人工智能服务提供者需“使用具有合法来源的数据和基础模型;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。
 
  具体规定包括:1)使用具有合法来源的数据和基础模型;2)涉及知识产权的,不得侵害他人依法享受的知识产权;3)涉及个人信息的,应用取得个人同意或符合法律、行政法规规定的其他情形;4)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;5)《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。
 
  可以说,《办法》的出台,即是在政策认可前提下的风险管控,可以为大数据确权、云计算自主性、网络安全等AI配套产业打造增量需求和服务,更好地实现“技术向善”。
 
  随着AIGC技术端的突破,将能更好地解决“安防+AI”遇到的个性化需求少、交付速度慢、长尾需求的算法精度差、定制化算法成本高等壁垒,助推“安防+AI”的二次变革,也助力安防产业收获第一波AIGC应用市场的红利。
 
  而安防产业在享受大数据、云计算、物联网、AIGC算法生成等带来的红利时,也必须更高效地应对数据安全带来的安全挑战。特别是安防设备对图片、视频等数据的真实性和防伪性要求级别更高,《办法》的出台,为AIGC在安防行业的落地应用提供了监管保障。
 
  国家互联网信息办公室有关负责人也表示,出台《办法》,旨在促进AIGC健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
 
  总结:
 
  纵观AIGC的发展轨迹,当前其应用领域侧重于to-C领域,涵盖对话、图片、音频、视频等内容生成,而未来涉及to-B领域的更多落地化应用场景对行业大模型的需求也不少,但苦于资金、技术和算力的掣肘,还需要“通用大模型+应用场景+训练调优”进行迭代,从而提升行业大模型能力,深化技术和应用场景。
 
  可预见的是,基于AIGC应用场景的普及和商业化落地,保护隐私和数据安全已刻不容缓。在此时间点,《办法》的出台则及时也很必要,可以降低AIGC发展引发的多重风险,以促进行业整体健康发展。

上一篇:3D打印的拐点,终于来了!千亿级新市场呼之欲出

下一篇:智能+电动 车用PCB逆势起飞

相关资讯:

首页|导航|登录|关于本站|联系我们