AI已成世界焦点 智能化趋势势不可挡
- 来源:探索与争鸣杂志 作者:成素梅
- 2017/12/21 9:38:5333990
【中国安防展览网 企业关注】自AlphaGo赢得围棋比赛以来,人工智能成为*关注之焦点。无论是主动拥抱,还是被动接受,智能化趋势已经势不可挡。
2017年4月英国工程与物理科学研究理事会(EPSRC)发布了《类人计算战略路线图》,明确了类人计算的概念、研究动机、研究需求、研究目标与范围等。2017年7月我国国务院发布了《新一代人工智能发展规划》,提出了大力助推人工智能发展的指导思想与战略目标等。这些顶层设计的战略性推动,再加上资本力量的聚集、科技公司的布局、各类媒体的纷纷宣传,以及有识之士的评论,加快了智能化社会到来的步伐,甚至有人把2017年称之为“智能年”。
人工智能正在改变世界,而关键是人类应该如何塑造人工智能。我们在“热”推进的同时,必须进行“冷”思考,应该充分认识到各界人士在满怀信心地全力创造机会,抢抓新一轮智能科技发展机遇之时,还需要未雨绸缪地深入探讨智能化社会可能面临的严峻挑战。
事实上,人工智能对政治、经济、社会、法律、文化甚至军事等方面都带来了多重影响,而我们现在还没有足够的知识储备和恰当的概念框架来理解、应对、引导这些影响,这才是智能化社会真正的危险之处。本文立足于哲学视域,来探讨智能化社会有可能带来的挑战。
挑战之一:人工智能有弱版本、强版本和超版本三种形式,目前大力发展的弱人工智能,使人类生活的世界处于快速变化之中,这在概念建构上使人类措手不及。如何重构概念框架,丰富现有的概念工具箱,是人类面临的概念挑战。
概念是人类认识世界和理解世界的界面之一。概念工具箱的匮乏,不只是一个问题,更是一种风险,因为这会使我们恐惧和拒绝不能被赋予意义和自认为没有安全感的东西。
丰富现有的概念工具箱或者进行概念重构,有助于我们积极地表达对人工智能未来的展望。因为人工智能科学家在人类智能的机制尚不明确的前提下,试图制造出智能机器,首先需要界定“智能”是什么。这是事关人工智能的框架问题,即在什么样的概念框架中,理解智能和实现智能。
丹尼特认为,我们不能把框架问题简单地归属于一种技术障碍或理论难题,而应该看成是一个新的深层次的认识论问题。这也是为什么对智能的不同认知,形成了智能实现的不同范式的原因所在。
在人工智能60年的发展*,初占有统治地位的是符号主义范式。代表人纽厄尔和西蒙把人类的认知看成是信息加工过程,把物理符号系统看成是体现出智能的充分必要条件。这种概念框架可追溯到弗雷格和罗素的逻辑原子主义思想,而逻辑原子主义又继承了传统西方哲学中重分析的理性主义传统,以牛顿力学为核心的近代自然科学研究印证了这种哲学的有效性。代人工智能科学家正是在近代自然科学研究范式的熏陶下成长起来的,他们不仅潜移默化地延续了传统西方哲学的思维方式,而且继承了以牛顿力学为核心的近代自然科学方法论观念。
在这个概念框架中,不仅还原主义、理性主义、物理主义、决定论的因果性等观念占据主导地位,而且我们完全可以把世界形式化的界限,看成是发展人工智能的界限。
这种理想化的概念范式在处理人的日常感知问题时,遇到了发展性难题。与此同时,人工智能科学家受神经科学的启示,试图通过神经网络的建模来模拟人类的智能的进路从边缘走向核心。
21世纪以来,随着大数据、云计算、图像识别以及自然语言处理等技术的发展,以深度学习为基础的联结主义范式得到快速发展。这种范式在观念上把计算机看成是类人脑,在方法上不再求助于形式化的知识推理,不再通过求解问题来体现智能,而是求助于统计学,通过模拟神经网络的联结机制,赋予计算机能够基于大样本数据进行自主学习的能力,来体现智能。这就把人工智能的研究,从抽象的知识表征转向实践中的技能提升,从原子主义的主客二分的理性分析方式,转向能动者与其所在的世界彼此互动的感知学习方式。
能动者的技能提升是在学习过程中进行的。技能不能被等同于操作规则或理论体系,而是能动者在其世界中或特定的域境(context)中知道如何去做的技术能力。这种范式恰好与来自胡塞尔、海德格尔、梅洛-庞蒂和德雷福斯的现象学相吻合。这也是为什么威诺格拉德于20世纪80年代曾在斯坦福大学的计算机科学课程中讲授海德格尔哲学、麻省理工学院的第二代人工智能科学家也不像代人那样排斥德雷福斯的哲学主张的原因所在。
人工智能发展的这种范式转换,不仅揭示了人类体验世界、与世界互动,以及在理解世界并赋予其意义上,使世界语义化的新方式,而且正在地改变着过去习以为常的一切架构。
一方面,基于统计学和随机性的算法建模,赋予智能机器在不断实践中能够自主提高技能的能力,使得机器学习的不确定性和不可解释性成为智能机器的基底背景,而不再是令人担忧的认识论难题;
另一方面,机器智能水平的高低,取决于其学习样本的体量或规模,这强化了体知型认知(embodied cognition)的重要性。智能机器在学习过程中表现出的不确定性,以及人工智能所带来的世界的瞬息万变,要求我们重构现有的规则与概念。因此,地丰富和重构哲学社会科学的概念框架,是我们迎接智能化社会的一个具体的建设目标,而不是一个抽象的理论问题。
挑战之二:人工智能是由大数据来驱动的,如何理解数据之间的相关性所体现出的预测或决策作用,是人类面临的思维方式的挑战。
人类智能大的特征之一就是在变化万千的世界中,能够随机应变地应对局势。这种应对技能是在反复实践的过程中练就的。在实践活动中,人类是“寓居于世(being in the world)”的体知型主体。人与世界的互动不是在寻找原因,而是在应对挑战,而这种挑战是由整个域境诱发的。
人类的这种应对技能是建立在整个模式或风格之基础上的,是对经验的协调。人与世界的关系是一种诱发-应对关系。同样,人工智能的世界是由人的数字化行为构成的数据世界。
一方面,人类行为的多样性,使得数据世界变化万千,莫衷一是;另一方面,数据量的剧增带来了质的飞跃,不仅夯实了机器深度学习的基石,而且使受过长期训练的机器,也能表现出类似于人类智能的胜任能力,成为“寓居于数据世界”的体知型的能动者。
这样,智能机器与数据世界的互动同样也不是在寻找原因,而是在应对挑战,这就使人类进入了利用大数据进行预测或决策的新时代。
大数据具有体量大、类型多、结构杂、变化快等基本特征。在这种庞杂的数据库中,我们必须放弃把数据看作是标志实物特征的方法,运用统计学的概念来处理信息,或者说,凭借算法来进行数据挖掘。这样做不是教机器人如何像人一样思考,而是让机器人学会如何在海量数据中挖掘出有价值的隐藏信息,形成决策资源,预测相关事件发生的可能性。
然而,当数据成为我们认识世界的界面时,我们已经无意识地把获取信息的方式,交给了搜索引擎。在搜索算法的引导下,我们的思维方式也就相应地从重视寻找数据背景的原因,转向了如何运用数据本身。这就颠覆了传统的因果性思维方式,接纳了相关性思维方式。
因果性思维方式追求的是,如果A,那么B;而相关性思维方式追求的是,如果A,那么很有可能是B。这时,A并不是造成B的原因,而只是推出B的相关因素。就起源而言,因果性思维方式是与牛顿力学相联系的一种决定论的确定性思维方式,而相关性思维方式则是与量子力学相联系的一种统计决定论的不确定性思维方式。
相关性思维与因果性思维,属于两个不同层次的思维方式,不存在替代关系。前者是面对复杂系统的一种横向思维,后者则是面对简单系统的一种纵向思维。比如,在城市管理中,智能手机的位置定位功能有助于掌握人口密度与人员流动信息,共享单车的使用轨迹有助于优化城市道路建设等。这些在过去都是无法想象的。
另一方面,随着数据实时功能的不断增强和推荐引擎技术的不断发展,人与数据环境之间的适应关系也发生了倒转:不是人来适应数字环境,而是数字环境来适应人。这种新的适应关系也是由相关关系的。
挑战之三:在一个全景式的智能化社会里,如何重新界定隐私和保护隐私,如何进行网络治理,是人类面临的新的伦理、法律和社会挑战。
人的数据化生存,不是创生了一个与现实世界相平行的虚拟世界,而是削弱了虚拟与真实之间的划分界限,创生了一个超记忆(hyper-memorisability)、超复制(hyper-reproducibility)和超扩散(hyper-diffusibility)的世界。
在工业社会,个人隐私是非常重要的,蓄意打听他人的私人信息被认为是不礼貌的,甚至是不道德的,家庭是典型的私人空间,公共场所是典型的公共空间。私人空间通常被认为是私密的、自由的或随意的、自主的领域,而公共空间被看成是公开的、不自由的或受约束的、能问责的领域。
然而,当人类生存的物质世界成为智能化的世界时,常态化的在线生活使人具有了另外一种身份:数字身份或电子身份。
一方面,无处不在的网络,即使是私人空间或私人活动,也成为对公共空间或公开活动的一种重要延伸。过去属于私人的信息或国家机密,现在会在不被知情的情况下,被复制和传播,甚至被盗用;另一方面,编码逻辑的活动越来越标准化和碎片化,自动算法系统作为新的认知层面,建构了个人的电子档案,能够实时地解读和编辑个人行为、筛查个人的心情、追踪个人的喜好,甚至能够抓取个人对信息的感知趋向,进行有针对性的信息推送。
而这种推送服务,不仅会加固社会分层,而且具有利用价值,比如,保险公司有可能在掌握了个人病史的情况下,提高保费;大学招生部门有可能把个人网络档案作为决定是否录用学生的参考依据,等等。与传统的社会化和社会控制机制相反,在智能化时代,人的社会化成为无形的和不可解释的。这就增加了社会现象的不透明性和人的透明性。
对于个人而言,网络数据和信息的不可删除性,个人注意力的货币化,人的行为随时被置于网络监视之中,以及无法保证技术的匿名性,都会导致人的隐私权的丧失,还会强化信息的不对称和权力的不对称,因而对传统的隐私观提出了巨大的挑战。
传统的隐私观包括两个方面:一是个人对希望呈现的信息有控制权,二是个人对属于或关于自己的信息有删除权。当人的数字化生存使得人们失去了对自己信息的控制权的同时,也就失去了对自己信息的删除权。在欧盟关于数据保护条例的讨论中,从互联网中消除信息的决定权,是一个有争议的话题,其中,技术性的问题比我们想象的更加复杂。
网络数据的被转移、被复制以及被控制,还有网络智能机器人的被使用,不论是在个人层面,还是在国家层面,都打开了有关隐私和匿名议题的潘多拉魔盒。因此,随着物联网的发展,在互联的世界中,如果我们希望通过法律条文和人类智慧,来应对隐私问题,就需要跟上技术发展的步伐,需要各级部门为掌握了大量个人数据并重新规划人类社会发展的各类科技公司建立负责任的行动纲领。
挑战之四:随着人的网络痕迹不断留存,应该如何对待很有可能出现的数字人,是人类面临的对现有生命观的挑战。
物联网创造了把人、物和世界或自然界联系起来的网格,智能化技术的发展又进一步使得数据、信息和知识,还有思想和行为痕迹,成为永存的。这已经为数字人的出现创造了条件。
数字人不仅能永生,而且更重要的是,它能够模仿出之前只有生命才具有的许多特性。这就对传统的生命观提出了挑战,并带来了许多需要重新思考的问题。在亚里士多德看来,心灵(灵魂)不能存在于身体之外,并且,与身体一起死亡,而笛卡尔则维持了心灵和身体的二分。今天,人工智能科学家能够把人类的心灵上传到一台机器(或网络)中,这将意味着,人的心灵可以与人的身体分离开来,被附着在一个网络化的具有自主学习能力的虚拟身体之上。
如果未来有一天,数字人能够借助于自然语言处理技术和深度学习技术,来模仿真人的发音,通过计算机视觉、图像识别等技术,来模仿真人的行为。那么,是否允许未来会出现专门定制数字人的公司呢?应该制定什么样的道德法律来规范数字生命呢?
进一步设想,如果未来有一天技术允许一个人的心灵在他的身体死亡后,在一个不同的主人(比如,限于一块硅电路或一个分布式网络)的体内继续运行,将会发生怎么样的情况呢?这样的实体依然满足用来描述人还活着的标准吗?两者将会拥有相同的心灵吗?而且,就所有的实践考虑而言,它会将永远有能力学习、反应、发育和适应吗?这将会违背活的有机体是由细胞组成的这一必要条件。但是,如果我们选择坚持这个必要条件,我们将如何拓展我们的生命观呢?这还会涉及法律、医疗、伦理、经济、政治乃至军事等方面的问题。
挑战之五:增强现实技术、生物工程技术以及量子计算的发展,应该如何对待有可能出现的生化电子人,是人类面临的关于身体观的挑战。
我们通常认为,如果人的身体的某个功能器官失能之后,有可能用人造器官或器件来替换或补救,比如,心脏起搏器、人造关节、隐性眼睛、助听器,等等,这些器具只被看成是恢复人体失能器官的功能,不会对人体构成威胁。
然而,在智能化的社会里,当芯片技术、生物工程技术和量子算法等整合起来时,将会出现名目繁多的增强型技术。这些技术的人造物,比如生物芯片,不只是具有医疗的作用,更重要的是具有强化人体功能的作用,那么,我们应该如何规范这些器件的使用范围呢?不论是为了医疗的效果,还是为了增强的效果,当人体的主要功能性器官有可能被全部替换时,这个人还是原来的那个人吗?
这就遭遇了古老的特修斯之船悖论。意思是说,一艘在海上航行几百年的船,只要一块船板腐烂了,就会被替换掉,以此类推,直到所有的船板都被替换掉之后,那么,这艘船还是原来的那艘船吗?哲学家霍布斯后来延伸说,如果用特修斯之船上替换下来的船板,重新建造一艘船,那么,这两艘船中那个船才是真正的特修斯之船呢?
这个悖论揭示了如何理解事物的同一性问题。它同样适用于智能化社会中如何理解人体的同一性问题。我们一直认为,人的身体是指有生以来的器官、骨骼、神经、血液等功能器官构成的血肉之躯,虽然这些器官会不断老化,人每天都在进行新陈代谢,而具有时间连续性的身体变化,不会影响我们对身体同一性的认同。
当技术发展到人的主要器官可以被替换时,就可能出现生化电子人,那么,生化电子人仍然是人吗?我们如何划定人类和非人类之间的界线?
更令人担忧的是,随着医疗技术的发展,也许有一天内置于我们体内的纳米机器人能修复任何需要修复的器官或组织,而不会影响人的生命或身份。但是,如果这些机器人是受外部控制的,就必然会带来许多问题,比如,如何看待自由意志;从动物伦理的视域来看,当人类有可能在生物上成为永生的时,对环境和可持续性来说将是毁灭性的;人类是否有权比其他生物活得更长久,人类是否应该建立规则和条件来终止生命或同意安乐死,以及如何决定谁应该活着和死去。