智慧城市网

登录

AI已成世界焦点 智能化趋势势不可挡

来源:探索与争鸣杂志 作者:成素梅
2017/12/21 9:38:5333991
 
  挑战之六:人的数字化生存,有可能使得理性—自主的、与身体无关的自我意识,被第三空间中的社会—关系的、与身体相关的自我意识取而代之,这是人类面临的重构自我概念的挑战。
 
  在智能化的社会中,人的在线生活使得在线交流成为人类交往的一种习惯方式,人们把这种交流的网络空间称之为“第三空间”。这是由共享的群体意识所塑造的一个空间,现在流行的微信朋友圈就是典型一例。
 
  这种空间是位于严格意义上的个人隐私和大规模公开化之间的一个共享的交流空间。在这个空间里,近代西方思想中传统的个人主义的理性—自主的自我意识,被第三空间中集体主义的社会—关系的自我意识取而代之。个人主义的理性—自主的自我概念是与身体无关的、原子式的个体自我,这种自我强调实体性,也能被作为科学研究的对象,由他者进行分析和预测,成为一个他治的概念。
 
  与此不同,阿伦特编撰了“诞生性”这个概念,使自由与多元性结盟,使多元性不再被看成是对自由的约束,这样就把强调“自由”的自我看成是立足于多元性的存在者,而不是独立自主的存在者。
 
  独立自主是一种理想。把自由理解为是独立自主,要以牺牲现实为代价。因为不是一个人,而是人类栖居在地球上,没有人能够做到完全独立自主,人的“自由”也不是在真空中产生的,而是在受约束的可供性的域境中产生的。所以,个体自我的自由,并不是的,而是相对于他者而言的。
 
  第三空间中的自我概念强调的正是这种与他者的“关系性”或“社会性”。人类自由的这种语境依赖性,把自我定义为是通过多重关系来构成的。在多重关系的交织中,人们往往从坚固的个人隐私观念,转向了各类新媒体上的信息共享:既包括私下公开个人信息,也包括共享受版权保护的学术资料,还有小道消息,甚至不加证实的各类谣言等。因此,人的网络化生活一方面使人类从信息匮乏的时代,转变为信息过剩的时代,另一方面又把人类带到一个信息混杂、难辨真伪的时代。
 
  在这种情况下,人的身份的完整性,是由两把钥匙开启的,一把钥匙由自己拿着;另一把钥匙由他人拿着。这就是为什么在公共空间向他人显现,是人类境况的核心特征,为什么身份与互动如此密切地联系在一起,为什么注意力成为人类体验多元性的关键能力的原因所在。
 
  关系自我之所以强调在与他者的交流互动中来彰显自己,是因为人不仅是目标的追求者,也是意义的塑造者,人与人之间的彼此互动也会产生新的意义和新的可供性。因此,如何重塑社会—关系自我,成为我们面临的关于自我概念的挑战。
 
  挑战之七:人工智能向各行各业的全面渗透,使人类有可能摆脱就业压力,获得时间上的自由。然而,如何利用充足的自由支配时间,却成为人类面临的比为生存而斗争还要严峻和尖锐的挑战。
 
  随着计算机的运算能力与储存能力的不断提升,特别是有朝一日随着量子计算机的出现,人工智能不只是局限于模拟人的行为,而且还拓展到能够解决复杂问题。人工智能的这些应用前景,越来越受人重视。
 
  为此,许多人认为,人工智能的普遍应用有可能将会使许多工人、医生、律师、司机、记者、翻译员、服务员甚至教师等人群失业,但也有人认为,人工智能并不会造成整个职业的消失,只是替代工作内容,使人机协同成为未来的主流工作模式。就像工业革命时代,大规模地开办工厂,使得大量农民不得不离开农田,进入城市,成为工人,并诞生了银行、商场、各类中介等机构一样,智能革命时代也会不断地创造出新的就业岗位,使大量职业人员改变工作范式,并诞生的新职业。
 
  因此,我们面临的问题,不应该是因恐惧失业而阻止人工智能的发展,而是反过来,应该前瞻性地为人工智能的发展可能带来的各种改变,做好思想准备和政策准备。事实上,问题的关键并不是人工智能的发展会导致大量人员失业那么简单,而涉及更加根本的问题:如何改变人类长期以来形成的就业观和社会财富的分配观?
 
  如果我们追溯历史,就不难发现,我们的地球发展已经经历了两次大的转折:次大转折是从非生命物质中演化出生命,这是生命体的基因突变和自然选择的结果;地球发展的第二次大转折是从类人猿演化出人类,而人类的出现使自然选择的进化方式发生了逆转,人类不再是改变基因来适应生存环境,而是通过改变环境来适应自己的基因。这就开启了人类凭借智慧迎接人造自然的航程。
 
  从农业文明到工业文明,再到当前的信息文明,人类始终在这条航线上勇往直前。在这种生存哲学的引导下,为生存而斗争和摆脱自然界的束缚,直到今天依然是人类迫切解决的问题,甚至也是整个生物界面临的问题。
 
  一方面,科学技术的发展、工具的制造、制度的设计,都是为有助于实现这一目标而展开的;另一方面,人类的进化,包括欲望和本性的变化,其目的都是希望付出少的劳动获得大的报酬,特别是我们熟悉的教育体制也是为培育出拥有一技之长的劳动者而设计的。在范围内,这些设计目标的类同性,竟然与民族、肤色、语言等无关。这无疑揭示了人类有史以来的生存本性。
 
  然而,随着人工智能的发展,当程序化和标准化的工业生产、基于大样本基数的疾病诊断、法律案件咨询,甚至作曲、绘画等工作都由机器人所替代时,当人类的科学技术有可能发展到编辑基因时,地球的发展将会面临着第三次大转折,那就是迎来人机协同,乃至改变人体基因结构的时代。
 
  到那时,有望从繁重的体力劳动与脑力劳动的束缚中完全解放出来的人类,应该如何重新调整乃至放弃世世代代传承下来的以劳取酬的习惯和本能的问题,以及人类如何面对改造自己基因的问题,就成为至关重要的问题。
 
  也就是说,当人类的休闲时间显著地增加,而我们所设计的制度与持有的观念,还没有为如何利用休闲时间做好充分的思想准备时,当科学技术的发展使我们能够设计自己的身体时,我们将会因此而面临着一种“精神崩溃”吗?对诸如此类问题的思考,使我们不得不面对更加现实的性问题:我们在摆脱了就业压力而完全获得自由时,如何利用充足的自由支配时间,如何塑造人类文明,成为人类文明演进到智能化社会时,必然要面临的比为生存而斗争还要严峻而尖锐的挑战。
 
  挑战之八:当人类社会从由传统上求力的技术所驱动的工业社会,转向由求智的技术所驱动的智能化社会时,如何在智能技术的研发中把人类的核心价值置入到设计过程之中,使人工智能有助于塑造人的意义,是人类面临的关于技术观的挑战。
 
  长期以来,工具作为人造物通常被看成是中性的。技术是把双刃剑的说法,是针对技术的应用者而言的。在这种情况下,衡量技术善恶的天平将会偏向哪个方向,取决于应用者的伦理道德,与制造者无关。即使新石器时代磨制的石器,也能用来伤人,更不说原子能技术的出现。
 
  许多技术哲学家对这种工具主义的技术观提出了批评,认为技术并不是中性的,而是承载着内在价值的。这种内在价值既是由技术设计者镶嵌在技术物之中的,也指技术使用者沉迷于技术物之后,会受其价值的影响。比如,小孩子沉迷于网络游戏而不能自拔的一个主要原因,是智能游戏能够根据玩者的历史纪录,给予兴趣的引导和刺激。
 
  从总体上讲,人类创造技术人造物,在主观上,虽然不是为了改变人,而是为了满足人的需求,但在客观上,却反过来又在无形中重塑了人,也就是说,人在使用技术的同时,也被技术所改变。
 
  特别是,当我们生活在“智能环境”中时,一方面,物质环境本身具有了社会能力,成为一种环境力量,能够起到规范人的行为和重塑公共空间的作用,甚至还能起到社会治理的作用。
 
  比如,城市交通要道上架设摄像头,能够约束司机的驾驶行为,使他们不得不把遵守交通规则内化为一种良好的驾驶习惯;在智能手机中下载高德地图,不仅能实时掌握道路拥堵情况,方便出行,而且有助于缓解主干道上的交通压力;许多重要场合在安装上人脸识别系统之后,不相关的人员将无法入内,从而变成了一项加强安保与监管的自动措施;用人单位在记录职工考勤时,如果用人脸识别系统取代传统的电子打卡方式,就能够避免替人打卡现象,如此等等。
 
  但另一方面,智能手机携带的地理定位功能,让人的行踪成为透明的,网络活动留下的各种数据,让人的兴趣、爱好、生活习惯以及社会交往等成为透明的,人脸不仅是名字的标签,还承载了许多可以机读的网络信息,这些信息既能造福于人类(比如,用于病理诊断),也会损坏人的利益(比如隐私泄露)。
 
  因此,在智能化的社会中,技术善恶的天平将会偏向哪个方向,不再只是取决于使用者,而且更取决于设计者。在当前流行的人工智能范式中,算法模型是基于过去数据的学习训练,来决定未来的结果。算法模型的设计者选择的数据不同,训练出来的智能系统的偏好就会不同。这样,人工智能事实上并不是在预测未来,而是在设计未来。
 
  算法在表面上只是一个数学模型,但事实上,这样的数学模型并不客观,甚至还可能暗藏歧视。在这种情况下,我们讨论问题的重点,就不是探讨是否允许发展人工智能或准许人工智能技术进入社会的问题,因为排斥人工智能已经没有多大意义,当代人已经生活在人造物的世界中,无法离开技术而生存,而是应该讨论如何在智能技术的研发中把人类的核心价值置入到设计过程,如何发展与人工智能的良性互动,如何树立一种嵌入伦理责任的技术观等问题。
 
  挑战之九:在知识生产领域内,软件机器人的普遍使用,将会为科学家提供科学认知的新视域,如何对待有软件机器人参与的分布式认知,是人类面临的对传统科学认识论的挑战。
 
  在智能化的社会里,互联网就像今天的水、电、气一样,不仅成为日常生活中的基础设施,而且成为社会数字化程度的标志和智能化发展的前提。
 
  有所不同的是,网络化、数字化与智能化的结合,既是平台,也是资源。它们不仅创设了无限的发展空间,具备了很多可供开发的功能,而且为我们提供了观察世界的界面。特别是,对于那些希望从互联网的知识库里“挖掘”有用信息的人来说,搜索引擎或软件机器人成为唾手可得的天赐法器,既便捷,又快速。
 
  问题在于,当搜索结果引导了人类的认知趋向并成为人类认知的一个组成部分时,人类的认知就取决于整个过程中的协同互动:既不是完全由人类认知者决定的,也不是完全由非人类的软件机器人或搜索引擎决定的,而是由相互纠缠的社会—技术等因素共同决定的。弗洛里迪称之为“分布式认知”。
 
  一种分布式认知的形式体现在维基百科中。我们知道,维基百科实施的开放式匿名编辑模式,在极大地降低了知识传播和编撰的门槛时,首先必须面对词条内容的可靠性问题。维基人采取了两条途径来确保其可靠性:一是通过集体的动态修改来加以保证;二是让软件机器人自动地承担起监管和维护的任务,随时监测和自动阻断编辑的不正确操作。
 
  比如,在加州理工学院学习的维吉尔·格里菲斯开发的Wikiscanner软件,就可以用来查看编辑的IP地址,然后,根据具有IP地址定位功能的数据库(IP地理定位技术)来核实这个地址,揭示匿名编辑,曝光出于私心而修改词条的编辑,从而自动维护了维基百科词条内容的质量。软件机器人的警觉性远远高于人的警觉性,因而极大地提高了维护效率,成为维护知识可靠性的一位能动者(agent)。
 
  另一种分布式认知的形式体现在新型的科学研究中。2017年7月7日出版的《科学》杂志集中刊载的一组文章简要介绍了软件机器人直接参与人类认知的许多事例,这些事例表明,软件机器人不仅具有监管、搜索、推送等作用,而且开始参与到科学研究的过程之中,正在改变科学家的科研方式。比如,宾夕法尼亚大学积极心理学中心的心理学家可以运用算法,根据社交媒体上的话语,来分析大众的情绪、收入和意识形态,从而有可能在语言分析及其与心理学联系方面带来一场革命。
 
  因此,当科学研究的结果也依赖于机器人的工作时,我们的认识论就必须由只关注科学家之间的互动,进一步拓展到关注软件机器人提供的认知部分,形成“分布式认识论”。这是对传统认识论的挑战。
 
  挑战之十:当整个人类成为彼此相连的信息有机体,并且与人造物共享一个数字化的信息空间时,认识的责任就必须由人类的能动者和非人类的能动者来共同承担。如何理解这种分布式的认识责任,是人类面临的对传统责任观的挑战。
 
  智能化的网络世界永远是一个包罗万象的地方,既让人着迷,又令人忧虑。着迷之处在于,它有可能让我们极大程度地从体力与脑力劳动中解放出来,有时间从事成就人的工作;忧虑之处在于,它同时也会带来了无尽的问题:身份盗用、垃圾邮件、网络欺诈、病毒攻击、网络恐怖主义、网络低俗文化等。这说明,我们的认识系统已经是一个与社会—技术高度纠缠的系统。
 
  在这个系统中,不仅我们的认识是分布式的,而且认识的责任也是分布式的。正如朱迪思·西蒙所言,认识的责任是一个把认识论、伦理学和本体论联系起来的话题,认识的能动作用和相关的问责,既不属于人类,也不属于人造物,而是属于人类在系统中的内在—行动。
 
  这种观念类似于我们对量子测量结果的理解。在量子测量中,被测量对象的属性、测量设置和测量结果是相互纠缠和共同决定的。属性既不是事先存在的,也不是无中生有的,而是在测量过程中,由测量设置和对象共同形成的,是实体—关系—属性一体化的结果。
 
  传统的认识论观念,对这种量子测量整体性的理解,曾带来许多认识论的困惑,导致了两位物理学大家玻尔和爱因斯坦的世纪之争。同样,在智能环境中,智能化程度的提高,造成了我们对承担责任的恐惧。比如,在个人数据处理、无人驾驶、算法交易等事件中,如果发生问题,应该由谁来负责呢?
 
  这种恐惧把认识关系变成了一种权力关系。也就是说,在认识过程中,不同的认识能动者(不论是人类的,还是非人类的),具有不同的权力。当非人类的算法或软件机器人过滤和引导了我们的认识视域时,就提出了我们如何成为负责任的认识者的问题。
 
  比如,我们已经习惯于通过百度来查找所需要的一切信息,习惯于通过参考他人的评分或评论,来决定预定哪家宾馆、在哪个餐饮吃饭、购买哪件衣服,等等。问题在于,我们为什么要相信这些评论或评分?如果我们被欺骗,比如,曾经发生的莆田系问题。我们应该如何问责呢?对这个问题的思考,涉及到关于搜索引擎这样的智能人造物的伦理和道德责任的问题。
 
  弗洛里迪等人认为,如果人造物显示出互动性、自主性和适应性,那么,它就有资格成为一位道德能动者;如果人造物有资格成为一位道德能动者,那么,它就能被问责。在这种情况下,如果我们依然沿着传统的问责思路,把携带有智能的人造物,看成是不能承担责任的,那么,对于这类非人类的能动者而言,道德的能动作用就与道德责任分离开来。
 
  如果我们认同这种观点,那么,谈论智能人造物的责任就没有意义。事实上,这种观点混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间存在的本质差异。
 
  比如,汽车发生碰撞事故,交警通常会判定要么由司机来负责,要么由厂商来负责。在这种思路中,汽车是被当作孤立的技术人造物来看待的。可是,如果是一辆无人驾驶的汽车发生了碰撞事故,那么,我们就需要追究这辆车的责任,因为无人驾驶车应该被当作是属于社会—技术—认识高度纠缠的人造物来看待的。
 
  然而,如何解决这样一个把伦理学、本体论和认识论高度纠缠在一起的问题,在现有的规章制度中和交通法规中依然无章可循。因此,从如何重塑社会—技术—认识系统中的问责机制来看,如何确立分布式责任观是我们面临的对传统问责机制的挑战。
 
  综上所述,智能化社会是由人工智能驱动的社会,是信息文明的阶段。这个社会必然会地打破我们习以为常的生活方式、生产方式、思维方式、概念框架乃至当前在现代性基础上形成的方方面面。在我们势不可挡地迈向智能化社会的道路上,面临着有必要重构一切的情况下,哲学社会科学的出场,很可能比技术与资本的出场更迫切、更重要。因为只有这样,才能有助于前瞻性地重构一系列战略方针,做到防微杜渐,才能有助于扩大人工智能带来的恩惠,规避人工智能可能带来的危害,降低发展人工智能付出的代价。也许,摆脱恐惧,迎接挑战,是人类文明无法回避的宿命。(原标题:成素梅 | 智能化社会的哲学挑战)
上一页  [1]  [2]

上一篇:从门可罗雀到门庭若市 智能音箱热度持续升温

下一篇:建立城市停车管理平台 盘活公共泊位资源

相关资讯:

首页|导航|登录|关于本站|联系我们