论第三波人工智能技术革命
- 来源:机器人库
- 2017/8/8 13:47:5944942
【中国安防展览网 媒体导读】人工智能(AI)在 AlphaGo 打败人类之后成了显学。本文希望能从 AI 的定义开始,谈及 AI 能成就的事情与不能成就的事情,并提出 AI 目前碰到的困境,与接下来希望解决的难题。
人工智能从 1950 年代提出迄今已超过 60 年了,这 60 年来人工智能经过数次大起大落。从一开始很高的期待,到后来令人失望的发展、经历两次“AI 冬天”让研究者与投资人望而却步,又至于今天第三波 AI 的崛起。算是历*仅见能大起大落数次的学科。
人工智能可有三层次定义:层次是“弱人工智能”或“狭隘人工智能”,基本上就是希望电脑能解决某个需要高度智力才能解决的问题,而不要求它跟人类一样有全面智慧解决各式各样不同的问题。例如 Google AlphaGo、IBM Watson 或自动驾驶,就是弱人工智能的例子。它们可在单一领域(如围棋、益智问答)达到媲美人类的成就,但却不能解决其他对人类而言相对容易的问题(如 AlphaGo 不会开车,Watson 不会下棋)。目前弱人工智能主流的方法算是以机器学习为本,尤其以“深度学习”技术热门。机器学习的架构是在统计与计算的方法下运用巨量资料来做预测与决定,较擅长解选择与是非题,而非申论与论述的问题。
第二个层次是“强人工智能”或“泛人工智能”:强人工智能要求电脑的智慧需要更全面广泛,需要有推理、学习、规划、语言沟通、知觉等能力,拥有这些能力的电脑才有可能展现出全面性的智慧、跟人类并驾齐驱。在这个方向过去学者提出一些并非基于机器学习的方法,通称为“知识为本”(knowledge driven)法。这个方法强调如果能将所有知识输入电脑,电脑就能从这些知识去推论(如知识本体论与一次逻辑推论等技术)。但这类方法并没有达到全面性的成功,主要是世界的知识太多,也没有很有效率表述的方式让电脑推论。近年来深度学习为本的技术(如记忆增强神经网络)在赋予电脑推论能力的方向虽有进展,但泛人工智能能力还离人类智慧有一段距离。
第三个层次是 John Searle 提出的“强人工智能假说”(strong AI hypothesis)。在这个层次,电脑需要拥有跟人类一样的“心灵”,需要认知自我并可以跟人类一样思考。我们在电影小说中看到的一些有自我意识的 AI 大致都属于这个层次。然而,这个层次普遍认为在透彻人脑的智慧及自我意识产生的机制前,不大可能达成的任务。
不同的人谈到的 AI 可能是指不同层次的定义。例如阿里巴巴的马云曾说:“我们讨厌谈论 AI,没有数据的公司才会讨论 AI”,这句话的 AI 应该是指希望利用“知识为本”的方法来解决强人工智能问题的 AI;其对应就是以“数据为本”的机器学习方法产生的“弱人工智能”。
目前的 AI 技术在弱人工智能有很好的进展,研究方针渐渐移往强人工智能,但对赋予 AI 自我意识的第三层次仍距离遥远。
谈到第三波人工智能应该要研发的技术,我们要先理解前两波的人工智能方法。波人工智能大约是在 1990 年代前电脑的计算与储存能力还有限的时候,人工智能多是以“专家系统”的方式实现。也就是人类将一些专家才懂的知识(如医学、法律)变成一条条“规则”(如吃多喝多尿多可能是糖尿病)并输入电脑,电脑就可以借由这些规则判断。1980 年代利用这些规则产生的“人工智能专家系统”的确造成一股风潮,例如有一个专门帮客户从事电脑组装的公司 XCON 就利用这样的技术省下数千万美元成本。然而,专家系统在 1980 年代末期逐渐淡出,主要是因为聘雇专家成本高,且系统无法普遍化(例如医师系统法律事务)。
第二波人工智能是在 1990 年代中期开始受到重视。主要是因为电脑的记忆空间跟速度突飞猛进,再加上网际网络蓬勃发展,资料的取得与搜集越来越容易。第二波人工智能主要是以机器学习运用在巨量资料探勘为本,以大量的资料配合统计及计算科学的方法让电脑能从事决策。机器学习是一个很广的领域,大致上可分成指导式、非指导式、强化式学习三大类。指导式的学习乃机器学习中常见的方法,主要是希望从大量(输入、输出)资料配对中学到输出与输入的关系,这样对将来未曾看过的输入资料,仍能猜出对应的输出。例如输入资料可能是某个人的体检资料(如 X 光照片),输出就是这个人是否罹患某种疾病。指导式学习擅长分类以及预测数值,只要让电脑看过够多例子,就会自动预测。非指导式学习的使用情境就比较不同,并没有明确的输出,而是希望从输入的资料里学习一些因子的相关性,以及资料的分布状况。至于强化式学习,是在学习 AI 跟环境如何互动,这个方法可从资料去学习某个行为会对周遭产生什么影响,获得什么样的报酬。例如围棋 AI AlphaGo 就是利用强化式学习,在自我对战的过程中增强自己的能力。
机器学习相关技术在近两年达成未有的成就,主要的原因是“神经网络深度学习”技术的成熟。神经网络是已研究数十年的技术,而深度学习,一言以蔽之,就是将神经网络叠合成多层,以产生一个复杂的非线性模型来学习。深度学习之所以成功,就是因为可对资料(尤其是语音或图像这种由基本要素如音波或像素组成的资料)从事多层次表达,这些表达更适合让机器分类或预测。所以深度学习可看成一种“资料表达”或是“讯息前处理”方式,这种资料表达的方式用在指导式、非指导式、强化式学习都有很大的成功。然而,深度学习是不是 AI 的终万灵丹,大部分学者表示并不乐观。如果把强人工智能看成登陆月球这样困难的问题,深度学习的技术就像我们目前找到一棵可以长很高的树,但不表示我们只要继续种出高的树,就可以到达月球。
第二波人工智能在 AlphaGo 打败人类棋王达到高峰,AI 也成为瞩目的焦点。然而,AI 并不是完全没有缺点,在 AlphaGo 之后,下一波人工智能技术相关的讨论应运而生。这第三波人工智能应该要解决的问题其实专家学者各有分歧,以下是我个人的观点:
一、首先我们还是希望能解决 AI 还不够聪明的问题。目前第二波人工智能的成就都在于“弱人工智能”方面,也就是电脑可以成为单一领域的专家,却没有更全面的智慧。因为机器学习的方法主要是基于统计以及经验,需要大量的资料来训练,对于更广泛且深层的理解就显得能力不足。例如递移律(A>B>C 则 A>C)这样对小学生而言很容易理解的观念,机器学习反而不容易学。过去两年许多深度学习的进阶版就是希望解决这样的问题,从弱人工智能往强人工智能的方向发展。
此外,机器学习是资料为本的方法,所以能从资料中学习。但是相对创造发明的能力就比较弱,因为资料里不会有太多创造发明的例子。所以,如何把机器从“学习”提升到“发明”的境界,也是大家关心的。
二、人工智能如何与“人”合作。人工智能目前看到的成就(如 AlphaGo、Watson)都属于 AI 独自的成就。然而,一个有智慧的系统,如果能跟人一起合作,应能产生更大的效用,也可稍微缓和“人工智能抢走人类工作”的疑虑。然而,与人类合作不是件简单的任务。因为就算人与人成功合作也并非天生水到渠成,除了需要技能互补,也要在情感、合作伦理、互信与沟通上都找到平衡点。所以,要能与人类合作的 AI,不仅要展现出跟人类互补的智慧,更要在合作中展现同理心、信任感与沟通技巧,这些都是目前 AI 还需要加强的部分。
三、提升人工智能的“安全性”与“可信度”。当越来越多服务依赖人工智能帮忙做决定,这个人工智能决定的可信度与安全性就很重要。如果人工智能被恶意人士误导或利用,对人类可能产生无可逆转的灾害。例如,近年来有许多研究发现,机器学习的判断有可能被误导。只要在输入的地方加上一些扰动,就会让电脑学到错误的模型,输出完全相反的答案,造成安全上的漏洞。例如人工智能目前已用在小额信贷或高速交易的判断。这样的漏洞可能会让 AI 对是否贷款或交易判断错误,导致公司损失。
四、人工智能的“道德”观。许多名人如物理学家霍金都公开表达对人工智能的疑虑,担心它会毁灭人类,就如许多电影小说的情节。的确,人工智能有可能对人类造成危害,但并非因 AI 产生“自我意识”希望脱离人类的控制;而是 AI 在执行人类命令的时候因误判或“不够智慧”伤害到人类。例如:人类可能会要求机器人去冰箱拿东西,一个使命必达的 AI,可能会把途中遇到本地上爬的婴儿踢到旁边。因为这样的 AI 并没有受“伦理道德”训练,只唯命是从。所以第三波 AI,在我看来,应该要把道德与伦理观念纳入“智慧”里,想办法在现有架构上实现。这个目标的挑战性很高,因为常常道德伦理跟欲行的目的会有冲突,即使对人类都不是容易的问题。
五、透明的人工智能方法。人工智能直到目前还没有完全普及,有一个很大的原因是人类对其背后的机制与判断方式不了解。心理学家的研究曾显示,人类对不了解的事物接受度相对较低。 所以如何创造出更透明、更容易接受的 AI,也是学者重视的课题。
“让电脑拥有人类的智慧”就像潘朵拉的盒子,让人又期待又怕受伤害。人工智能虽然近年来有极大的进步,然而,我们距离一个安全、透明、有伦理观念、能与人类协作的“强人工智能”仍有一段很长的距离要走。第三波的人工智能,一言以蔽之,将让 AI 更像人类。接下来,从研发的角度让 AI 更进化;从产业的角度能预知 AI 的弱点,并以研发为基础来布局未来“人工智能普及化”的产业需求,是未来在第三波人工智能革命里取得地位的关键。