人工智能与医疗
上QQ阅读APP看书,第一时间看更新

0.3 两次低谷:催生变革的发生

人工智能发展历史如图0-5所示。

第一次人工智能浪潮出现在1956—1974年。其间,算法和方法论有了新的进展,特别是算法方面出现了很多世界级发明,其中包括一种被称为增强学习的雏形(贝尔曼公式)。增强学习是谷歌阿尔法狗(AlphaGo)算法的核心思想内容。如今人们常听到的深度学习模型的雏形感知器也是在那几年发明的。

图0-5 人工智能发展历史

第一次人工智能的冬天出现在1974—1980年。人们发现逻辑证明器、感知器和增强学习等技术只能做很简单、领域很窄的任务,稍微超出范围就无法应对。实际上,这里存在3个方面的局限:计算机性能的瓶颈、计算机复杂性的增长及可供学习的知识不足。人工智能所基于的数学模型和数学手段被发现有一定的缺陷,计算机找不到足够的数据库去支撑算法的训练,智能也无从谈起。很多项目的停滞也影响了资助资金的走向,人工智能进入长达数年之久的低谷期。

第二次人工智能的寒冬是由1987—1993年个人计算机(PC)的出现“促成”的。20世纪80年代,人工智能数学模型方面出现了重大发明,其中包括著名的多层神经网络[1]和反向传播算法[2],同时还出现了能与人类下象棋的高度智能机器(1989年)。当时,苹果、IBM开始推广第一代个人计算机,计算机由此走入家庭,特别是费用远远低于专家系统所使用的Symbolics和LISP[3]等机器。于是在美国,由于政府支持的经费数额开始下降,故又一次寒冬来临。虽然研究还在继续,但是人工智能已经很少被提及了。

21世纪初,随着计算机周边的互联能力、大数据、计算性能、存储能力和传感器技术的大幅度进步,以及人工智能相关的图像识别、深度学习和神经网络算法等关键技术的突破,人工智能终于有了革命性发展。人工智能从过去的基于专家和人为设定规则中走出,开始从海量数据中自动寻找规则。

2006年,加拿大多伦多大学的杰弗里·辛顿(Geoffrey Hinton)教授发表论文《基于深度置信网络的快速学习算法》(A Fast Learning Algorithm For Deep Belief Nets)。他在文中提出的深层神经网络逐层训练的高效算法,让当时计算条件下的神经网络模型训练成为可能,同时通过深度神经网络模型得到的优异的实验结果让人们开始重新关注人工智能。在此之后,深度学习技术也开始被引入自然语言理解和图像处理等人工智能分支,并且借助强大的计算资源,这些技术也被投入实际的生产生活中,并产生了显著的经济效益。

2016年,谷歌阿尔法狗和李世石的对弈让人工智能重回大众的视野(图0-6)。它所采用的神经网络模型通过一种新的训练方法,结合人类专家比赛中的棋谱,以及在和自己下棋的模式中进行强化学习。但是,即使是发展到现在的人工智能,也只是“弱人工智能”。弱人工智能虽然只能实现人类智慧中的特定应用,但是已经能够比人类更好地执行这些任务。

图0-6 谷歌阿尔法狗和李世石的对弈让人工智能重回大众的视野

在这样一个大背景下,人工智能的变革不仅仅发生在理论研究领域,而且还越来越多地与实际生活应用场景结合。人工智能在医疗健康领域的应用,涵盖了医学影像处理、医疗大数据分析、新药发现、健康管理等多个方面。基于机器视觉的医疗图像处理是人工智能目前在医疗领域中应用的热点,大型IT企业如谷歌、微软,国外知名高校斯坦福、哈佛都有专门的研究团队来解决如何更好地让机器理解医学影像,并且协助医生做出诊断。IBM的智能认知系统Watson在阅读了上百万字的专业文献书籍和电子病历后,已在全球多个医院中被投入使用。

[1] 多层神经网络:Multi-Layer Perceptron,MLP,即多层感知器,是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作一个有向图,由多个节点层组成,每一层全连接到下一层。

[2] 反向传播算法:Backpropagation algorithm,即BP算法,一种监督学习算法,常被用来训练多层感知机。BP算法是在有导师的指导下,适用于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。

[3] Symbolics和LISP:计算机制造商Symbolics于1985年3月15日注册了Symbolics.域名。Symbolics是一家从麻省理工学院人工智能实验室分拆出的公司,主要设计并制造LISP计算机(1981年,计算机名为Symbolic 3600)。LISP计算机是一种单用户计算机,并针对LISP编程语言进行优化。该产品随后成为第一款商用的“通用计算机”和“工作站”。