我们目前并不需要过多担心被人工智能抢走饭碗,更应该考虑的是:如何运用人工智能帮助我们更高效的工作?我们是否需要更多的人工智能训练师,而不是医生、工程师?如果人工智能预测错误,谁来承担责任……
AlphaGo打败李世石已经有两年多的时间了,在这两年中,人工智能从各个角度入侵我们的生活,从各种语音助手到智能音箱,从智能手表到智能家电,从机器翻译到刷脸支付。落地应用一波未平一波又起,人们接触得多了,了解了人工智能有多智障,便也不再担心是否会被人工智能抢去饭碗了。
但,真的是这样吗?人工智能走什么时候能走出智障的圈子?
这还要从人工智能的三大流派说起。
三大流派
符号学派
1956年,在达特茅斯学院,香农(Claude Shannon,信息论创始人)和其他几个年轻学者,一起讨论了如何用机器来模仿人类在各个方面的智能,并在讨论中提出“人工智能”一词,这年就是人工智能的元年。此后的40年间,人工智能所取得的辉煌成绩都与符号学派密不可分。
当时人们认为“机器要像人一样思考才能获得智能”,而人类的认知都是基于符号的,思维只是在符号表示上的一种运算。所以应该先研究清楚人类的认知系统,进而用机器模仿人类的认知过程,并将代表认知的符号输入这些机器,来达到模拟人类智能的目的。
符号学派认为人的物理能力和心智能力是分开的,而人工智能就是要用计算机程序来模拟心智能力,而不是物理能力。正因此,智能应该是一种特殊的软件,与实现它的硬件并没有太大关系。这就好比一个会开车的人,他不能让一个没有轮子的车跑起来,但你不能因此说他不会开车。这个人具有的开车的能力,就是智能(软件),与车能不能开(硬件)无关。
基于这些理念,符号学派在经历了一些波折后,在国际象棋上(1997年)和《危险》(2011年)中战胜了人类(《危险》是一个美国电视节目,主持人会给参赛者一系列线索,参赛者要用最短的时间猜出主持人描述的人或事物)。
连接学派
智力活动在符号学派看来是一款软件,这款软件的运作需要从外界获得大量的知识输入,这样的输入在20世纪80年代相当的费时费力,成为了制约符号学派发展的瓶颈。另外一群人认为,把智力看成是一款软件是远远不够的。
人类智力是在大脑的活动下产生的,而大脑是由上百亿个神经元细胞通过错综复杂的连接构成的。所以人们很自然的想到,我们是不是可以模拟大量神经元的信号传输方式来模拟大脑的智力呢?
连接学派通过算法模拟神经元,并把这样一个单元叫做感知机,将多个感知机组成一层网络,多层这样的网络互相连接最终得到神经网络。我们可以根据要解决的实际问题来构建神经网络,进而用数据不断训练这一网络,调整连接权重来模拟智能。
现在炙手可热的深度学习,可以看做是连接学派的延伸,已经在语音识别、图片处理、模式识别等领域取得突破性进展。
行为学派
与上面两个学派不同的是,行为学派把目标聚焦在相对低等的生物身上,他们发现即便是昆虫这种比人类简单得多的生物,也表现出了非凡的智能,比如可以灵活地行走并躲避障碍物,快速精准地捕食猎物。从这点出发,行为学派模仿动物的身体,在不需要大脑干预的情况下,仅凭四肢和关节的协调来适应环境。
另一方面,生命体在演化的过程中会不断变异,而环境会对这些变异进行选择,让更适应环境的变异繁衍下去,同时淘汰不适应环境的变异。在这一变异和选择的过程中生物逐渐从简单走向复杂,从低级走向高级。
基于此,霍兰(John Holland)提出了遗传算法:在计算机中,用一堆二进制串来模拟自然界的生物体,改变这些二进制串来模拟基因突变,用适应度函数来模拟大自然的优胜劣汰,最终找到最优解。
这一学派在机器人领域成果卓著,例如美国波士顿动力公司研发的“big dog”,“开门机器人”
What-How-Why:“是什么”、“该怎么”、“为什么”
举一个医疗诊断的例子
有一种癌症,叫黑色素瘤,这是皮肤肿瘤中恶性程度最高的瘤种,容易出现远处转移,可以致死,所以早期的诊断非常重要。但是,它的初期表现,跟皮肤上长了一个普通的“色素痣”一样。想要在早期诊断黑色素瘤,最稳妥的方式是做活组织切片检查,可你总不能每长一个痣就去动刀。
好在黑色素瘤和普通色素痣的外观还是有区别的,总结说来,有以下四个特征:
一般都非对称
边缘不规则
颜色可能不统一,更富于变化
直径通常大于6毫米
一个皮肤科医生,要学习上面四个规则,来给患者进行诊断。那计算机不是也可以学习这些规则,然后取代人类吗?
“是什么”和“该怎么”
1945年,英国心理学家吉尔伯特·赖尔(Gilbert Ryle)在演讲中提到了这两种知识:
一个孩子知道自行车有两个轮子,轮子里面都是空气,转动把手就可以拐弯……他只是知道了“是什么”,但还是不会骑车;如果一个孩子在几次摔倒之后学会了骑车,这时候,他就知道了“该怎么”。知道“是什么”是基于事实和概念;而知道“该怎么”是基于技能和经验。知道“该怎么”,可不一定知道“是什么”,你让一个会骑车的人讲解一下他是怎么骑车的,可能他根本说不清楚。
我们要把一件事物“是什么”告诉计算机,一种方法是把这个事物方方面面的描述都告诉计算机,它就知道了“是什么”,至少理论上是这样的。比如,你要让计算机来判断这是一个色素痣还是一个黑色素瘤,你只要把那几个特征告诉计算机就可以了。
可事实远比这复杂得多,因为把上面的四个特征翻译成算法语言,本身就不太容易——到底多不对称才叫“不对称”?怎么不规则才算“不规则”?而且符合那四个特征的也未必是黑色素瘤,不符合的也可能是。所以最后算下来,计算机的准确度还是不如人类专家。
还有第二种方法,就是深度学习。通过深度学习,我们甚至不用去制定规则,只要找出一套合适的模型,然后用大量的数据进行训练,模型自己就能学会判断。事实上,这种方式训练出的神经网络,已经在黑色素瘤的识别准确率上远高于人类专家。
这样说来,在“是什么”这一块,计算机已经可以超越人类了;而像骑自行车这类“该怎么”就是行为学派擅长的东西,可能未来也会超越人类。但人工智能有个致命的问题,就是不知道“为什么”。
“为什么”
神经网络可以在黑色素瘤的识别这件事上做得比人类好,但只不过是依靠算法给出输入和输出之间的对应关系,它本身根本不理解病变。人类医生不仅仅会告诉你这里有一个病变,他还会告诉你用药的时候要注意周围的危险区域,他还会发现没有症状、但是已经产生的肿瘤……因为人类能理解病变。
人类比计算机更厉害的地方在于,我们不仅能理解,我们还会问“为什么”。
为什么会有这些病变?为什么黑色素瘤边缘是不规则的?为什么会变颜色?为什么容易出现远处转移?正是因为我们能问出为什么,我们才能不断深入研究,不断获得新的知识,不断找到新的治疗方法,不断地知道新的“是什么”和“该怎么”。
人工智能只能解决一个问题,但是不能创造一个问题。
共生
尽管AlphaGo Zero可以在自我对弈的前提下战胜所有人类,但AlphaGo Zero还是在有限的棋盘上,在有限的规则下计算。它只知道“该怎么”,而不知道围棋“是什么”,更不知道“为什么”。
更何况真实的世界有无限多的自由度,没有明确规则,你沿着任何一个方向深入下去都会碰到各种各样新的可能性。这些新的东西,才更有价值。
我们目前并不需要过多担心被人工智能抢走饭碗,更应该考虑的是:如何运用人工智能帮助我们更高效的工作?我们是否需要更多的人工智能训练师,而不是医生、工程师?如果人工智能预测错误,谁来承担责任……
我们需要人工智能,但拓展知识的边界,还得靠我们自己。
参考文献:
[1]《科学的极致:漫谈人工智能》. 集智俱乐部.
[2]The algorithm will see you now. Siddhartha Murherjee. The New Yorker. April 3, 2017. (https://www.newyorker.com/magazine/2017/04/03/ai-versus-md)