今年夏天,腾讯财经开发了一款自动新闻写作软件Dreamwriter,它一露面就“镇住”了很多媒体人。据说,它能根据算法进行及时分析和研判,在一分钟内将重要资讯和对信息的解读送达用户。
机器人毫无疑问地成为近期最热的话题之一,许多人被谆谆告诫,“如果你从事的是程式化的工作,你很可能就要被取代了。”这样的警告已经不是第一次了。早在2011年,国内机器人密度已达到每万人21台。它们能干什么呢?在汽车业、3C行业、金属制造等劳动密集型企业,六轴通用机器人早已成为主角,打磨、搬运、装配,它们可干得一手漂亮活。
听到机器人的上述“手艺”,或许你觉得可以松一口气了:离机器人取代我的工作还远着呢!而实际上绝非如此,因为我们要谈的概念是——人工智能。
六轴机器人听起来既不酷,也不够智能;但银幕上的智能机器人不仅是功能性的,而且还能识别情绪并与人沟通。当把机器人置换成人工智能的时候,我们会发现,很多难以想象的事情都已经被实现了。智能手机已经让人机交互很容易完成,而下一个切入口,可能就在于语音行业。
强人工智能来了
能够识别人类情绪的人工智能,听起来可是够酷炫的,问题是,它离我们还有多远?当我们这样提问时,其实人工智能思想家已经想到了人类灭绝和永生的问题,它的前提,是一种超人工智能(Artificial Superintelligence)。牛津大学哲学家、知名人工智能思想家尼克·博斯特罗姆(Nick Bostrom)把超人工智能定义为:它们“在几乎所有领域都比最聪明的人类大脑还聪明很多,包括科学创新、通识和社交技能”。
我们很难理解这些超人类的想法。在此之前,比较好理解的概念是,弱人工智能和强人工智能。前者意味着擅长单方面任务的人工智能,比如可以在象棋上击败对手;后者就是我们理解的人类级别的人工智能了。按照美国特拉华州立大学教育和人类发展教授琳达·高特弗雷德森(Linda Gottfredson)教授的定义,它是“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作”。
2013年,博斯特罗姆做了一个问卷调查,该调查涵盖了数百位人工智能专家,问卷的内容是:“你预测人类级别的强人工智能什么时候会实现?”
调查结果如下:乐观估计中位年(强人工智能有10%的可能在这一年达成):2022年;正常估计中位年(强人工智能有50%的可能在这一年达成):2040年;悲观估计中位年(强人工智能有90%的可能在这一年达成):2075年。
由此可见,即便是按照最悲观的估计,我们当中的很多人都有可能在余生看见它的出现。这对于普通人来讲,简直是不可思议的;然而对于专家来说,这样的结果甚至唾手可及。为何会产生这样的偏差?
我们想象一个机器人,多是基于场景来判断。比如我有一个机器人女朋友,它能准确地识别我的情绪,我说“我要走了”,它知道是反话;我生气不说话的时候,它又知道怎么哄我。它还会有情绪的表露,让我觉得自己深陷热恋之中。这简直太不可思议了吧?
这里有一个很重要的前提,就是语言。为什么说语音行业是下一个切入口呢?因为人机交互首先由语言来进行,这再理所当然不过了。你让一个机器人瞬间算出十位数乘法,这很简单;但是,你要让它听懂人话?人类中有很多个体还做不到呢!情商低的人通常不善解人意,人际之间便经常有误会。
除了语言之外,“强人工智能”机器人还要懂视觉、动态、移动、直觉。还是以语音为例,Siri、灵犀语音,人们常觉得够新鲜,但指令一复杂它们就会露馅;智能聊天工具小冰、小娜虽然有了脾性,说话有趣,但那也只是程序的设定而已,有时候回答得牛头不对马嘴。
按照智能语音行业的发展路径,语音数据积累就已经是一项繁琐的过程。把所有的话都堆起来,无非是一个“语料库”。关键在于,机器人要知道做出什么反应,做到这个的前提是要听懂人话,可是,语言里的情绪多么复杂啊,机器怎能识别得出?
基于场景的判断是实际的,当我们从仅仅从现实来考虑问题,就会觉得很不可思议。然而,“技术奇点”之下,社会飞跃是指数级的;如同90年代的人们想不到iPhone一样,我们看不到未来,其实这也很正常。
猝不及防的演进
然而,总有一些人是敢想的。按照计算机科学家唐纳德·克努斯(Donald Knuth)的说法,“人工智能已经在几乎所有需要思考的领域都超过了人类,但是在那些人类和其他动物不需要思考就能完成的事情上,它还差得很远。”
这句话可以体现为智能的速度与质量,机器人可以算得很快,然而重要的是认知能力如何,也就是智能的质量。对于人类很简单的事情,比如判断一只动物是猫还是狗,机器人就很难搞。因此,从弱人工智能到强人工智能的转变,关键点就在于“大脑”。
基于对未来的想象,科学家们已经跳出人类中心主义的视角,在他们看来,编译基因的4个碱基A、T、G、C,与计算机编译代码的1和0,作为记录信息的符号并没有什么本质区别。因此,他们提出了几种可能的演进思路:
第一种是完整地抄袭人脑。比如人工神经网络,通过晶体管组成神经系统,可以完整地进行自主学习;还有一种思路是“整脑模拟”,比较好理解的是,把人脑切成片,然后用软件来组织3D模型。迄今为止,人类已经能够模拟1毫米长的扁虫的大脑,这个大脑含有302个神经元。
其次还有“模仿生物演化”的思路。让电脑经过一个反复运作的表现/评价过程,繁衍或者淘汰;或者把电脑变成电脑科学家,让它们自己研究人工智能、修改代码。通过这些我们听不懂的天方夜谭,科学家们称,强人工智能可能比我们预期的要更早降临。
这些预测并不是没有根据的,有一门学科叫做“认知科学”,就旨在破解人类心智的奥秘,最终目标是要制造出一种人工神经网络系统。最乐观的估计称,我们最早在2030年前就会有所突破。
1950,阿兰·麦席森·图灵设计出一个测试,其内容是,如果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试。如今,我们每天都在经历电脑端的“图灵测试”,比如,网页上的验证码设计就是为了区分你是机器还是人类。
作为有名的“图灵测试”,2014年6月7日,聊天程序“尤金·古斯特曼”(Eugene Goostman)首次成功“通过”了它。这让人们得以认真重视这个问题:如果你在将来交到了一位朋友,你分不清它与你的对话是机器还是人类所为,你是否为此做好了准备?
普通人还会觉得是天方夜谭,但通过技术演进,这绝非没有可能。到这一天,人类伦理可能就会遭受重大挑战。迄今为止,因为看起来太遥远,人们并没有真正就此类话题展开讨论。但从克隆技术的前例来看,即使技术端有可能性,人类内部也必然会争议四起。
可以这样说,我们完全没有做好准备。我们需要强人工智能来做什么?它们如何服务于我们的生活?我们将如何识别和控制它们?它能和人类通婚联姻吗?相比于思考这些问题,普通人更习惯于关心日常生活,比如下一顿要吃什么,或者,如何才能练出马甲线。而人们全然顾不上的是:人工智能思想家为这些问题操碎了心。