1、
在这两天的2019世界人工智能大会(WAIC)上,马云和埃隆 · 马斯克进行了一场对话。
对话围绕“人工智能”、“火星移民”、“就业”等主题展开。
总体来说,两人的观点有不少分歧:
马云认为人工智能最终是为人类服务的;马斯克认为人工智能会取代人类;
马云认为未来要用技术把地球建设得更美好;马斯克认为地球以后可能面临威胁,人类要到火星上居住;
马云认为心是智慧的来源,未来的工作更多是享受生活,学习艺术;马斯克认为人工智能会让工作失去意义,人类应该学习预测未来,创造未来。
……
于是有些人认为,马斯克才是真正伟大的梦想家,他充满忧虑却富有激情。而马云只是一个保守的大商人,安逸享乐,只看当下。
有人说,马斯克用自己的想象力和自由创新的精神,给因循守旧的马云好好上了一课。
真的是这样吗?我不那么认为。
也许马斯克自己都不认为,他给马云“上了一课”。更有可能的,是某些媒体强加情绪,自己想给马云“上课”。
2、
他们认为马云固步自封,消解主题,用自己“伟光正”的乐观,回避人类和技术的未来。
相比之下,马斯克的发言具有前瞻性、思想性,他的悲观主义,更能引起人们的共鸣和思考。
但世界上很少有绝对的事情。
你对一件事情乐观,就等于对另一件事情悲观。
马云对人类的未来非常乐观,认为机器不会比人类更聪明,机器是人建造的,将为人所用。
这种对人类未来的乐观,本质是对技术发展趋势的悲观。
马斯克恰恰相反,这名技术主义者,对人类的未来非常悲观,提出了义正言辞的警告,警惕人被人工智能取代。
他对技术的发展趋势,是乐观的。
我们很难给“乐观”和“悲观”下一个定义,更难去以此评判两个人谁高谁低,指指点点这人如何如何,那人怎样怎样。
他们分别代表了两个派系和阵营,一方认为人类终将获胜,一方认为机器统治世界。
更重要的是,两个派系,各有拥趸。
支持“人类必胜”的,除了马云,还有李开复……
认为“机器不朽”的,除了马斯克,还有比尔盖茨,还有霍金……
他们每个人都很厉害,每个人单拎出来,都是各自领域的专家,都能发表一番见解,都能激辩三天三夜。
事实有真假,观点无对错。他们肯定不是为了给谁“上课”,他们只是为了表达自己的观点。
他们表达的,是对未来20年、30年、甚至50年的趋势判断,他们更多讨论的,是一些永远不会有答案的终极问题:
人性善恶的分歧是什么?技术的边界到底在哪里?
这是两人对话的意义。
3、
马云认为,人是善的。人是善的,制造出来的机器也是善的。
机器,最终会为人类服务。
早在1950年的时候,科幻作家阿西莫夫就在《我,机器人》中提出了“机器人三大定律”:
第一定律:机器人不得伤害人类个体,或者目睹人类个体遭受危险而袖手不管;
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保护自己的生存。
这三大定律,将一直成为未来人工智能时代的美好祝愿。
马云,显然是站在善良的一面。
但马斯克却说,不行,我们要警惕。他更多时候,站在人性恶的一面。
在人工智能这件事上,我们应该如临大敌。
有这样一种可能,这个世界上,存在着“邪恶科学家”,你不知道他们脑子里装的是什么,但他们想制造出机器人毁灭人类,包括他自己。
有一种说法是,如果把整个地球的历史,浓缩为24小时,那么人类的历史,只存在了3秒。既然如此,为什么人类一定是地球的主宰?为什么人类会一直是主宰?
只要有一个邪恶科学家,只要有一个坏的人工智能,就可能威胁到全人类。
想让全世界科学家都不反人类,我们对人性的复杂,有多大的自信?
那么,人性到底有多复杂?
---
今年1月份的时候,我去美国游学,参访了著名的Founders Space孵化器。这家孵化器的创始人,也是被称为“硅谷教父”的史蒂夫·霍夫曼(Steve Hoffman)。他孵化出的一家著名公司,叫Instagram。
他分享了很多关于未来的趋势,其中有一项技术,是和人工智能同样重要,同样被讨论最多的基因编辑。
关于基因编辑,我一直认为人类还没准备好。这会带来伦理上的平等问题,也会带来不可控的技术问题。这也是为什么,去年中国科学家贺建奎宣布用基因编辑技术修改了一对双胞胎婴儿的基因,会引起轩然大波。
我问霍夫曼:“人类真的会改变自己的基因吗?”
结果他反问我们:“你觉得呢?如果有一种药物,可以修改基因,让你变得绝顶聪明,充满智慧,你们会吃吗?”
在场的人想了想,摇了摇头,不会。
“真的不会吗?”
假如美国和伊朗发生战争,伊朗很可能打不过美国,怎么办?
如果可以用科技,用“聪明药”改变人的智商,改变基因,伊朗人会愿意修改吗?
这是比核武器还要厉害的技术。制造核武器还受原料的限制,但是基因编辑的威力却可能是无穷无尽的,人类大脑的创造力,是超出想象的。
伊朗人打不过,估计会。活下来,比改基因带来的副作用好吧。
如果伊朗人改,美国人会改吗?
如果美国人改,那德国人、法国人、英国人呢?你呢?
人性,实在太复杂。
人类社会并没有达成意识形态的共识,只要存在分歧和竞争,任何能帮助局部获得优势的技术,在动态发展的博弈中,都会不断被使用,甚至滥用。
这是不得不防的风险,人类怎么能不警惕。
他们讨论的问题,并不是对人类未来的悲观和乐观,而是对人性的悲观和乐观。
4、
如果说,两个人关于人性的讨论太抽象、太复杂、太形而上的话,那还有关于技术边界的讨论:
真的有可能造出那种无所不能超级无敌的人工智能吗?
我可以把有关技术发展的阶段和观点说给你听,也许你听完会有自己的判断。
业界把人工智能按照先进程度,分为三种:弱人工智能,强人工智能,和超级人工智能。
你猜,下赢李世石和柯洁的AIphaGo,是哪一种?
AIphaGo是弱人工智能。尽管你觉得它很强大,但它只能在特定领域和既定规则中表现出强大的智能。
强人工智能,不受领域和规则的限制,只要是人能干的事情,它都能干。强人工智能,才是真正的人工智能。
而超级人工智能,是远远超越人类的智能。
超级人工智能什么时候会出现,2045年。提出这个论断的人,是著名的库兹韦尔。
库兹韦尔是Google公司的工程总监,美国国家科技奖章获得者、世界上最重要的发明奖Lemelson-MIT获得者,被《Inc.》杂志称为“爱迪生的法定继承人”,被《福布斯》杂志称为“最终的思考机器”,拥有13项荣誉博士头衔。
他提出了著名的“奇点理论”。他认为科技发展是符合幂律分布的。前期发展缓慢,后面越来越快,直到爆发。
100年前,莱特兄弟发明飞机,今天我们想移民火星;70年前,人类发明计算机,每秒能计算5000次,现在你戴在手腕上的苹果手表,速度比它快十几万倍。科技的发展,越来越快,越来越快。
他说如果以幂律式发展,2045年,强人工智能就会出现。
然后,然后,可怕的事情发生了。在到达这个节点一小时后,电脑立刻推导出了爱因斯坦的相对论;而在这之后一个半小时,这个强人工智能变成了超级人工智能,智能瞬间达到了普通人类的17万倍。这就是改变人类种族的“奇点”。
耸人听闻。
反对者认为,这是不可能的。比如李开复老师,就在《人工智能》中写到,这是对技术发展过于乐观,忽略了必将遇到的重大瓶颈。
比如著名的摩尔定律说,芯片的计算力每18个月翻一番,价格降一半。这个定律左右了科技界很多年,但最近也因为遇到物理极限,开始放缓。
还有反对者说,如果真的出现超级人工智能,一定会消耗大量的能源电力,按照今天的技术发展看,可能未来全世界的电力都要用上去才行。
所以马云和马斯克讨论的另一个问题,是关于技术的边界到底在哪里。
他们一个是对物理规律的尊重,一个是对技术发展的坚信。
不知道你听完之后,什么看法。
而我决定,保持健康,好好工作,等到2045年,再来看看两个阵营,谁对谁错。
最后的话
是媒体、舆论、你、我想给马云上课。
人性到底是善是恶,技术的边界到底在哪里,这是两套截然不同的价值观体系,一个注重当下,一个看重未来。
我们不能简单说谁是乐观主义者,谁是悲观主义者;谁是地球主义者,谁是宇宙主义者;谁是人文主义者,谁是科技主义者,更不能说,谁给谁上了一课。
这个世界同时需要这两派人,他们同时表达自己的观点,让大家能够讨论、理解、思辨。
那么,我们到底该听谁的?回到现实中应该怎么做?
我想可以把这两种想法同时装进大脑,学着让它们和平共处,相安无事。
菲茨杰拉德有一句话:
对一流头脑的考验,是同时拥有两种截然不同的想法,但仍然能够执行的能力。
我想这才是两人对话的意义。