编者按
此篇是中国人民大学哲学院教授刘永谋在“科技大爆炸:AI如何向善”2019腾云峰会上的发言,主题是《AI向善,还是人类向善》。
在发言中,刘永谋教授认为,以AI为代表的科技能不能向善,从根本上说,是使用这些科技的人类的选择问题,是人类能不能向善的问题。准确地说,是人类能不能为了向善而努力、而付出、而牺牲的问题。
刘永谋教授相信,人类的人性是能够向善的,但善良以及变得更加善良从来都不是一件容易的、好玩的、赏心悦目的事情,相反,沉沦却是一件非常随性、舒适甚至能使人感觉到“躺赢”的舒服事;但是,即便如此,他依然坚持,人类应该勇敢地选择尝试着促人向善。
“AI向善”是一个非常有趣的说法,值得认真咀嚼。为什么不说“让AI善良”呢?当我们说“AI向善”的时候,意思是AI是个活物,它有向善的意欲,用个术语叫“意向性”。当然,你可以说,我们是在隐喻的意义上来说“AI向善”,并非在绝对意义上断定AI是个活物,更没有断定AI是人类意识层面上的活物。但是,无论如何,“AI向善”的说法暗示AI具有很强的自主性,以至于我们可以说“AI想要向善”或者“人类可以引导、规范或逼迫AI向善”。
以下为正文~~
AI究竟有没有自主性呢?
在当代技术哲学当中,技术自主性是一个基础的、争议性非常大的问题。一般说来,我们可以将各种观点划分为两种,即技术的工具论和技术的实体论。
技术的工具论认为,技术仅仅是一种工具,是实现目标的手段,本身并没有善恶,所谓技术的善恶实际是使用它的人的善恶。比如说,一把菜刀,你可以用来切菜,也可以用来杀人。菜刀杀人了,你不能怪菜刀。
技术的实体论认为,技术可不是简单的工具,而是负载着价值的,也就是说它是有自主发展的方向,有自身发展的方向,最终会实现它的目标,这是不以人的意志为转移的。比如说,很多人认为互联网天然就是反权威、去中心的,还有一些人认为区块链必须会推动公开和诚信。显然,“AI向善”的基本立场是技术的实体论的。按照这种观点,AI具有自主性,而既然如此,AI要向善或者向恶,我们如何可能左右它、控制它呢?
当然,除了这两种二元对立的观点外,有些哲学家尝试提出调和的观点,比如大技术哲学家Andrew Feenberg提出了“技术设计”的观点,意思是技术发展是同时协调技术要素和社会要素的结果。举个例子,我们骑的自行车,小时候主要载物载人,要有车筐、有后座,男人都骑着二八自行车,非常结实,现在很多人是拿来锻炼身体或者远足骑行的,所以要很漂亮,能上坡,现在的共享单车,主要是解决从家到地铁站所谓“最后一公里交通”的问题的,就非常简单。这些自行车技术要素上是大同小异的,区别就在于融合的社会要素不一样。
怎么看技术的自主性的争论呢?
第一,工具论向实体论的变迁,也就是说越来越多的人从工具论转向实体论,是技术发展得越来越复杂的结果。当技术相对比较简单的时候,人们比较容易相信工具论。而当技术变得越来越复杂,一般人难以或者完全理解不了,单个的人无法驾驭或操纵复杂技术系统的时候,人们比较容易相信实体论。这一点从前面的例子就可见一斑,工具论我们举菜刀为例,而实体论我们举互联网区块链为例。
第二,技术的自主性争论根源于如何理解人与技术、人与机器关系的问题。有人认为机器帮助人类,也有人说人机是对抗关系,而现在越来越多的讲人与机器是协同进化的。人机协同进化论很有道理,但这是一种“上帝视角”或“宇宙视角”,站在非常超脱的位置看人机关系。的确,人与机器必然是协同进化的,但是协同进化的最终结果也可能是人类灭绝。有意义、有价值的是人类视角,也就是说在人机协同进化中人类应该如何选择应对方案,以确保人族福祉。
从某种意义上说,AI出现让人类面对“新无知之幕”,即不知道人机协同进化的最终结果而要做出选择。政治哲学中讲的“无知之幕”,粗略说是有关国家如何建构的:大家聚在一起商量建成一个国家,结束人与人之间野蛮暴力状态,但是每个人都不知道在建成后国家中自己将处于哪一个阶层、哪一种角色,在这种对未来无知状态中来讨论应该如何安排新国家的社会制度。你想,你可能是社会中最弱势群体,你会不会给穷人提供必要的制度保障和救济措施呢?“新无知之幕”是一个隐喻,盲人摸象中应对未来与拟主体、能力超强的AI共同的生活。
第三,无论是工具论、实体论,还是技术设计论,它们都是哲学观念,而并非自然科学意义上的客观理论,也就是说你不能说在科学意义上哪一个对或哪一个就错了。哲学观念是不能用实验或观察来检验、证实或证伪的。因此,我以为,工具论与实体论的争论,在实践中直接指向的是技术能不能控制的问题,这个问题的答案不应该从技术中寻找,不在于技术,而在于人类,在于人类的选择:第一,我们有没有决心和勇气控制技术的发展,第二,更重要的是,为达成对技术的控制,我们愿意做出何种付出甚至牺牲。比如,手机很好玩,让人上瘾,以至于有人说:为什么要找女友找男友呢,难道是手机不好玩了吗?你想控制手机上瘾,本质上是控制你放纵从手机上获得的感官刺激。
我的想法,可以称之为“技术控制的选择论”。
因此,AI要向善,从根本上说,是使用AI的人类的选择问题,是人类能不能向善的问题,准确地说,是人类能不能为了向善而努力、而付出、而牺牲的问题。
善良从来都不是一件容易的、好玩的、赏心悦目的事情,所以老话说:人善被人欺,马善被人骑。相反,沉沦却是一件非常随性、舒适甚至感觉到“躺赢”的舒服事。想一想开挂打游戏的时候,你是不是有一种极度舒适的感觉?那时你想过没有,你在做着一件错误的事情?
现在的问题变成了:人类可不可能向善?
如果你相信人性的观念,也就是说你相信所有的人从根本上都有着同样的本质即人性的话,这个问题就会变成“人性可不可能向善”。
大家知道,在思想史上,人性善恶的问题,哲学家们也是争论不休,莫衷一是。有人说人性本善,有人说人性本恶,有人说人性一半善一半恶。到了后现代主义兴起,一些人认为根本没有一个什么人性,意思是人与人是不一样的,没有什么大家都一样的所谓人性,不管它是善是恶。言下之意,有的人善,有的人恶,有的善多一点,有的恶多一点,有的坏人变好人,有的好人变坏人,不一而足,因此并没有人人都适用的办法来治人。
仔细考察,你就发现人性善恶问题与人类向善问题是有差别的。你可能是恶的,也可能是善的,但是现在的问题是:你可不可能向善,变得更善良呢?
显然,如果你坚持人性不变,这个问题你就会给出否定的回答。因此,你想要人性向善,首要就要相信人性是可以改变的、可以被改造的,显然某种意义上,就是要相信没有什么万世不易的人性、人性是历史变化的。
我个人恰恰是相信:第一,人性是不定性的,是不断在发生变化的,第二,人性是可以被改造的,但是这极其困难。因此,我认为,“AI向善”是可能的,实现的终极方法只能是“人类向善”,当然在操作层面,“人类向善”可以是逐步的、一点一滴前进的。我并不相信某种一蹴而就的人性提升方案。
先说第一个问题:没有什么不变的人性。
我有一个我取名的“Lucy隐喻”来说明我的观点。现在主流古人类学研究认为,人类起源于同一个非洲的古猿,还给她取了一个名字叫Lucy。我的故事是:Lucy从树上下来,知道什么是人,或者她要走向何方吗?当然她不知道。也许,她只是扫视了一下身边的其他古猿,心里说了一句:我不做猿猴了!也许,她心里还说了:我要做人!可是,她并不知道什么是人。她所决定的不过是:我不要做猴子了!
我讲这个隐喻,是要说明人类真实状况是既不知所来、亦不知所往的。今天,我们离开猿猴已经很远很远了,但仍然不知道自己将去向何方。实际上,我们是从猿猴进化而来的,只是诸多人类诞生理论中的一种,不过是今天的主流观念而已。生物学研究有一种说法,隔绝状态下只需要四五百年就会演化出新物种。而根据当代科学观念,人类已经有百万年的历史,智人也有数万年的历史,显然人类在不断进化,如果有一个什么人性,也应该是不断变化的。
再说第二个问题:人性可以被改造,但是很困难。
人性如果在变化,这种变化只能是自然选择的吗?如果是这样的话,所有有目的人性提升都是徒劳的,我们只能听天由命、靠天吃饭。然而,自然选择是没有善恶指向的,没有证据表明最善者最适应环境,也没有证据最善良的人群在遗传上最有竞争力。于是,要想相信人类会向善,就必须相信人性是可以通过有目的的改造而提升的,我称之为“人性改造论”。
在我看来,人性改造在过去人类历史上并不成功。大家知道,人性提升工程过去主要靠文化改造,尤其是宗教活动和教育活动。有文字的八千字文明史,我不否认人性有了一些变化,我们与山洞里砸碎其他其他人的头盖骨吸食脑髓的山顶洞人、与五胡乱华时以“两脚羊”为军粮的人有了一些区别,但是每当我看到、听到各种当代发生的骇人罪行的时候,比如暗网上的人口贩卖、器官贩卖的故事,我对文化提升人性的功效感到沮丧。
过去一百年中,随着现代科学技术的发展,一些人想到可不可以用科技方法对人性加以向善改造,比如大科幻小说家H.G.威尔斯对使用生物学和心理学的方法提升人性就非常赞同。
大家知道,最新的基因编辑技术的发展,催生了用它塑造完美人类的念头。对屡教不改的强奸犯可以进行化学阉割,对那些不诚信的家伙是不是也有类似的科学方法从身体层面完成彻底的一劳永逸的改造呢?
对此,我认为不能过于自信。首先科技方法有无改造人性的效力,并无一致的结论。其次就算此种效力成立,国家或社会的制度性人性改造,结果是人人向善,还是一批人被改造为奴隶、另一批人成为生物学意义上的主人而最终落入威尔斯名著《时间机器》所预言的人族最终分化为两个对立物种的恐怖结局呢?我认为后一种可能性更大,因为以目前的人性状态,人类掌握改造人性科技而使之向善发展,就如同相当于抓住自己的头发离开地面。但是,happy ending不是没有可能,但想不付出努力和牺牲就得到happy ending,是不可能的。
当然,我并不否认人性可能进化,只是已知数千年的人类文明史并没有人类大幅度高尚化的明显迹象或证据,因此对人性改造论的乌托邦必须予以足够的警惕。从既有人类史看,人性进化可能会耗费数十万甚至百万数量级的时间,而在这之前,人类很可能已经自我毁灭。但是,即便如此,人类是应该勇敢地选择尝试着改善人性,还是选择坐等悲剧发生呢?这正是面对AI突飞猛进的时候,人类必须要做出的选择。
你们看到,我是一个极其悲观的乐观主义者。
*免责声明:本站文章图文版权归原作者及原出处所有 ,文章内容为作者个人观点,并不代表本网站。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。