自AlphaGo赢得围棋比赛以来,人工智能成为全世界关注之焦点。无论是主动拥抱,还是被动接受,智能化趋势已经势不可挡。
2017年4月英国工程与物理科学研究理事会(EPSRC)发布了《类人计算战略路线图》,明确了类人计算的概念、研究动机、研究需求、研究目标与范围等。2017年7月我国国务院发布了《新一代人工智能发展规划》,提出了大力助推人工智能发展的指导思想与战略目标等。这些顶层设计的战略性推动,再加上资本力量的聚集、科技公司的布局、各类媒体的纷纷宣传,以及有识之士的全方位评论,加快了智能化社会到来的步伐,甚至有人把2017年称之为“智能年”。
人工智能正在改变世界,而关键是人类应该如何塑造人工智能。我们在“热”推进的同时,必须进行“冷”思考,应该充分认识到各界人士在满怀信心地全力创造机会,抢抓新一轮智能科技发展机遇之时,还需要未雨绸缪地深入探讨智能化社会可能面临的严峻挑战。
事实上,人工智能对政治、经济、社会、法律、文化甚至军事等方面都带来了多重影响,而我们现在还没有足够的知识储备和恰当的概念框架来理解、应对、引导这些影响,这才是智能化社会真正的危险之处。本文立足于哲学视域,来探讨智能化社会有可能带来的十大挑战。
挑战之一:人工智能有弱版本、强版本和超版本三种形式,目前大力发展的弱人工智能,使人类生活的世界处于快速变化之中,这在概念建构上使人类措手不及。如何重构概念框架,丰富现有的概念工具箱,是人类面临的概念挑战。
概念是人类认识世界和理解世界的界面之一。概念工具箱的匮乏,不只是一个问题,更是一种风险,因为这会使我们恐惧和拒绝不能被赋予意义和自认为没有安全感的东西。
丰富现有的概念工具箱或者进行概念重构,有助于我们积极地表达对人工智能未来的展望。因为人工智能科学家在人类智能的机制尚不明确的前提下,试图制造出智能机器,首先需要界定“智能”是什么。这是事关人工智能的框架问题,即在什么样的概念框架中,理解智能和实现智能。
丹尼特认为,我们不能把框架问题简单地归属于一种技术障碍或理论难题,而应该看成是一个新的深层次的认识论问题。这也是为什么对智能的不同认知,形成了智能实现的不同范式的原因所在。
在人工智能60年的发展史上,最初占有统治地位的是符号主义范式。代表人纽厄尔和西蒙把人类的认知看成是信息加工过程,把物理符号系统看成是体现出智能的充分必要条件。这种概念框架可追溯到弗雷格和罗素的逻辑原子主义思想,而逻辑原子主义又继承了传统西方哲学中重分析的理性主义传统,以牛顿力学为核心的近代自然科学研究印证了这种哲学的有效性。第一代人工智能科学家正是在近代自然科学研究范式的熏陶下成长起来的,他们不仅潜移默化地延续了传统西方哲学的思维方式,而且继承了以牛顿力学为核心的近代自然科学方法论观念。
在这个概念框架中,不仅还原主义、理性主义、物理主义、决定论的因果性等观念占据主导地位,而且我们完全可以把世界形式化的界限,看成是发展人工智能的界限。
这种理想化的概念范式在处理人的日常感知问题时,遇到了发展性难题。与此同时,人工智能科学家受神经科学的启示,试图通过神经网络的建模来模拟人类的智能的进路从边缘走向核心。
21世纪以来,随着大数据、云计算、图像识别以及自然语言处理等技术的发展,以深度学习为基础的联结主义范式得到快速发展。这种范式在观念上把计算机看成是类人脑,在方法上不再求助于形式化的知识推理,不再通过求解问题来体现智能,而是求助于统计学,通过模拟神经网络的联结机制,赋予计算机能够基于大样本数据进行自主学习的能力,来体现智能。这就把人工智能的研究,从抽象的知识表征转向实践中的技能提升,从原子主义的主客二分的理性分析方式,转向能动者与其所在的世界彼此互动的感知学习方式。
能动者的技能提升是在学习过程中进行的。技能不能被等同于操作规则或理论体系,而是能动者在其世界中或特定的域境(context)中知道如何去做的技术能力。这种范式恰好与来自胡塞尔、海德格尔、梅洛-庞蒂和德雷福斯的现象学相吻合。这也是为什么威诺格拉德于20世纪80年代曾在斯坦福大学的计算机科学课程中讲授海德格尔哲学、麻省理工学院的第二代人工智能科学家也不像第一代人那样排斥德雷福斯的哲学主张的原因所在。
人工智能发展的这种范式转换,不仅揭示了人类体验世界、与世界互动,以及在理解世界并赋予其意义上,使世界语义化的新方式,而且正在全方位地改变着过去习以为常的一切架构。
一方面,基于统计学和随机性的算法建模,赋予智能机器在不断实践中能够自主提高技能的能力,使得机器学习的不确定性和不可解释性成为智能机器的基底背景,而不再是令人担忧的认识论难题;
另一方面,机器智能水平的高低,取决于其学习样本的体量或规模,这强化了体知型认知(embodied cognition)的重要性。智能机器在学习过程中表现出的不确定性,以及人工智能所带来的世界的瞬息万变,要求我们重构现有的规则与概念。因此,全方位地丰富和重构哲学社会科学的概念框架,是我们迎接智能化社会的一个具体的建设目标,而不是一个抽象的理论问题。
挑战之二:人工智能是由大数据来驱动的,如何理解数据之间的相关性所体现出的预测或决策作用,是人类面临的思维方式的挑战。
人类智能最大的特征之一就是在变化万千的世界中,能够随机应变地应对局势。这种应对技能是在反复实践的过程中练就的。在实践活动中,人类是“寓居于世(being in the world)”的体知型主体。人与世界的互动不是在寻找原因,而是在应对挑战,而这种挑战是由整个域境诱发的。
人类的这种应对技能是建立在整个模式或风格之基础上的,是对经验的协调。人与世界的关系是一种诱发-应对关系。同样,人工智能的世界是由人的数字化行为构成的数据世界。
一方面,人类行为的多样性,使得数据世界变化万千,莫衷一是;另一方面,数据量的剧增带来了质的飞跃,不仅夯实了机器深度学习的基石,而且使受过长期训练的机器,也能表现出类似于人类智能的胜任能力,成为“寓居于数据世界”的体知型的能动者。
这样,智能机器与数据世界的互动同样也不是在寻找原因,而是在应对挑战,这就使人类进入了利用大数据进行预测或决策的新时代。
大数据具有体量大、类型多、结构杂、变化快等基本特征。在这种庞杂的数据库中,我们必须放弃把数据看作是标志实物特征的方法,运用统计学的概念来处理信息,或者说,凭借算法来进行数据挖掘。这样做不是教机器人如何像人一样思考,而是让机器人学会如何在海量数据中挖掘出有价值的隐藏信息,形成决策资源,预测相关事件发生的可能性。
然而,当数据成为我们认识世界的界面时,我们已经无意识地把获取信息的方式,交给了搜索引擎。在搜索算法的引导下,我们的思维方式也就相应地从重视寻找数据背景的原因,转向了如何运用数据本身。这就颠覆了传统的因果性思维方式,接纳了相关性思维方式。
因果性思维方式追求的是,如果A,那么B;而相关性思维方式追求的是,如果A,那么很有可能是B。这时,A并不是造成B的原因,而只是推出B的相关因素。就起源而言,因果性思维方式是与牛顿力学相联系的一种决定论的确定性思维方式,而相关性思维方式则是与量子力学相联系的一种统计决定论的不确定性思维方式。
相关性思维与因果性思维,属于两个不同层次的思维方式,不存在替代关系。前者是面对复杂系统的一种横向思维,后者则是面对简单系统的一种纵向思维。比如,在城市管理中,智能手机的位置定位功能有助于掌握人口密度与人员流动信息,共享单车的使用轨迹有助于优化城市道路建设等。这些在过去都是无法想象的。
另一方面,随着数据实时功能的不断增强和推荐引擎技术的不断发展,人与数据环境之间的适应关系也发生了倒转:不是人来适应数字环境,而是数字环境来适应人。这种新的适应关系也是由相关关系引领的。
挑战之三:在一个全景式的智能化社会里,如何重新界定隐私和保护隐私,如何进行全球网络治理,是人类面临的新的伦理、法律和社会挑战。
人的数据化生存,不是创生了一个与现实世界相平行的虚拟世界,而是削弱了虚拟与真实之间的划分界限,创生了一个超记忆(hyper-memorisability)、超复制(hyper-reproducibility)和超扩散(hyper-diffusibility)的世界。
在工业社会,个人隐私是非常重要的,蓄意打听他人的私人信息被认为是不礼貌的,甚至是不道德的,家庭是典型的私人空间,公共场所是典型的公共空间。私人空间通常被认为是私密的、自由的或随意的、自主的领域,而公共空间被看成是公开的、不自由的或受约束的、能问责的领域。
然而,当人类生存的物质世界成为智能化的世界时,常态化的在线生活使人具有了另外一种身份:数字身份或电子身份。
一方面,无处不在的网络,即使是私人空间或私人活动,也成为对公共空间或公开活动的一种重要延伸。过去属于私人的信息或国家机密,现在会在不被知情的情况下,被复制和传播,甚至被盗用;另一方面,编码逻辑的活动越来越标准化和碎片化,自动算法系统作为新的认知层面,建构了个人的电子档案,能够实时地解读和编辑个人行为、筛查个人的心情、追踪个人的喜好,甚至能够抓取个人对信息的感知趋向,进行有针对性的信息推送。
而这种推送服务,不仅会加固社会分层,而且具有利用价值,比如,保险公司有可能在掌握了个人病史的情况下,提高保费;大学招生部门有可能把个人网络档案作为决定是否录用学生的参考依据,等等。与传统的社会化和社会控制机制相反,在智能化时代,人的社会化成为无形的和不可解释的。这就增加了社会现象的不透明性和人的透明性。
对于个人而言,网络数据和信息的不可删除性,个人注意力的货币化,人的行为随时被置于网络监视之中,以及无法保证技术的匿名性,都会导致人的隐私权的丧失,还会强化信息的不对称和权力的不对称,因而对传统的隐私观提出了巨大的挑战。
传统的隐私观包括两个方面:一是个人对希望呈现的信息有控制权,二是个人对属于或关于自己的信息有删除权。当人的数字化生存使得人们失去了对自己信息的控制权的同时,也就失去了对自己信息的删除权。在欧盟关于数据保护条例的讨论中,从互联网中消除信息的决定权,是一个最有争议的话题,其中,技术性的问题比我们想象的更加复杂。
网络数据的被转移、被复制以及被控制,还有网络智能机器人的被使用,不论是在个人层面,还是在国家层面,都打开了有关隐私和匿名议题的潘多拉魔盒。因此,随着物联网的发展,在全球互联的世界中,如果我们希望通过法律条文和人类智慧,来应对隐私问题,就需要跟上技术发展的步伐,需要各级部门为掌握了大量个人数据并重新规划人类社会发展的各类科技公司建立负责任的行动纲领。
挑战之四:随着人的网络痕迹不断留存,应该如何对待很有可能出现的数字人,是人类面临的对现有生命观的挑战。
物联网创造了把人、物和世界或自然界联系起来的网格,智能化技术的发展又进一步使得数据、信息和知识,还有思想和行为痕迹,成为永存的。这已经为数字人的出现创造了条件。
数字人不仅能永生,而且更重要的是,它能够模仿出之前只有生命才具有的许多特性。这就对传统的生命观提出了挑战,并带来了许多需要重新思考的问题。在亚里士多德看来,心灵(灵魂)不能存在于身体之外,并且,与身体一起死亡,而笛卡尔则维持了心灵和身体的二分。今天,人工智能科学家能够把人类的心灵上传到一台机器(或网络)中,这将意味着,人的心灵可以与人的身体分离开来,被附着在一个网络化的具有自主学习能力的虚拟身体之上。
如果未来有一天,数字人能够借助于自然语言处理技术和深度学习技术,来模仿真人的发音,通过计算机视觉、图像识别等技术,来模仿真人的行为。那么,是否允许未来会出现专门定制数字人的公司呢?应该制定什么样的道德法律来规范数字生命呢?
进一步设想,如果未来有一天技术允许一个人的心灵在他的身体死亡后,在一个不同的主人(比如,限于一块硅电路或一个分布式网络)的体内继续运行,将会发生怎么样的情况呢?这样的实体依然满足用来描述人还活着的标准吗?两者将会拥有相同的心灵吗?而且,就所有的实践考虑而言,它会将永远有能力学习、反应、发育和适应吗?这将会违背活的有机体是由细胞组成的这一必要条件。但是,如果我们选择坚持这个必要条件,我们将如何拓展我们的生命观呢?这还会涉及法律、医疗、伦理、经济、政治乃至军事等方面的问题。
挑战之五:增强现实技术、生物工程技术以及量子计算的发展,应该如何对待有可能出现的生化电子人,是人类面临的关于身体观的挑战。
我们通常认为,如果人的身体的某个功能器官失能之后,有可能用人造器官或器件来替换或补救,比如,心脏起搏器、人造关节、隐性眼睛、助听器,等等,这些器具只被看成是恢复人体失能器官的功能,不会对人体构成威胁。
然而,在智能化的社会里,当芯片技术、生物工程技术和量子算法等整合起来时,将会出现名目繁多的增强型技术。这些技术的人造物,比如生物芯片,不只是具有医疗的作用,更重要的是具有强化人体功能的作用,那么,我们应该如何规范这些器件的使用范围呢?不论是为了医疗的效果,还是为了增强的效果,当人体的主要功能性器官有可能被全部替换时,这个人还是原来的那个人吗?
这就遭遇了古老的特修斯之船悖论。意思是说,一艘在海上航行几百年的船,只要一块船板腐烂了,就会被替换掉,以此类推,直到所有的船板都被替换掉之后,那么,这艘船还是原来的那艘船吗?哲学家霍布斯后来延伸说,如果用特修斯之船上替换下来的船板,重新建造一艘船,那么,这两艘船中那个船才是真正的特修斯之船呢?
这个悖论揭示了如何理解事物的同一性问题。它同样适用于智能化社会中如何理解人体的同一性问题。我们一直认为,人的身体是指有生以来的器官、骨骼、神经、血液等功能器官构成的血肉之躯,虽然这些器官会不断老化,人每天都在进行新陈代谢,而具有时间连续性的身体变化,不会影响我们对身体同一性的认同。
当技术发展到人的主要器官可以被替换时,就可能出现生化电子人,那么,生化电子人仍然是人吗?我们如何划定人类和非人类之间的界线?
更令人担忧的是,随着医疗技术的发展,也许有一天内置于我们体内的纳米机器人能修复任何需要修复的器官或组织,而不会影响人的生命或身份。但是,如果这些机器人是受外部控制的,就必然会带来许多问题,比如,如何看待自由意志;从动物伦理的视域来看,当人类有可能在生物上成为永生的时,对环境和可持续性来说将是毁灭性的;人类是否有权比其他生物活得更长久,人类是否应该建立规则和条件来终止生命或同意安乐死,以及如何决定谁应该活着和死去。
挑战之六:人的数字化生存,有可能使得理性—自主的、与身体无关的自我意识,被第三空间中的社会—关系的、与身体相关的自我意识取而代之,这是人类面临的重构自我概念的挑战。
在智能化的社会中,人的在线生活使得在线交流成为人类交往的一种习惯方式,人们把这种交流的网络空间称之为“第三空间”。这是由共享的群体意识所塑造的一个空间,现在流行的微信朋友圈就是典型一例。
这种空间是位于严格意义上的个人隐私和大规模公开化之间的一个共享的交流空间。在这个空间里,近代西方思想中传统的个人主义的理性—自主的自我意识,被第三空间中集体主义的社会—关系的自我意识取而代之。个人主义的理性—自主的自我概念是与身体无关的、原子式的个体自我,这种自我强调实体性,也能被作为科学研究的对象,由他者进行分析和预测,成为一个他治的概念。
与此不同,阿伦特编撰了“诞生性”这个概念,使自由与多元性结盟,使多元性不再被看成是对自由的约束,这样就把强调“自由”的自我看成是立足于多元性的存在者,而不是独立自主的存在者。
独立自主是一种理想。把自由理解为是独立自主,要以牺牲现实为代价。因为不是一个人,而是人类栖居在地球上,没有人能够做到完全独立自主,人的“自由”也不是在真空中产生的,而是在受约束的可供性的域境中产生的。所以,个体自我的自由,并不是绝对的,而是相对于他者而言的。
第三空间中的自我概念强调的正是这种与他者的“关系性”或“社会性”。人类自由的这种语境依赖性,把自我定义为是通过多重关系来构成的。在多重关系的交织中,人们往往从坚固的个人隐私观念,转向了各类新媒体上的信息共享:既包括私下公开个人信息,也包括共享受版权保护的学术资料,还有小道消息,甚至不加证实的各类谣言等。因此,人的网络化生活一方面使人类从信息匮乏的时代,转变为信息过剩的时代,另一方面又把人类带到一个信息混杂、难辨真伪的时代。
在这种情况下,人的身份的完整性,是由两把钥匙开启的,一把钥匙由自己拿着;另一把钥匙由他人拿着。这就是为什么在公共空间向他人显现,是人类境况的核心特征,为什么身份与互动如此密切地联系在一起,为什么注意力成为人类体验多元性的关键能力的原因所在。
关系自我之所以强调在与他者的交流互动中来彰显自己,是因为人不仅是目标的追求者,也是意义的塑造者,人与人之间的彼此互动也会产生新的意义和新的可供性。因此,如何重塑社会—关系自我,成为我们面临的关于自我概念的挑战。
挑战之七:人工智能向各行各业的全面渗透,使人类有可能摆脱就业压力,获得时间上的自由。然而,如何利用充足的自由支配时间,却成为人类面临的比为生存而斗争还要严峻和尖锐的挑战。
随着计算机的运算能力与储存能力的不断提升,特别是有朝一日随着量子计算机的出现,人工智能不只是局限于模拟人的行为,而且还拓展到能够解决复杂问题。人工智能的这些应用前景,越来越受人重视。
为此,许多人认为,人工智能的普遍应用有可能将会使许多工人、医生、律师、司机、记者、翻译员、服务员甚至教师等人群失业,但也有人认为,人工智能并不会造成整个职业的消失,只是替代工作内容,使人机协同成为未来的主流工作模式。就像工业革命时代,大规模地开办工厂,使得大量农民不得不离开农田,进入城市,成为工人,并诞生了银行、商场、各类中介等机构一样,智能革命时代也会不断地创造出新的就业岗位,使大量职业人员改变工作范式,并诞生前所未有的新职业。
因此,我们面临的问题,不应该是因恐惧失业而阻止人工智能的发展,而是反过来,应该前瞻性地为人工智能的发展可能带来的各种改变,做好思想准备和政策准备。事实上,问题的关键并不是人工智能的发展会导致大量人员失业那么简单,而涉及更加根本的问题:如何改变人类长期以来形成的就业观和社会财富的分配观?
如果我们追溯历史,就不难发现,我们的地球发展已经经历了两次大的转折:第一次大转折是从非生命物质中演化出生命,这是生命体的基因突变和自然选择的结果;地球发展的第二次大转折是从类人猿演化出人类,而人类的出现使自然选择的进化方式首次发生了逆转,人类不再是改变基因来适应生存环境,而是通过改变环境来适应自己的基因。这就开启了人类凭借智慧迎接人造自然的航程。
从农业文明到工业文明,再到当前的信息文明,人类始终在这条航线上勇往直前。在这种生存哲学的引导下,为生存而斗争和摆脱自然界的束缚,直到今天依然是人类最迫切解决的问题,甚至也是整个生物界面临的问题。
一方面,科学技术的发展、工具的制造、制度的设计,都是为有助于实现这一目标而展开的;另一方面,人类的进化,包括欲望和本性的变化,其目的都是希望付出最少的劳动获得最大的报酬,特别是我们熟悉的教育体制也是为培育出拥有一技之长的劳动者而设计的。在全球范围内,这些设计目标的类同性,竟然与民族、肤色、语言等无关。这无疑揭示了人类有史以来的生存本性。
然而,随着人工智能的发展,当程序化和标准化的工业生产、基于大样本基数的疾病诊断、法律案件咨询,甚至作曲、绘画等工作都由机器人所替代时,当人类的科学技术有可能发展到编辑基因时,地球的发展将会面临着第三次大转折,那就是迎来人机协同,乃至改变人体基因结构的时代。
到那时,有望从繁重的体力劳动与脑力劳动的束缚中完全解放出来的人类,应该如何重新调整乃至放弃世世代代传承下来的以劳取酬的习惯和本能的问题,以及人类如何面对改造自己基因的问题,就成为至关重要的问题。
也就是说,当人类的休闲时间显著地增加,而我们所设计的制度与持有的观念,还没有为如何利用休闲时间做好充分的思想准备时,当科学技术的发展使我们能够设计自己的身体时,我们将会因此而面临着一种“精神崩溃”吗?对诸如此类问题的思考,使我们不得不面对更加现实的永久性问题:我们在摆脱了就业压力而完全获得自由时,如何利用充足的自由支配时间,如何塑造人类文明,成为人类文明演进到智能化社会时,必然要面临的比为生存而斗争还要严峻而尖锐的挑战。
挑战之八:当人类社会从由传统上求力的技术所驱动的工业社会,转向由求智的技术所驱动的智能化社会时,如何在智能技术的研发中把人类的核心价值置入到设计过程之中,使人工智能有助于塑造人的意义,是人类面临的关于技术观的挑战。
长期以来,工具作为人造物通常被看成是中性的。技术是把双刃剑的说法,是针对技术的应用者而言的。在这种情况下,衡量技术善恶的天平将会偏向哪个方向,取决于应用者的伦理道德,与制造者无关。即使新石器时代磨制的石器,也能用来伤人,更不说原子能技术的出现。
许多技术哲学家对这种工具主义的技术观提出了批评,认为技术并不是中性的,而是承载着内在价值的。这种内在价值既是由技术设计者镶嵌在技术物之中的,也指技术使用者沉迷于技术物之后,会受其价值的影响。比如,小孩子沉迷于网络游戏而不能自拔的一个主要原因,是智能游戏能够根据玩者的历史纪录,给予兴趣的引导和刺激。
从总体上讲,人类创造技术人造物,在主观上,虽然不是为了改变人,而是为了满足人的需求,但在客观上,却反过来又在无形中重塑了人,也就是说,人在使用技术的同时,也被技术所改变。
特别是,当我们生活在“智能环境”中时,一方面,物质环境本身具有了社会能力,成为一种环境力量,能够起到规范人的行为和重塑公共空间的作用,甚至还能起到社会治理的作用。
比如,城市交通要道上架设摄像头,能够约束司机的驾驶行为,使他们不得不把遵守交通规则内化为一种良好的驾驶习惯;在智能手机中下载高德地图,不仅能实时掌握道路拥堵情况,方便出行,而且有助于缓解主干道上的交通压力;许多重要场合在安装上人脸识别系统之后,不相关的人员将无法入内,从而变成了一项加强安保与监管的自动措施;用人单位在记录职工考勤时,如果用人脸识别系统取代传统的电子打卡方式,就能够避免替人打卡现象,如此等等。
但另一方面,智能手机携带的地理定位功能,让人的行踪成为透明的,网络活动留下的各种数据,让人的兴趣、爱好、生活习惯以及社会交往等成为透明的,人脸不仅是名字的标签,还承载了许多可以机读的网络信息,这些信息既能造福于人类(比如,用于病理诊断),也会损坏人的利益(比如隐私泄露)。
因此,在智能化的社会中,技术善恶的天平将会偏向哪个方向,不再只是取决于使用者,而且更取决于设计者。在当前流行的人工智能范式中,算法模型是基于过去数据的学习训练,来决定未来的结果。算法模型的设计者选择的数据不同,训练出来的智能系统的偏好就会不同。这样,人工智能事实上并不是在预测未来,而是在设计未来。
算法在表面上只是一个数学模型,但事实上,这样的数学模型并不客观,甚至还可能暗藏歧视。在这种情况下,我们讨论问题的重点,就不是探讨是否允许发展人工智能或准许人工智能技术进入社会的问题,因为排斥人工智能已经没有多大意义,当代人已经生活在人造物的世界中,无法离开技术而生存,而是应该讨论如何在智能技术的研发中把人类的核心价值置入到设计过程,如何发展与人工智能的良性互动,如何树立一种嵌入伦理责任的技术观等问题。
挑战之九:在知识生产领域内,软件机器人的普遍使用,将会为科学家提供科学认知的新视域,如何对待有软件机器人参与的分布式认知,是人类面临的对传统科学认识论的挑战。
在智能化的社会里,互联网就像今天的水、电、气一样,不仅成为日常生活中的基础设施,而且成为社会数字化程度的标志和智能化发展的前提。
有所不同的是,网络化、数字化与智能化的结合,既是平台,也是资源。它们不仅创设了无限的发展空间,具备了很多可供开发的功能,而且为我们提供了观察世界的界面。特别是,对于那些希望从互联网的知识库里“挖掘”有用信息的人来说,搜索引擎或软件机器人成为唾手可得的天赐法器,既便捷,又快速。
问题在于,当搜索结果引导了人类的认知趋向并成为人类认知的一个组成部分时,人类的认知就取决于整个过程中的协同互动:既不是完全由人类认知者决定的,也不是完全由非人类的软件机器人或搜索引擎决定的,而是由相互纠缠的社会—技术等因素共同决定的。弗洛里迪称之为“分布式认知”。
一种分布式认知的形式体现在维基百科中。我们知道,维基百科实施的开放式匿名编辑模式,在极大地降低了知识传播和编撰的门槛时,首先必须面对词条内容的可靠性问题。维基人采取了两条途径来确保其可靠性:一是通过集体的动态修改来加以保证;二是让软件机器人自动地承担起监管和维护的任务,随时监测和自动阻断编辑的不正确操作。
比如,在加州理工学院学习的维吉尔·格里菲斯开发的Wikiscanner软件,就可以用来查看编辑的IP地址,然后,根据具有IP地址定位功能的数据库(IP地理定位技术)来核实这个地址,揭示匿名编辑,曝光出于私心而修改词条的编辑,从而自动维护了维基百科词条内容的质量。软件机器人的警觉性远远高于人的警觉性,因而极大地提高了维护效率,成为维护知识可靠性的一位能动者(agent)。
另一种分布式认知的形式体现在新型的科学研究中。2017年7月7日出版的《科学》杂志集中刊载的一组文章简要介绍了软件机器人直接参与人类认知的许多事例,这些事例表明,软件机器人不仅具有监管、搜索、推送等作用,而且开始参与到科学研究的过程之中,正在改变科学家的科研方式。比如,宾夕法尼亚大学积极心理学中心的心理学家可以运用算法,根据社交媒体上的话语,来分析大众的情绪、收入和意识形态,从而有可能在语言分析及其与心理学联系方面带来一场革命。
因此,当科学研究的结果也依赖于机器人的工作时,我们的认识论就必须由只关注科学家之间的互动,进一步拓展到关注软件机器人提供的认知部分,形成“分布式认识论”。这是对传统认识论的挑战。
挑战之十:当整个人类成为彼此相连的信息有机体,并且与人造物共享一个数字化的信息空间时,认识的责任就必须由人类的能动者和非人类的能动者来共同承担。如何理解这种分布式的认识责任,是人类面临的对传统责任观的挑战。
智能化的网络世界永远是一个包罗万象的地方,既让人着迷,又令人忧虑。着迷之处在于,它有可能让我们极大程度地从体力与脑力劳动中解放出来,有时间从事成就人的工作;忧虑之处在于,它同时也会带来了无尽的问题:身份盗用、垃圾邮件、网络欺诈、病毒攻击、网络恐怖主义、网络低俗文化等。这说明,我们的认识系统已经是一个与社会—技术高度纠缠的系统。
在这个系统中,不仅我们的认识是分布式的,而且认识的责任也是分布式的。正如朱迪思·西蒙所言,认识的责任是一个把认识论、伦理学和本体论联系起来的话题,认识的能动作用和相关的问责,既不属于人类,也不属于人造物,而是属于人类在系统中的内在—行动。
这种观念类似于我们对量子测量结果的理解。在量子测量中,被测量对象的属性、测量设置和测量结果是相互纠缠和共同决定的。属性既不是事先存在的,也不是无中生有的,而是在测量过程中,由测量设置和对象共同形成的,是实体—关系—属性一体化的结果。
传统的认识论观念,对这种量子测量整体性的理解,曾带来许多认识论的困惑,导致了两位物理学大家玻尔和爱因斯坦的世纪之争。同样,在智能环境中,智能化程度的提高,造成了我们对承担责任的恐惧。比如,在个人数据处理、无人驾驶、算法交易等事件中,如果发生问题,应该由谁来负责呢?
这种恐惧把认识关系变成了一种权力关系。也就是说,在认识过程中,不同的认识能动者(不论是人类的,还是非人类的),具有不同的权力。当非人类的算法或软件机器人过滤和引导了我们的认识视域时,就提出了我们如何成为负责任的认识者的问题。
比如,我们已经习惯于通过百度来查找所需要的一切信息,习惯于通过参考他人的评分或评论,来决定预定哪家宾馆、在哪个餐饮吃饭、购买哪件衣服,等等。问题在于,我们为什么要相信这些评论或评分?如果我们被欺骗,比如,曾经发生的莆田系问题。我们应该如何问责呢?对这个问题的思考,涉及到关于搜索引擎这样的智能人造物的伦理和道德责任的问题。
弗洛里迪等人认为,如果人造物显示出互动性、自主性和适应性,那么,它就有资格成为一位道德能动者;如果人造物有资格成为一位道德能动者,那么,它就能被问责。在这种情况下,如果我们依然沿着传统的问责思路,把携带有智能的人造物,看成是不能承担责任的,那么,对于这类非人类的能动者而言,道德的能动作用就与道德责任分离开来。
如果我们认同这种观点,那么,谈论智能人造物的责任就没有意义。事实上,这种观点混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间存在的本质差异。
比如,汽车发生碰撞事故,交警通常会判定要么由司机来负责,要么由厂商来负责。在这种思路中,汽车是被当作孤立的技术人造物来看待的。可是,如果是一辆无人驾驶的汽车发生了碰撞事故,那么,我们就需要追究这辆车的责任,因为无人驾驶车应该被当作是属于社会—技术—认识高度纠缠的人造物来看待的。
然而,如何解决这样一个把伦理学、本体论和认识论高度纠缠在一起的问题,在现有的规章制度中和交通法规中依然无章可循。因此,从如何重塑社会—技术—认识系统中的问责机制来看,如何确立分布式责任观是我们面临的对传统问责机制的挑战。
综上所述,智能化社会是由人工智能驱动的社会,是信息文明的高级阶段。这个社会必然会全方位地打破我们习以为常的生活方式、生产方式、思维方式、概念框架乃至当前在现代性基础上形成的方方面面。在我们势不可挡地迈向智能化社会的道路上,面临着有必要重构一切的情况下,哲学社会科学的出场,很可能比技术与资本的出场更迫切、更重要。因为只有这样,才能有助于前瞻性地重构一系列战略方针,做到防微杜渐,才能有助于扩大人工智能带来的恩惠,规避人工智能可能带来的危害,降低发展人工智能付出的代价。也许,摆脱恐惧,迎接挑战,是人类文明无法回避的宿命。