从2019年12月开始,武汉出现的一种新型冠状病毒,借助中国春节巨大规模的人口流动,迅速肆掠整个中华大地。突发的公共事件,在微信朋友圈如此火爆的时代,各种流言或谣言扩散的速度比病毒更快。在这些谣言中,其中饱受质疑的,就有我们的科学家和科研机构,甚至有人怀疑这个病毒是人造的,是从实验室泄漏出来的。尽管有各种辟谣,有各种科普,但似乎收效甚微。对于科学家的话,大家只能半信半疑,更多是在质疑,在抱怨。
其实,这并非一个新出现的问题,也不是中国特色的问题。英国政治家迈克尔·戈夫(Michael Gove)曾经就有一个臭名昭著的说法:人们“英国人已经受够专家了”,而现在类似的说法充斥全世界。近日,我读到一篇文章,很有感慨。这篇文章是2009年英国谢菲尔德大学心理学系的研究人员Eiser等在风险分析(Risk Analysis)杂志上发表的一篇文章。文章题目很怪异,很不规范,看上去像是专家的叫嚣:“Trust me, I’m a Scientist (Not a Developer)”: Perceived Expertise and Motives as Predictors of Trust in Assessment of Risk from Contaminated Land【“相信我,我是一名科学家(而不是开发商)”:评估受污染土地风险时,可信预测者的专业知识和动机】。
文章调查了两个英国城市地区的居民,对六个信源(独立科学家、房地产开发商、居民团体、朋友和家人、当地媒体)的信任度进行了评估,信息传递的是有关他们所在社区土地受污染的风险。同时还对这些信源的专业性、公开性、准确性或偏颇程度,以及他们有多关心居民的利益进行了评估。文章经过一系列分析,最后得出的结论是:专业知识并不是决定谁最值得信任的决定因素,人们更愿意相信的,是他们认为心目中装有自己最大利益的人,这甚至比了解专业知识要重要3~4倍。
也就是说,那些不信任科学家的人,并不是不热爱科学,而是认为科学家并不关心他们。而相反,对朋友和家人的信任,则更多是由于对共同利益的看法。当然,这并不是一种真正度量信任的标准,而是对于一种具体风险,在沟通中如何确立信任的问题。面对新冠疫情,身边的朋友和家人,并非病毒防护方面的专家,但他们肯定把你的最大利益放在心上,这就是为什么反而他们更值得信任。如果一个信源被视为有动机隐瞒、歪曲或曲解信息,这更将大大损害公众的信任。
世界上没有无缘无故的爱和恨,也没有无缘无故的信任。在关键时刻,信任是基于风险传播者能在多大程度上善于区分安全与危险,在评估中不带偏见,并与受众分享其价值观。
科学家就其社会角色而言,应该被定义为最专业、最博学的。科学家受到信任,被视为拥有专家知识,是最容易看到大问题,有大格局的人。因此,只要他们是被视为排除任何特殊利益集团的独立科学家,就应该高度信任他们。历史上,许多科学家做出了伟大的工作,科学受到大众的支持,这是一种文化。然而,他们的专业知识并不是获得信任的唯一理由,也不是充分理由。
如果科学家是独立的,当然就不太可能,也没有必要隐瞒或歪曲信息。但是,现代科学家不是生活在真空中的,他们也会受到一些利益相关方的影响。比如,研究经费资助方的政策、激励和评估过程,是否在某种程度上破坏了科学研究的公信力呢?
很巧的是,Nature本周发表了一篇文章,恰好就探讨了这个问题。文章的题目是:人们不会信任无情的科学(People will not trust unkind science)。文章引用了Wellcome新近委托专业市场研究机构Shift Learning对科研人员和科研环境进行的一个调查。调查结果说明有许多影响科学文化的问题。
政府、经费资助方有着各种复杂的激励机制,但似乎主要侧重于成果的数量(比如论文数)和非常狭隘的“影响力”概念(比如影响因子),却没有考虑成果真正的价值。如此一来,科研人员只是感受到发表论文的巨大压力,但对成果的意义和人力成本的考量就几乎没有。竞争,固然是科学研究中非常必要的成分,但过度竞争也是有害的。许多领军人物对于团队管理有强烈的爱好,而且觉得自己有能力管理这些团队,但那些被管理的团队,却被限制了许多,错过了科研的重要方面。更糟糕的是,许多研究人员还经历了诸如剥削、歧视、骚扰和欺凌等不公平待遇。有些人会对任何质疑其专业能力的言论变得对抗,有些人对他们自认为无关紧要或愚蠢的问题不屑一顾。
这些文化问题的后果, 1)对于科研人员来说,带来压力、焦虑、心理健康问题、人际关系紧张以及工作中的隔离和孤独感;2)对于研究工作来说,质量会受损、走捷径、成果变得越来越肤浅、重复研究、挑选研究结果并进行数据处理;3)对社会而言,就是该行业中的人才流失,一些人为设定的狭隘优先权(比如各种帽子)导致实际创新和影响力减少。
正如我们前面所说,人们的行为方式,特别是考虑他人利益的能力,会影响其可信度,仅仅有技能是不够的,那些说不相信科学的人并不是在质疑科学家的专业知识,而是质疑科学家是否与公众有着共同的利益。但现在,这种糟糕的研究文化,让科研人员与大众变得越来越疏远,最后公众信任丧失,威胁公众对科学家及其专业知识的尊重
许多论文要用英文发表,这本无可非议,因为要国际接轨嘛!但是在英文发表之外,是否还需要用国人能懂的语言,能理解的方式,介绍一下你的发现呀?不管是重大发现还是些许创新,用母语表达出来让大家看看嘛——作为科研管理机构,是否应该提倡和鼓励这样的做法,甚至在政策上有些指导呢?这至少是一种能主动接近大众的方式。
另外,要成为大众的利益共同体,科学家还需要尽量把复杂问题简单化,而不是相反。有些问题本来并不复杂,比如,在乌云密布、暴风雨来临之前,总有人会比常人更能看云识天气,提醒人们早回家去躲一躲,或者准备一把雨伞。这个时候,你非要等着各种繁文缛节的报告,直到气象局下结论有雨才采取措施,你早就变成落汤鸡了。倘若大众成了落汤鸡,科学家再怎么讲科学、再怎么讲程序正义,大众都不会相信你,只相信简单有用的善意提醒。
科学家在自己的群体中,在自己的领域,有一个游戏规则,在规则范围内,你该怎么玩就怎么玩。对于科学家群体来说,不顾事实那是不可理喻的,不管是关于病毒传播、疫苗接种的科学,还是关于国家法律、经济状况和世界局势。实际上,也许科学家们都做得不错,作为这个群体的一员,我们知道这些专家是谁,我们知道他们是如何工作的,我们信任他们,因为在更大的格局上,我们觉得他们是在为我们工作。
但如若涉及到大众的根本利益,你就必须站在大众的角度来看待这个问题,进行负责任的研究,包括与公众接触,用他们能听懂的话。许多研究人员正在努力,在科普活动中发表演讲、在公共媒体中开公开课等等,他们所讲的内容,不仅仅是自己的研究,还包括作为一名科学家,思考公众最关心的问题。
我们必须意识到,我们不可能将大众从其社会背景中剔除出来,不可能让他们站在科学家的角度来理解一些问题。风险研究中经常出现的一个问题是,专家对风险的评估与不太知情的“非专业”公众所持的看法之间存在一定的差异。以前解释这种差异,往往侧重于个人易受各种认知和社会偏见的影响,这些偏见影响风险信息的处理方式,并可能导致对特定结果可能性的高估或低估。
这种偏见不仅仅是非专业认知的特征,拥有更多专业知识的人在处理信息时也可能表现出选择性,并在统计推理中犯错误。对于许多风险的争议,任何一方都会哀叹另一方有明显不合理之处或偏见。普通公众比其他利益相关者获得科学信息的机会要更少,这会导致他们所关心的问题在具体决策讨论中被打折,因为这些问题被看作是不合理和无知的。所以科学家群体需要有足够的耐心。
不同的人对信息以及对信息进行分析的质量是存在差异的。专家确实应该更了解情况,更善于分析,否则他们就不是专家。在专家与公众之间的关系上,后者在多大程度上可以或不可以依赖前者所提供的判断。如果专家与公众对风险的不同看法,其唯一原因是知识上的差异,那么就应该提供更充分的信息来消除在风险认知上的差异。然而,即使提供了这种信息,差异仍然是存在的。所以,还需要考虑其他因素,特别是个人对不同来源提供的信息的信任程度。
对于风险问题的沟通,信任既是一个认知过程,也是一个社会过程。它不仅取决于任何消息所基于的信息的接收质量,还取决于传播者的特征、他们的社会定义角色以及他们与受众的关系。可以设想,如果科学家、风险管理者或传播者被视为与公众或受众共享相同的核心价值观,这将导致更大的社会信任,这个概念就是认知平衡和一致性的经典理论。如果其他人分享我们的价值观,我们会更喜欢他们,也更容易被我们喜欢的其他人说服(或相信来自他们的信息)。从这个意义上说,信任提供了一种启发,允许人们接受或拒绝信息,而无需考察自己是否喜欢或不喜欢信息的来源。
菲尔兹奖牌得主Cédric Villani曾经说,公众参与是这样的:它让你重新振作起来。这也有助于你了解自己在做什么,以及为什么要这么做。所以,如果我们想建立大众对科学和科学家的信任,仅仅考虑我们自己的成就是不够的,我们必须考虑如何影响周围的人。我觉得这句话很值得我们深思。
总之,一个好的学术环境,需要的是政治家的决策,科学家的良心,而不是运气。一个更友善的研究文化,将更能支持更强大,更深入、更高质量的科学研究。要获得公众信任,不是在嘈杂的世界里大声疾呼,而是应该多看看自己的行为,扪心自问——我们的行为真的是为了他人的最大利益吗?
【参考资料】
Eiser, J. R., Stafford, T., Henneberry, J., & Catney, P. (2009). “Trust me, I’m a Scientist (Not a Developer)”: Perceived Expertise and Motives as Predictors of Trust in Assessment of Risk from Contaminated Land. Risk Analysis, 29(2), 288-297.
People will not trust unkind science. Nature 578, 9 (2020) doi: 10.1038/d41586-020-00269-0
Wellcome, 2020. Researchers think about the culture they work in. https://wellcome.ac.uk/reports/what-researchers-think-about-research-culture