快好知 kuaihz

论文评审意见汇总(43)

论文评审意见汇总(43)

武夷山

 

 第一则

1.      作者很多概念都不懂。例如,瑞士、瑞典篇均被引次数最高,并非被引次数最高,作者连这个都不知道。

2.      作者批评的很多现象,在全世界都存在,但作者分析问题根源时,只在中国土壤里找,所以其结论肯定不对。

3.      题目有“向世界科技强国转型”字样,文章里却根本没有科技强国要素的分析。再说,科技强国需要建设,不是转型转过去的。经济增长方式才谈得上转型。

4.      全文的臆断很多,完全没有证据支撑。作者批评的某些现象也许存在,如论文互引,但那是主流吗?有多大比例的作者在互引?

5.      建议方面几乎没有新东西,个别具有新意的建议又不具备可行性,如论文开放评价。假定科研人员都愿意来参与开放评价——其实几个人肯花这个时间?——那么,评价意见分歧时怎么办?多数人说了算?显然不合理,还是得相对的学术权威说了算。权威说了算,不就是传统的同行评议做法的本质吗?。

 

我在稿件原文中还标注了一些其他质疑。

 

第二则

 

    “查找自2004~2015年JCR报告内收录的所有信息科学和图书馆学期刊,排除10年发表Article和Review量不足300篇者,排除自引率>20%者,排除发文量异常大的LIBR J(年发文量万篇左右),最终列入研究者共计27种期刊。”

 

为什么选这11年的时段?为什么排除发文量少的?后面又排除发文量大的,这不相互矛盾吗?LIBR J被Beall列入掠夺性期刊名单了吗?凭什么排除?凭什么以20%作为自引过高的门槛,有何依据?总之,开展课题研究时不能太随意,总要有个说法。

 

第三则

 

1.      2.2小节所举的单指标探索的例子,恰恰不是单指标,IF反而是单指标。请作者多看几篇参考文献,采用学界惯用的单指标评价与多指标评价的定义或说法。

2.      4.1小节第一句,2014年11月-2014年11月?后一半应为2015年11月?

3.      目前的写法,以翻译人家现成数据为主,加上简单的统计,深入分析不够。其实有很多可挖掘的点,例如,发在ArXiv的文章,很多后来都发表于期刊了。请作者追踪一下上榜的ArXiv文章后来是何时发表于期刊的,时滞有多长,就可反映出先发表在一个开放的平台有多么重要。本人有体会,我们先将一篇稿件亮相于ArXiv,再向期刊投稿,后来,期刊录用了我们的稿子,尚未发表的时候,先行发表于ArXiv的文章已经获得引用!又如,中国作为第一作者上榜的几篇文章,是什么主题的?可以简单介绍一下,满足读者的好奇心。

4.      本文基本上讲altmetrics好话为主,建议在某处好好讨论一下该评价法的不足,因为任何评价方法都有缺陷。比如,F 1000是专家评价,貌似合理,结果发现,性医学领域的论文获得F 1000的专家们推荐的特别多。是这些文章特别好吗?非也。只是因为大家都对性感兴趣,“食色,性也”。

 

 

 

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:论文评审意见汇总  评审  评审词条  汇总  汇总词条  意见  意见词条  论文  论文词条  论文评审意见汇总词条  
观点

 谨慎对待皮肤上出现的无厘头清淤

最近在学中医,只是突发奇想。人的身体穴位淤积的话,是否会在皮肤表面形成清淤或者其他类似的症状来提醒我们,身体什么部位可能出现了问题。往往这种症状是我们所忽略的问...(展开)