【百道编按】我们都意识到互联网不仅改变了能获取的信息量,同时也影响了信息能否以及如何被发现、消费和传播。技术“破坏”了图书馆和出版商控制的传统知识供应链,在这样的世界里我们如何从可疑的“事实”中区分出值得信赖的信息呢?
去年3月,Google计划改变其搜索算法的报道受到关注。这则被无数媒体转载的消息提到,Google的页面排名将不仅基于其PageRank算法所得的流行度,还要基于准确性。在新的计划下,Google将根据自身数据库Knowledge Vault权衡信息的可靠性,据此对网站进行排名,而不是根据会不经意合并可靠结果和虚假信息的导入链数量来排名。信息的准确度越高,其在搜索引擎的排名就越高。
鉴于线上资源指数级非结构化的增长,整合和检查数字空间的信息成为了当务之急。Google2014年获得了所有互联网搜索的68%,每天约有57亿次搜索,每年约2万亿次搜索。Google搜索的第一名位置能得到33%的搜索流量,因此要让用户继续将Google视为信息发现必不可少的搜索引擎,为他们提供可靠的信息至关重要。但Google整合知识的使命带来了一个疑问,谁来决定数字时代的知识供给经济中什么信息是值得信赖的,学术出版商在其中扮演什么角色。
互联网不仅改变了能获取的信息量,同时也影响了信息被发现、消费和传播的方式,改变了我们决定什么值得信赖什么不可信的依据。在互联网时代之前,出版商、图书馆和学术界一起控制着知识供应链,确保“诚信”,将错误信息的数量减到最少。学术界核查知识,聚集可靠信息(比如同行评审或以其他方式验证的)的图书馆是验证研究成果的最终一关。但在数字世界的供应链中,互联网而非图书馆成为了研究人员的第一个出发点,图书馆无论是在供应链的发行环节还是建立可信度的环节都已经被去中介化。结果是在数字空间,无论是可靠的还是可疑的信息都在算法的熔炉中被混合,影响着研究结果及对其的解读。
比方说,互联网搜索结果是高度选择性的,无论是在搜索、发现层面还是在信息层面。数字化无法获得的资源被排除在外。相反,过多的信息扭曲了研究结果。研究人员被太多的(错误)信息掩埋,并不总能在坏的中挖出好的来。另一方面,错误信息尽管不可信,却一直能在线上存在。《学术厨房》(The Scholarly Kitchen )中提到,在过去,作废文章通常会继续在数字空间传播,即使在撤销后仍旧能够影响研究。《Inside Higher Ed》最近一篇报道提到,开放存取期刊的同行评议和营销可信度存疑,而以之为代表的“掠夺性出版”正在增多。不准确的信息表现出准确的样子,这会让最勤奋的研究人员也受到折磨。
因为会影响到研究结果,信息可信度的问题比以往显得更加重要。Google想要决定信息真实性带来了学术出版商在知识供应链中未来扮演的角色的问题。诚然,大学出版社做的要比单纯管理和确保严格的同行评议多得多。在信息过量环境中,能很轻松地搜集、出版、定位“事实”,检查和培育知识专家要比过去更为关键,不能仅仅止步于改进搜索技术。
然而,新的竞争者正在进入:Google和Facebook这类技术企业,维基百科这类众包项目,商业出版商和其他企业,他们对确保知识准确度的投入可能有别于学术研究的同行评议,他们颠覆了现有的知识验证程序。现在,形形色色的出版商乖乖地将元数据、DOI和关键词发给Google和其他搜索引擎,急于提供全文XML文件以被搜索引擎抓取。我们祈祷学术出版商的声誉能确保出版物的诚信,同时也反过来帮他们在搜索结果中显示在主要位置上。
不过,当传统同行评议供应链以外的信息通过元数据、在线出版物或其他内容形式进入后,会发生什么呢?商业、非营利、社会、大学、研究机构出版之间的分界已经很模糊——比如兰登书屋近期与Author Solutions合作创建了“学术出版新模式”,阿兰特大学出版社——新的竞争者正在进入可信研究的领域。学术出版商能否继续控制学术可靠度标准,还是他们将有着图书馆一样的去中介化风险?
事实证明,开篇所提到的Google改革算法的报道并不准确:这个搜索引擎巨头只是从理论上寻求这样做的可行性。许多人认为这篇报道反映了确切的计划,至少是未来计划的征兆。无论Google的计划是什么,都提供了一个机会,让我们重新审视学术出版商作为知识创造供应链可信度监管人的角色。
(本文编辑 晨瑾)
发表评论前,请先[点此登录]